Jusque-là la France offrez sous la baguette de l’entraîneur Deschamps un spectacle le plus souvent ennuyeux mais au moins la France gagnait. Cette fois la France cumule la médiocrité du contenu et du résultat. Le match France Israël s’est terminé sur un match nul, vraiment nul avec une absence totale d’intensité, d’imagination et même d’implication. Comme si les internationaux de l’équipe pensée à autre chose.
Certes le contexte très politique de cette rencontre ne peut être ignoré mais il ne saurait être responsable de la médiocrité générale d’une équipe de France dont il faudra bien poser et le plus tôt possible la question de l’entraîneur qui lui aussi semble sans imagination est très fatigué.
Évidemment d’un point de vue institutionnel et politique, l’absence d’un gouvernement constitue un problème qui pourrait d’ailleurs déboucher sur une crise institutionnelle en mettant notamment en cause le mode de désignation des députés. La question se pose quand même de l’intérêt réel d’un gouvernement. D’ailleurs Darmanin a constaté avec malice que les choses allaient pas plus mal sans gouvernement officiel ! De toute manière en l’état des rapports de force c’est-à-dire la division en trois camps totalement opposés à l’assemblée nationale , aucune majorité n’est possible sauf pour une motion de censure destinée à abattre un nouveau gouvernement. Pour la démolition il y a possibilité d’union mais pas pour la construction.
Notons surtout que les marges d ‘ action du nouveau gouvernement seront très réduites sur la question du budget. Il faut en effet réduire le déficit et la dette en même temps. Une dette abyssale qui sans plan d’amortissement même à long terme nous conduira sans doute sur le chemin de la Grèce. Nous empruntons en effet assez logiquement pour les investissements mais malheureusement aussi pour le fonctionnement ; bref pour faire tourner la boutique de l’État notamment payer salaires, allocations et pensions. Le budget 2025 devra forcément ressembler à celui de 2024 avec au minimum une dizaine de milliards d’économies au moins . Cette perspective va rencontrer des oppositions très fortes et sans doute justifier des motions de censure qui vont balayer le nouveau gouvernement. Heureusement juridiquement en cas de crise grave on peut toujours reconduire le budget précédent dans ses montants.
En l’état des divisions, il ne faut guère espérer qu’il y aura d’autres débats fondamentaux à l’Assemblée nationale peut-être seulement quelques lois de portée assez marginale et encore. En fait, le pays risque d’être géré tout simplement par l’administration. Ce qui est déjà largement le cas actuellement; dans les faits les politiques parlent mais l’administration gère de façon forcément technocratique et centralisée. Les inflexions politiques sont toujours à la marge.
Il faut en effet en cas de nouvelles lois sortirent aussi les décrets et les circulaires et la plupart des lois sont mal appliquées voire pas du tout tout. Avant de prévoir une nouvelle flambée de lois dites structurelles, on ferait mieux de procéder à un audit généralisé du dispositif législatif existant. Au lieu de cela, on promet évidemment la lune sans savoir d’ailleurs assez souvent de quoi on parle faute de concertation avec les corps intermédiaires et les organisations représentatives.
Bref le paysage politique relève surtout d’une forme d’agitation théâtrale et la France ne souffrirait peut-être pas d’une absence de gouvernement pendant une période d’une année par exemple.
On entend déjà les cris sur les atteintes à la démocratie de la part de ceux qui sont surtout des professionnels de la politique !
Les Belges ont battu en 2011 « record du monde » de période sans gouvernement. Est-ce grave ? Essai de transposition de la théorie de l’ »efficience-X » appliquée à la politique économique. Un article qui date mais qui peut éclairer la situation française en 2024.Notons qu’une enquête de BFM montre qu’environ la moitié des Français se satisfont du gouvernement provisoire ! Autant souhaitent un vrai governement. Par Jean-Charles Simon, chef économique de Scor SA dans la Tribune
Harvey Leibenstein a publié en 1966 un article célèbre dans lequel il présentait le concept de « l’efficience-X ». Cette théorie porte sur l’efficience des organisations en fonction notamment de leurs facteurs de production et de leurs conditions de concurrence ou de « pression ». Les études empiriques menées dans ce cadre ont pu, par exemple, comparer des usines a priori très similaires mais dont les résultats différaient largement. Ou encore analyser les effets d’une réduction brutale de la force de travail employée sur la production d’une entité. Seront ainsi étudiées des structures dont une part importante du personnel se met en grève sans que leur activité diminue dans des proportions comparables… Et conformément aux théories de la concurrence, mais par un autre chemin, l’efficience-X fait apparaître les situations monopolistiques comme étant souvent les moins efficientes.
A l’heure où la Belgique traverse une crise politique historique, notamment par sa durée, et alors que des Belges s’apprêtent à célébrer avec le sens de la dérision qui les caractérisent un « record du monde » de période sans gouvernement, la transposition de l’analyse de l’efficience-X à la sphère politique est naturellement tentante.
Depuis 2007, en effet, la Belgique n’arrive pas à former un gouvernement stable qui agirait avec un mandat clair, et cette crise a pris une nouvelle dimension avec l’impossibilité de constituer un nouveau gouvernement depuis les dernières élections législatives, il y a maintenant plus de sept mois. C’est donc un parfait cas d’école pour étudier l’efficience d’un système politique puisque l’une de ses principales composantes est inexistante sur une durée suffisamment longue pour pouvoir en mesurer les possibles effets.
Les résultats sont éloquents. Depuis 2007, les indicateurs les plus conjoncturels, comme par exemple la confiance des consommateurs ou celle des chefs d’entreprise – a priori beaucoup plus sensibles au contexte politique que des indicateurs de production -, évoluent exactement de la même façon en Belgique et dans l’ensemble de la zone euro. Avec plutôt moins d’à-coups qu’avant 2007 ! Et depuis sept mois, pas la moindre trace de décrochage de la confiance des Belges sur leur situation économique par rapport à ce qui est observé dans les pays qui les entourent.
La conclusion semble s’imposer : le gouvernement belge démontre par son absence qu’il ne sert à rien. Au moins en matière économique. Bien entendu, il y a des administrations en Belgique qui remplissent des fonctions indispensables, et un personnel politique qui assure les affaires courantes. Mais il n’y a ni projet, ni programme en cours d’application, et l’économie belge n’en subit aucune conséquence dans ses chiffres.
Il ne s’agit pas de mésestimer une situation potentiellement à risque dans un pays en proie à ses tensions linguistiques, ni la souffrance qu’elle suscite pour beaucoup de Belges. D’ailleurs, si la situation de vacance du pouvoir est exceptionnelle en Belgique, la conclusion sur l’efficience des politiques économiques n’a aucune raison de l’être.
On peut bien sûr objecter que le contexte d’un pays fédéral est très spécifique, que les exécutifs locaux du royaume de Belgique sont puissants et pleinement opérationnels et que, par sa taille, l’économie belge est de toute façon très dépendante de la santé de ses grands voisins appartenant à la même zone monétaire. Mais ce cas est trop éloquent pour ne pas s’interroger de manière plus générale sur l’efficience de l’action politique. Au moins une autre situation type mérite d’être citée du fait de son importance et de sa fréquence : la cohabitation entre partis rivaux à la Maison-Blanche et au Congrès, et/ou au sein de celui-ci, qui se traduit généralement par une grande inertie de l’action politique aux Etats-Unis (moins de lois adoptées, une gestion beaucoup plus « affaires courantes »). Ces périodes ne se caractérisent pas, loin s’en faut, par de mauvaises performances relatives et absolues de l’économie américaine. Réciproquement, les années où le président et le Congrès sont à l’unisson ne sont pas souvent les plus brillantes.
La théorie de l’efficience-X appliquée à la politique économique penche clairement en faveur du « laisser-faire ». Et devrait au moins conduire à considérer avec prudence les plaidoyers passionnés pour le volontarisme comme la dénonciation enflammée des technocraties, qu’elles soient de Bruxelles, de Francfort ou d’ailleurs. Finalement, celles-ci se débrouillent plutôt bien toutes seules pour accomplir leurs missions…
Les Belges ont battu en 2011 « record du monde » de période sans gouvernement. Est-ce grave ? Essai de transposition de la théorie de l’ »efficience-X » appliquée à la politique économique. Un article qui date mais qui peut éclairer la situation française en 2024.Notons qu’une enquête de BFM montre qu’environ la moitié des Français se satisfont du gouvernement provisoire ! Autant souhaitent un vrai governemene.
Harvey Leibenstein a publié en 1966 un article célèbre dans lequel il présentait le concept de « l’efficience-X ». Cette théorie porte sur l’efficience des organisations en fonction notamment de leurs facteurs de production et de leurs conditions de concurrence ou de « pression ». Les études empiriques menées dans ce cadre ont pu, par exemple, comparer des usines a priori très similaires mais dont les résultats différaient largement. Ou encore analyser les effets d’une réduction brutale de la force de travail employée sur la production d’une entité. Seront ainsi étudiées des structures dont une part importante du personnel se met en grève sans que leur activité diminue dans des proportions comparables… Et conformément aux théories de la concurrence, mais par un autre chemin, l’efficience-X fait apparaître les situations monopolistiques comme étant souvent les moins efficientes.
A l’heure où la Belgique traverse une crise politique historique, notamment par sa durée, et alors que des Belges s’apprêtent à célébrer avec le sens de la dérision qui les caractérisent un « record du monde » de période sans gouvernement, la transposition de l’analyse de l’efficience-X à la sphère politique est naturellement tentante.
Depuis 2007, en effet, la Belgique n’arrive pas à former un gouvernement stable qui agirait avec un mandat clair, et cette crise a pris une nouvelle dimension avec l’impossibilité de constituer un nouveau gouvernement depuis les dernières élections législatives, il y a maintenant plus de sept mois. C’est donc un parfait cas d’école pour étudier l’efficience d’un système politique puisque l’une de ses principales composantes est inexistante sur une durée suffisamment longue pour pouvoir en mesurer les possibles effets.
Les résultats sont éloquents. Depuis 2007, les indicateurs les plus conjoncturels, comme par exemple la confiance des consommateurs ou celle des chefs d’entreprise – a priori beaucoup plus sensibles au contexte politique que des indicateurs de production -, évoluent exactement de la même façon en Belgique et dans l’ensemble de la zone euro. Avec plutôt moins d’à-coups qu’avant 2007 ! Et depuis sept mois, pas la moindre trace de décrochage de la confiance des Belges sur leur situation économique par rapport à ce qui est observé dans les pays qui les entourent.
La conclusion semble s’imposer : le gouvernement belge démontre par son absence qu’il ne sert à rien. Au moins en matière économique. Bien entendu, il y a des administrations en Belgique qui remplissent des fonctions indispensables, et un personnel politique qui assure les affaires courantes. Mais il n’y a ni projet, ni programme en cours d’application, et l’économie belge n’en subit aucune conséquence dans ses chiffres.
Il ne s’agit pas de mésestimer une situation potentiellement à risque dans un pays en proie à ses tensions linguistiques, ni la souffrance qu’elle suscite pour beaucoup de Belges. D’ailleurs, si la situation de vacance du pouvoir est exceptionnelle en Belgique, la conclusion sur l’efficience des politiques économiques n’a aucune raison de l’être.
On peut bien sûr objecter que le contexte d’un pays fédéral est très spécifique, que les exécutifs locaux du royaume de Belgique sont puissants et pleinement opérationnels et que, par sa taille, l’économie belge est de toute façon très dépendante de la santé de ses grands voisins appartenant à la même zone monétaire. Mais ce cas est trop éloquent pour ne pas s’interroger de manière plus générale sur l’efficience de l’action politique. Au moins une autre situation type mérite d’être citée du fait de son importance et de sa fréquence : la cohabitation entre partis rivaux à la Maison-Blanche et au Congrès, et/ou au sein de celui-ci, qui se traduit généralement par une grande inertie de l’action politique aux Etats-Unis (moins de lois adoptées, une gestion beaucoup plus « affaires courantes »). Ces périodes ne se caractérisent pas, loin s’en faut, par de mauvaises performances relatives et absolues de l’économie américaine. Réciproquement, les années où le président et le Congrès sont à l’unisson ne sont pas souvent les plus brillantes.
La théorie de l’efficience-X appliquée à la politique économique penche clairement en faveur du « laisser-faire ». Et devrait au moins conduire à considérer avec prudence les plaidoyers passionnés pour le volontarisme comme la dénonciation enflammée des technocraties, qu’elles soient de Bruxelles, de Francfort ou d’ailleurs. Finalement, celles-ci se débrouillent plutôt bien toutes seules pour accomplir leurs missions…
Les avertissements pleuvent, avant comme après les élections européennes et législatives. Agences de notation financière, FMI, Commission européenne, Conseil d’orientation des retraites, Haut Conseil des finances publiques, Cour des comptes… Ces institutions partagent une même préoccupation : les dérapages de la dette publique et du déficit budgétaire en France et ses conséquences. Pour le pays, ses voisins et l’euro. Le FMI a émis un appel en faveur de nouvelles économies dès le 23 mai, et Standard & Poor’s a dégradé la note de Paris huit jours plus tard. Avant que la Commission européenne n’enclenche cette semaine une procédure pour déficit excessif contre la deuxième économie de la zone euro, dont la dette est la deuxième plus élevée des 20 États membres, derrière celle de l’Italie, et dont le déficit frôle le double du maximum de 3 % imposé par les règles européennes.
Le même jour, le 16 juillet, le rapport annuel sur l’économie du FMI a rappelé l’urgente nécessité de contenir la dette publique (3 160 milliards à la fin mars, soit 110,6 % du PIB) ainsi que le déficit budgétaire (5,6 % du PIB, au lieu des 4,9 % prévus), alors que les perspectives de croissance, à 0,9 % en 2024, restent faibles. « La France doit rapidement agir sur sa trajectoire budgétaire si elle veut recréer des marges de manœuvre, a estimé le chef économiste du Fonds, Pierre-Olivier Gourinchas. Sans ajustement sérieux, il sera difficile d’atteindre les objectifs d’un retour du déficit à 3 % du PIB pour 2027. » D’autant plus que la charge de la dette s’est alourdie avec les hausses de taux d’intérêt. Son coût s’élèvera cette année à 55 milliards d’euros, puis à 83 milliards par an d’ici à 2027.
Alors que le déficit budgétaire s’est accru, en raison d’un manque inattendu de recettes fiscales en 2023, les prévisions de sa réduction par l’ex-gouvernement n’ont convaincu ni Bruxelles ni Washington. L’instabilité politique amplifie les inquiétudes. « Qui que ce soit qui gouvernera demain la France devra s’emparer de cette situation des finances publiques. Il devra réduire notre endettement », a déclaré le 16 juillet Pierre Moscovici, président de la Cour des comptes et ancien ministre de l’Économie, qui avait pourtant plaidé contre les hausses d’impôt lors de son passage à Bercy. Selon lui, la précarité des finances publiques s’aggravera avec la facture de la transition énergétique, jusqu’à 7 points de pourcentage jusqu’à 2030.
Face à ces risques, aucune des forces politiques n’a proposé de mesures de rééquilibrage budgétaire. « Le NFP et le RN ont au contraire présenté des programmes comportant des dépenses supplémentaires », s’alarme le chef économiste d’une grande banque française. Parmi les mesures prônées par le FMI figurent la réduction des allocations chômage, la baisse de la masse salariale du secteur public et la limitation des « chevauchements » entre niveaux administratifs. Toutes politiquement explosives. Un autre levier serait de renoncer à l’indexation totale des pensions de retraite sur l’inflation (revalorisées de plus de 5 % au 1er janvier, pour un coût de 14 milliards d’euros). Une option rejetée par Laurent Wauquiez (LR) il y a quelques jours. Atteindre les 3 % de déficit en 2027 suppose de réaliser 80 milliards d’euros d’économies en trois ans. Reste à définir comment y parvenir.
« Coup de poker », « pari présidentiel », « roulette russe ». Les commentaires n’ont pas manqué pour souligner que la dissolution du 9 juin 2024 répondait à la seule appréciation du président de la République. Est-ce conforme à la Constitution ? Avant d’étudier l’article 12 de la Constitution qui encadre la dissolution de l’Assemblée nationale par le président de la République sous la Ve République, il convient de rappeler ce qu’est la dissolution.Paradoxe face au chaos politique actuel, la dissolution est un mécanisme d’équilibre censé éviter une confusion des pouvoirs. Elle trouve sa place dans un régime parlementaire, marqué par des relations juridiques constantes entre le Gouvernement et le Parlement.
Enseignant chercheur, membre du CERAPS, Université de Lille,, Sciences Po Lille dans The Conversation
Dans un tel régime, le Gouvernement est l’émanation de la majorité à la chambre issue du suffrage populaire. Il est créé pour la guider vers la satisfaction de l’intérêt général qui a justifié son élection. Gouvernement et majorité parlementaire sont ainsi unis par une relation de confiance. Mais l’Assemblée doit pouvoir retirer sa confiance en cours de mandat : soit parce qu’elle conteste l’efficacité de l’action du Gouvernement, soit parce que suite à un mouvement en son sein, la majorité n’a plus les mêmes contours. Le Gouvernement est en effet politiquement et collégialement responsable devant l’Assemblée qui peut par exemple voter une motion de censure.
Certaines Constitutions, comme en Espagne ou en Allemagne, exigent que cette motion soit constructive, au sens où l’Assemblée ne peut renverser le Gouvernement qu’à la condition d’être capable de soutenir une nouvelle équipe et une nouvelle politique. Cette disposition rend plus difficile la mise en cause de la responsabilité politique du Gouvernement et n’a fonctionné qu’une seule fois en Espagne et jamais en Allemagne.
La dissolution apparaît comme un moyen d’équilibrer cette relation de confiance et d’éviter que l’Assemblée n’abuse de son pouvoir de renverser les Gouvernements.
Certaines Constitutions ne permettent ainsi la dissolution de la chambre basse que lorsqu’elle se révèle impuissante à constituer un nouveau gouvernement. C’est le cas en Allemagne où le pouvoir de dissolution du président est strictement encadré par les articles 63 et 68 de la Loi fondamentale.
La dissolution n’y est donc possible que si le Bundestag nouvellement élu est trop divisé pour élire un chancelier, même à la majorité relative ou si à la suite du rejet d’une question de confiance elle ne parvient pas à élire un successeur au chancelier sanctionné.
Situation qualifiée de « pat parlementaire » et qui traduit l’impossibilité de gouverner du fait d’une Assemblée divisée qui ne parvient à se mettre d’accord ni sur les individus ni sur la politique à mener. Situation de blocage à laquelle la dissolution apporte une solution. C’est dans ce même esprit que la Constitution française de 1946 avait consacré la dissolution dans son article 51.
Elle n’était possible que si sur une période de 18 mois deux gouvernements étaient renversés soit par l’adoption d’une motion de censure à la majorité absolue, soit par le rejet d’une question de confiance à la majorité absolue (50 % +1 des membres de l’Assemblée). Là encore, le président de la République ne pouvait dissoudre que si l’Assemblée faisait la preuve de son inaptitude à constituer en son sein des majorités de gouvernement.
La dissolution implique donc habituellement trois acteurs : le chef de l’État qui prononce la dissolution, l’Assemblée qui est dissoute et le Gouvernement qui est toujours impacté par la fin de mandat de l’Assemblée dont il est l’émanation – et qui voit son pouvoir se réduire à l’expédition des affaires courantes. Trois acteurs au moins dont les pouvoirs sont encadrés par la Constitution afin d’éviter que l’un d’entre eux abuse de cette faculté.
Comment la Constitution de 1958 encadre-t-elle le pouvoir du président de la République de dissoudre l’Assemblée nationale ? Très lâchement, l’esprit de la Constitution étant de lutter contre l’instabilité ministérielle.
Celle-ci fut causée notamment par le discrédit qui a entaché le droit de dissolution, avant que son abandon (on parle de « désuétude » pour désigner un droit qui est toujours inscrit dans les textes mais dont l’usage est abandonné) soit acté par l’exécutif sous la IIIe République. On retrouve cette instabilité sous la IVe, les calculs politiques ayant paralysé le recours à la dissolution.
Soucieux de rétablir l’équilibre des pouvoirs, les constituants de 1958 ont libéralisé le droit de dissolution. Il n’est pas encadré de conditions, mais seulement de formalités. Ainsi, si le président de la République doit avant de prononcer la dissolution recueillir l’avis du Premier ministre et des présidents des assemblées, ces avis ne sont que consultatifs. Ils peuvent donc bien être tous hostiles à la dissolution, le président dispose seul du pouvoir de décision qui n’est pas, par ailleurs, soumis au contreseing ministériel. Disposition qui fait de notre régime une exception au sein des régimes parlementaires européens. Dans ceux-ci, le chef de l’État est politiquement irresponsable et ne dispose que de pouvoirs nominaux, c’est-à-dire de pouvoirs dont l’initiative lui échappe au profit du Gouvernement et de son chef, qui sont eux politiquement responsables devant l’Assemblée.En France le président est le garant de la stabilité des institutions, y compris face à une Assemblée divisée qui ne souhaiterait pas sa dissolution. La IVe République a montré qu’il ne s’agissait pas d’un cas d’école. Plus proches de nous, les difficultés de Boris Johnson à obtenir l’autodissolution de la Chambre des Communes lors des négociations relatives au Brexit ont montré que l’Assemblée peut bloquer la mise en œuvre d’une politique souhaitée par le Gouvernement qu’elle a mis en place et paralyser toute alternative politique en refusant sa dissolution.
Sous la Ve donc, le président de la République décide la dissolution et la seule limite qui s’impose à lui est temporelle, puisqu’aucune dissolution n’est possible dans l’année qui suit les élections consécutives à une dissolution – consécration constitutionnelle de l’adage selon lequel « dissolution sur dissolution ne vaut ». Le président dispose donc d’une totale liberté d’appréciation puisqu’aucune condition juridique ne s’impose à lui, la dissolution étant perçue comme un mécanisme d’équilibre, voire comme une arme contre le législatif.
Le droit a donc été respecté en ce 9 juin 2024, l’esprit des institutions également. La dissolution apparaît en effet comme une dissolution parlementariste ou d’anticipation : le chef d’État conscient que l’Assemblée pourrait prochainement se retourner contre le Gouvernement choisit de dissoudre pour élargir son assise parlementaire. Cette vision est celle de François Mitterrand en 1981 et 1988. Celui-ci n’a pas attendu que la majorité à l’Assemblée renverse son gouvernement ou refuse de voter ses textes pour prononcer sa dissolution.
Même si la dimension tactique d’une telle décision ne doit pas être oubliée, la situation est donc différente de celle qui a amené à la dissolution de 1997 par Jacques Chirac. Celle-ci appartient à la catégorie des dissolutions opportunistes dans lesquelles l’exécutif est libre de prononcer la dissolution et de choisir le moment le plus opportun pour sa majorité. Elle n’était en effet dictée que par des considérations politiques. Le président choisissant, en dehors de tout conflit présent ou à venir avec l’Assemblée, de dissoudre pour prendre les oppositions de court et renouveler sa majorité.
Difficile de conclure pour autant que l’esprit des institutions ait été totalement respecté. D’une part, dissoudre l’Assemblée au soir des élections européennes transforme l’enjeu de la consultation. Elle la relègue au second plan alors que les discussions sur la composition de la Commission vont débuter. Quel sera le poids de la France ? D’autre part, dissoudre l’assemblée quand un parti extrême vient de remporter une élection met en danger les institutions, alors que la dissolution et son encadrement par l’article 12 avaient pour ambition de les protéger.
Nous sommes nombreux à en avoir conscience : adopter des modes de vie plus écologiques est devenu une nécessité. Pour autant, nous n’agissons pas de manière écologiquement vertueuse en toutes circonstances (loin de là), et, surtout, nous nous accordons, parfois inconsciemment, des « écarts » après avoir fourni une bonne action sur le plan environnemental. ( dans The Conversation)
par Lisette Hafkamp Ibanez,Directrice de recherche en économie comportementale et environnementale, CEE-M, Inrae; Gilles Grolleau Professor, ESSCA School of Management; Mathex Simon Doctorant en économie de l’environnement et en économie comportementale, CEE-M, Inrae; Sophie Clot Professeure, University of Reading
Tant pis pour votre empreinte carbone, vous décidez finalement d’acheter ces délicieux avocats acheminés de l’autre bout du monde, ou, pire, de prendre l’avion vers cette destination tant rêvée, vous disant que c’est bien mérité, après tous les efforts que vous avez fournis pour l’environnement pendant l’année – achats durables, vélo pour vous rendre au travail, tri de vos déchets…
Hypocrisie environnementale ? Pas nécessairement. On appelle cela la compensation morale. D’abord observé en psychologie, ce biais comportemental désigne le fait qu’une précédente « bonne action » peut vous déculpabiliser et vous inciter à en réaliser une « mauvaise ».
La compensation morale, souvent inconsciente, est un arbitrage interne qu’opère l’individu. Pour le comprendre, aidons-nous d’une métaphore bancaire : imaginons que nous possédons une sorte de « compte moral » sur lequel nous recensons les bonnes et les mauvaises actions comme des crédits et des débits, le principe de base étant de maintenir le compte dans le positif, ou tout du moins à l’équilibre.
Acheter des yaourts 0 %, mais se laisser aller avec des goûters hyper-sucrés, craquer pour un soda glacé après une séance de sport, prendre l’ascenseur après être venu en vélo au travail… Cette compensation se retrouve dans des enchaînements d’efforts et de petites récompenses que nous nous attribuons sans nécessairement nous en rendre compte mais qui peuvent au final menacer l’atteinte de notre objectif initial.
Il existe de multiples études documentant ce biais dans le domaine de l’environnement.
Ainsi, des chercheurs de l’université de Nankin en Chine, ont mené une expérience auprès de 80 individus qui ont réparti aléatoirement leurs achats entre un magasin en ligne de produits conventionnels et une boutique de produits biologiques.
Ils ont observé que les participants ayant acquis des produits biologiques ont consommé plus d’eau dans une tâche expérimentale ultérieure par rapport à ceux ayant acheté des produits conventionnels. De plus, ces mêmes personnes ont également reporté une intention plus faible de s’engager dans des actions en faveur de l’environnement.
Parfois, il suffit qu’un proche, parent ou ami, réalise une action vertueuse, comme un don à une association environnementale ou l’achat d’un véhicule écologique, pour que l’individu se sente autorisé à relâcher ses efforts en termes d’achats de produits écologiques ou d’utilisation des transports en commun, ce qui rend incertains les bénéfices globaux de l’action vertueuse.
Exemple avec cette étude menée en 2019, qui met les participants dans une situation où ils imaginent qu’un proche fait le choix d’un réfrigérateur. Une partie des participants apprend que ce dernier a opté pour un réfrigérateur économe en énergie par souci environnemental, alors que l’autre partie est informée que ce proche s’est orienté vers un réfrigérateur conventionnel. Ceux dont le proche avait sélectionné un équipement économe en énergie ont exprimé des intentions comportementales pro-environnementales plus faibles.
Dans d’autres cas, le simple engagement mental à faire mieux ou plus dans le futur (« à partir du mois prochain, je recycle tous mes déchets ») permettrait à l’individu de se sentir libre d’en faire moins dans l’immédiat (« je ne trie rien aujourd’hui »). On fait ainsi face à une sorte de « procrastination écologique » : repousser à plus tard ma bonne action m’autorise dès maintenant à adopter un comportement peu souhaitable.
Le contexte social joue aussi sur les efforts en faveur de l’environnement. Ainsi, l’individu se prête plus volontiers à des actions vertueuses si une forme de contrôle social est exercée, par exemple par des collègues soucieux de l’environnement (et vérifiant que le chauffage du bureau n’est pas trop élevé et le papier de l’imprimante recyclé). S’il échappe à ce contrôle, l’individu peut se permettre quelques libertés (chauffer sa chambre d’hôtel de manière excessive en déplacement).
En conséquence, l’effet global sur l’environnement de la compensation morale est encore difficile à déterminer.
On sait cependant que la compensation morale peut complètement fausser l’évaluation qu’on peut faire d’une politique publique. Par le biais d’une expérience de terrain auprès de 154 ménages américains en 2011, dans la ville de Lynnfield (Massachusetts), près de Boston, des chercheurs ont dressé le bilan énergétique d’une politique de communication testée pour réduire la consommation d’eau domestique.
Il s’agissait d’un simple prospectus qui était distribué aux ménages, leur indiquant leur volume de consommation d’eau et celui de leurs voisins les plus économes. Ce prospectus est un « nudge » qui s’appuie sur une norme sociale (ici le niveau de consommation des voisins les plus efficaces) pour inciter les ménages à réduire leur consommation d’eau en se conformant à cette norme.
Si cette politique a bien eu l’effet escompté en réduisant la consommation d’eau de 6 %, elle a également eu pour conséquence indésirable d’augmenter la consommation d’électricité de ces mêmes ménages de 5,6 %. Ainsi, en faisant les comptes entre l’électricité économisée à ne pas chauffer l’eau (estimée à 0,5kWh/personne/jour) et l’électricité consommée en plus (0.89kWh/personne/jour) à cause de la compensation morale, le bilan de la politique est négatif et affiche une augmentation de la consommation globale d’électricité des ménages.
Comment habiter ce monde en crise, comment s’y définir, s’y engager, y faire famille ou société ? Notre nouvelle série « Nos vies mode d’emploi » explore nos rapports intimes au monde induits par les nouvelles réflexions technologiques, écologiques ou encore liées au genre survenues au tournant du XXIe siècle.
Nous pouvons tous être sujets à la compensation morale, dans le sens où chacun peut être susceptible de rationaliser ou de justifier un comportement moins vertueux en se livrant à des actions jugées méritantes pour compenser, même si ces actions ne sont que symboliques ou superficielles.
Cependant, l’ampleur et la fréquence de ce phénomène peuvent varier d’une personne à l’autre en fonction de ses valeurs personnelles et des raisons pour lesquelles la bonne action est accomplie.
Par exemple, ceux qui attachent une grande importance à la protection de l’environnement semblent avoir plus tendance à compenser une action vertueuse par une action moins vertueuse. Une explication à cela serait que plus on accorde de l’importance à l’environnement, plus l’action vertueuse réduirait notre culpabilité à réaliser ensuite une action moins vertueuse.
Enfin, une bonne action ne génère pas le même effet de compensation morale suivant si elle a été réalisée de manière volontaire ou obligatoire ou suivant si l’individu a été rémunéré pour la faire ou l’a réalisée gratuitement. Une étude montre que lorsque les individus sont payés pour réaliser une bonne action, cela ne génère pas ensuite de compensation morale. On peut penser que le fait d’être payé atténue l’aspect moral et gratifiant du fait d’avoir réalisé un geste vertueux.
Toutes les politiques publiques qui visent à inciter les individus à adopter des comportements plus souhaitables collectivement peuvent engendrer cette compensation, ce qui remet en cause leur efficacité. Alors, existe-t-il des moyens pour l’atténuer ?
Si par exemple un individu investit dans une voiture électrique, il faudrait pour éviter qu’il compense cette bonne action en conduisant davantage, lui rappeler les raisons environnementales pour lesquelles il a choisi cet achat.
Cela pourrait prendre la forme d’un simple mail, ou d’un message au moment où il démarre la voiture.
Une autre approche pourrait être d’informer, au moment opportun, les individus sur le risque de l’effet de compensation et de les encourager à ne pas adopter une approche comptable de leurs bonnes actions. Cela revient à prendre conscience que certaines de nos actions (laisser les lumières allumées) peuvent annuler l’effet d’un effort préalable (prendre des douches plus courtes). Naturellement, une fois éclairés sur cet effet, nous pourrions nous trouver plus enclins à ajuster nos comportements et réduire la compensation afin d’éviter le sentiment du « tout ça… pour ça ! »
Enfin, s’efforcer d’orienter le discours sur le but final (je réduis mon empreinte carbone) plutôt que sur des actes isolés (je me déplace de plus en plus à vélo), en adoptant une vision plus globale pour faire en sorte que nos efforts pourrait également amener à une prise de conscience.
Nous espérons que la lecture de ce texte vous aidera à empêcher la compensation de votre prochaine BA pour l’environnement.
Depuis le début du conflit qui oppose la Russie à l’Ukraine, on relève une forte propension du président de la République française – et du gouvernement – à employer le terme « guerre ». En juin 2022 à un salon d’armement terrestre, le président français annonçait que la France devait entrer en « économie de guerre » . Aujourd’hui quelle réalité derrière cette notion d’« économie de guerre » ? Nous questionnons ce concept à la lumière de l’histoire et des récentes tendances budgétaires et industrielles.
par Josselin Droff,Chercheur associé au GREThA (UMR 5113), Université de Bordeaux et Julien Malizard Chercheur associé au GREThA (UMR 5113), Université de Bordeaux dans The Conversation
L’économie de guerre désigne la réallocation massive et très rapide de la production et des financements vers les besoins de la défense. Il s’agit d’un ensemble de pratiques économiques exceptionnelles mises en œuvre lors de périodes historiques spécifiques liées à l’existence de conflits armés. Outre la satisfaction des besoins de la défense (armes, munitions, soldats), en économie de guerre, on assiste au maintien des activités économiques indispensables et à la garantie de la production et de l’approvisionnement de certains produits de base (alimentation, énergie, médicaments). Le rôle de l’État est donc fondamental, à la fois pour gérer la production d’armement mais aussi pour organiser les marchés « civils », dans un contexte général de pénurie de ressources (économiques, naturelles, humaines). L’économie de guerre s’accompagne généralement d’une baisse de la croissance du PIB, d’une réduction de la consommation des ménages et de l’investissement privé, d’une forte inflation et d’un contrôle de l’économie par l’État (ex. nationalisation de certains moyens de production). On y observe aussi la mobilisation de ressources financières exceptionnelles pour financer les dépenses de défense (création monétaire massive, augmentation des impôts, bons de guerre, emprunts de guerre, etc.). Les deux guerres mondiales (1914-1918, 1939-1945) sont deux exemples de périodes d’économie de guerre. Pendant la Seconde Guerre mondiale, les moyens budgétaires déployés et l’effort industriel furent énormes. Aux États-Unis, en 1944, au plus fort de l’effort de guerre, le pays produisait plus d’un bateau Liberty ship par jour et les usines de Ford produisaient un bombardier Liberator B-24 par heure. Au total, les États-Unis ont produit plus de 2 700 Liberty Ships et près de 1 250 navires de combat, dont 148 porte-avions, entre 1941 et 1945. Sur la base de cette perspective historique, le seul pays aujourd’hui représentatif du concept d’économie de guerre est l’Ukraine, qui consacre plus d’un tiers de son PIB à la défense en 2022. La Russie, bien qu’ayant actuellement adapté son outil industriel de défense, reste à un niveau plus faible, estimé à 6 %. En France, le poids des dépenses de défense atteindra 2 % en 2024, conformément aux dispositions de la loi de programmation militaire (LPM) qui couvre la période 2024-2030. Emmanuel Macron l’a lui-même souligné lors d’une visite d’État en Suède fin janvier 2024 : « Soyons clairs, même si nous produisons beaucoup plus rapidement, si nous comparons nos efforts de guerre à ceux de la Russie aujourd’hui, ce n’est pas la même échelle. Ils ont réussi à complètement adapter leur système à une économie de guerre. » Dans le détail, la LPM 2024-2030 dispose d’une enveloppe globale de 400 milliards d’euros sur sept ans. Le budget annuel de la mission Défense devrait s’accroître progressivement pour atteindre 67 milliards d’euros en 2030. Les armées disposent de 44 milliards en 2023, contre 36 milliards alloués en 2019. Cet effort, démarré en 2015 dans un mouvement global de réarmement de l’Europe et du monde, est inédit depuis la fin de la guerre froide. Toutefois, il s’agit de budgets en euros courants. Or le pouvoir d’achat des armées subit notamment l’impact de l’inflation. A cela il faut rajouter l’augmentation structurelle des coûts, spécifique aux matériels de défense. La LPM 2024-2030 s’inscrit plutôt dans une logique de remise à niveau de l’outil de défense. La montée en puissance reste difficilement perceptible et il ne s’agit pas d’un réarmement de même ampleur que ce qui a été observé pour un certain nombre de pays européens à la fin des années 1930. Le contexte de la LPM conduit également à financer le développement de grands programmes (porte-avions de nouvelle génération, successeur du Rafale, sous-marins nucléaires lanceurs d’engins de 3e génération, etc.) dont la concrétisation n’interviendra, au mieux, qu’à la fin des années 2030. Les budgets de défense sont en hausse. L’industrie de défense a été sollicitée pour augmenter les cadences de production car les besoins sont relativement urgents, tant en matière de soutien à l’Ukraine qu’en ce qui concerne la modernisation et la densification du parc d’équipements et de munitions. Au niveau national, outre l’augmentation des budgets, les exercices militaires (par exemple dans le cadre de l’OTAN) et l’augmentation des cadences, on observe des changements marquants. La réquisition de moyens civils est l’un d’entre eux. En mars 2024, le ministre des Armées envisage d’imposer aux industriels des niveaux minimaux de stocks de matières premières ou de composants (et donc d’immobiliser de la trésorerie) ou d’exiger qu’ils accordent la priorité à la commande militaire face aux besoins civils. L’idée est de forcer les entreprises à quitter une logique de flux tendus qui s’est progressivement installée depuis la fin des années 1990 et les restructurations successives du secteur. Le volume des commandes est certes plus élevé, mais probablement pas assez au regard des ambitions de montée en puissance. Il faut notamment des garanties financières pour les industriels sur le moyen et long terme (financement des innovations, en particulier des innovations de rupture – plus incertaines et générant des dépenses plus élevées). Ainsi, penser l’augmentation des cadences de production nécessite de penser les moyens nécessaires pour y parvenir : identifier les difficultés sur l’ensemble de la chaîne d’approvisionnement, caractériser les besoins nécessaires en main-d’œuvre et anticiper le niveau de demande sur le long terme afin de calibrer les investissements nécessaires. L’industrie de défense s’inscrit sur le temps long et s’accommode mal de changements brusques compte tenu de la structure de coûts, des cycles de développement et de production et de la structure de marché de type monopsone (un seul client, l’État). Dans un contexte global où le monde se réarme, il y a une hausse de la demande pour le même type de matériels, de matières premières, de composants et de personnels. On observe alors des blocages des chaînes de production du fait d’un surplus de demandes non anticipé. Ces goulets d’étranglement sont multiples (poudres, matières premières, composants électroniques, main-d’œuvre, certaines machines-outils très spécifiques, etc.). On les trouve au sein des grands groupes mais aussi dans l’ensemble de la chaîne de sous-traitance (PME/ETI). L’urgence de la situation internationale et l’inélasticité de la production d’armement en Europe a conduit de nombreux pays à privilégier l’achat de matériels non européens (États-Unis, Israël, Corée du Sud) « off-the-shelf » (l’expression « sur étagère » indique l’achat d’un matériel directement « prêt à l’emploi » sans adaptation aux besoins spécifiques d’un pays, au prix d’une forme de dépendance. Cela s’oppose à une stratégie visant à renforcer sa souveraineté en développant, produisant et entretenant son propre matériel). La situation actuelle confirme l’hypothèse d’un choc de demande en matière d’armement dans un contexte de relative inélasticité de l’offre. Pour que l’offre s’adapte à la demande, cette dernière doit être permanente pour éviter que l’industrie de défense soit en situation d’excès de capacité. Or, en l’état actuel des contraintes budgétaires, le poids de la dette et le respect des critères de Maastricht vont devenir un sujet préoccupant pour soutenir l’effort de défense à long terme. Les défis posés par l’adaptation de l’outil industriel ne sont que partiellement résolus par la LPM : les budgets sont certes orientés à la hausse mais il y a finalement peu de nouvelles commandes, en dehors du cas spécifique des munitions et des missiles. Les besoins sont ici calculés sur une logique d’attrition des moyens (une guerre d’attrition, ou encore « guerre d’usure » est une stratégie militaire consistant à chercher la reddition de l’adversaire en l’épuisant par des pertes continues en personnel et matériel). Le financement de la haute intensité conduit alors à se demander qui supporte le coût de l’augmentation des cadences, entre l’unique client étatique et les industries de défense. La période de la guerre froide, où la France se préparait essentiellement à répondre à une menace qui viendrait du pacte de Varsovie, peut servir de point de comparaison : sur la décennie des années 1980, le budget de défense représentait en moyenne 3,1 % du PIB. Il y a donc aujourd’hui une équation complexe à résoudre entre aider l’Ukraine (armes, munitions, financements), réarmer la France afin de préparer une éventuelle guerre de haute intensité, honorer les engagements européens de bonne gestion budgétaire (critères de Maastricht) et faire face aux dépenses « civiles » de l’avenir (ex. transition énergétique, éducation, financer les retraites). Autrement dit, le cadre européen et l’urgence du conflit en Ukraine viennent fortement perturber le traditionnel dilemme « beurre-canons ». Si certains objectifs ne sont pas incompatibles entre eux (par exemple aider l’Ukraine sur le plan militaire accélère certainement la remontée en puissance de la défense en France), l’argent reste le nerf de la guerre. Plus qu’une « économie de guerre » nous sommes en réalité dans une situation de « préparation à une potentielle guerre de haute intensité dans un cadre interallié et sous contrainte budgétaire forte ». L’expression a certes une portée médiatique moins marquante, mais elle demeure malheureusement plus conforme à la réalité du constat actuel en France. Plus que jamais la France est à l’heure des choix et doit rechercher l’adéquation entre ses ambitions et les moyens qu’elle veut bien y allouer. La coopération et la coordination avec les pays alliés, notamment européens, sont cruciales pour gagner en efficacité opérationnelle et pour éviter les duplications industrielles inutiles.
Les gouvernements et les populations européennes avaient entériné avec la fin de la guerre froide, puis l’effondrement du mur de Berlin, une vision pacifiée de leur continent, tout au moins en termes de conflits armés se déroulant ou affectant leurs territoires. Depuis les années 2000, les conflits s’intensifient – mais ils sont généralement considérés comme étant « ailleurs » sur la planète. Le terrorisme s’incruste, mais il ne s’agit pas d’une déclaration de guerre frontale d’État à État. Ce n’est pas une guerre conventionnelle. À l’inverse des États-Unis ou de la Chine, les pays européens ont réduit leur budget militaire,de manière d’ailleurs drastique depuis la fin des années 1990, et/ou fait évoluer leurs armées vers des armées de réserve. La population n’est plus formée, car ce type de dépense est considérée comme stérile, inutile. Le conflit russo-ukrainien a mis à mal ces certitudes. Puis, avec l’accentuation des tensions entre la Russie et l’OTAN, Emmanuel Macron, le président français, notamment, a clairement décrété que nous étions en économie de guerre. L’expression a été très reprise et médiatisée. Mais que recouvre-t-elle précisément ?
par Sandrine Ansart, Professeur associé, Grenoble École de Management (GEM) et Fiona Ottaviani Associate professor en économie – Grenoble Ecole de Management, F-38000 Grenoble, France (GEM)( the conversation)
L’économie de guerre peut être abordée sous un angle restrictif. Dans ce cas, l’expression désigne la capacité à accroître la production, d’armes notamment. C’est cette conception qui est aujourd’hui promue en France puisqu’il s’agit de : « remettre la capacité à produire au cœur de nos préoccupations » : face au conflit lancé par la Russie en Ukraine, l’industrie de défense française est entrée depuis plusieurs mois en « économie de guerre ». L’objectif : être capable d’assurer un effort dans la durée en cas de nécessité pour nos armées ou au profit d’un partenaire », écrit le ministère de la Défense sur son site Internet.
Cette annonce française est à mettre en perspective. L’effort à consentir aujourd’hui est d’autant plus important que les dépenses de l’État sur ce poste ont été réduites depuis les années 60. Sur la période 2013-2022, la France a ainsi augmenté de 15 % ses dépenses militaires, ce qui est équivalent à l’augmentation russe (mais le point de départ n’est pas le même). En sus, cette hausse des dépenses est à relativiser quand on observe que sur la même période l’Ukraine a connu une augmentation de 1,661 %.
L’expression « économie de guerre » peut aussi être entendue avec un sens extensif. Si, dans ce cas, elle est davantage protéiforme, elle présente quelques caractéristiques clés dont l’ampleur réelle varie selon l’implication directe du pays dans la guerre, selon la phase de préparation ou d’engagement dans le conflit et selon une position cantonnée à un soutien plus ou moins large. Elle ne se restreint pas forcément à un unique effort circonscrit au complexe militaro-industriel, qui comprend, outre le secteur public de l’armée, le secteur privé industriel (fournisseurs des matériel et services nécessaires).
Dans ce cas, l’économie de guerre peut totalement structurer et redessiner les caractéristiques conjoncturelles d’une économie. Si l’implication dans le conflit est forte et touche directement le territoire, la croissance économique fléchit. Les dépenses publiques au titre de l’effort de guerre s’intensifient, captent les recettes fiscales, déjà amoindries sous l’effet de la baisse de la croissance. La dette publique augmente.
Cette réallocation de la production vers l’économie de guerre déstabilise le tissu productif et le segmente : celui considéré comme utile versus celui qui est jugé comme non essentiel à l’objectif poursuivi. Le repositionnement de la demande sur certains secteurs amène des réorientations stratégiques des entreprises. L’emploi s’en trouve à son tour affecté. Le volume total se réduit et sa composition entre les différents secteurs est revue. En ce qui concerne les prix, l’inflation s’affirme sous l’effet d’une réduction du spectre proposé des biens de consommation du quotidien.
Les échanges avec l’étranger peuvent pour leur part évoluer de manière disparate selon l’engagement du pays, les besoins de ressources extérieures, la généralisation du conflit et la pratique d’embargos. Pour autant, la capacité à exporter des biens étant restreinte, le solde commercial s’érode. À l’image de cette situation dégradée de création de richesse, présente et future, du poids de l’endettement, des destructions matérielles, et de la dissémination de populations et spécifiquement des jeunes adultes plombant les futures compétences à disposition, le taux de change de la monnaie, en général, se déprécie, et les taux d’intérêt augmentent, révélateurs du niveau d’incertitudes. En même temps que se développe une économie de subsistance émerge une économie informelle.
Dans ce contexte, l’État – la force publique – renforce ses prérogatives et endosse un rôle de chef d’orchestre aux périmètres élargis. Deux raisons expliquent ce mouvement : la nécessité de relayer l’initiative privée mise en sommeil plus ou moins grand, et la volonté de sauvegarder la Nation.
L’État détermine alors les priorités, arbitre, ordonne et planifie l’organisation des productions cibles. Il réoriente les politiques budgétaire et monétaire de manière à supporter cet effort de guerre. Sont ainsi sanctuarisés ce qui est jugé essentiel : les postes de la défense, les aides (souvent liées à des commandes/exigences de l’État) vers le secteur privé militaro-industriel, le secteur de l’énergie, celui des moyens de communication, comme celui des structures médicales d’urgence.
Pour assurer l’alimentation de la population et des armées, l’agriculture est aussi considérée comme prioritaire. Les ressources fiscales et de financement étant limitées, elles sont orientées vers les prérogatives fixées par l’État. La politique monétaire vise à soutenir le financement de l’effort de guerre : les sorties de capitaux sont restreintes, l’activité des institutions bancaires et financières est encadrée pour orienter les financements vers les secteurs identifiés comme étant stratégiques, la banque centrale est mobilisée pour acheter des titres de dette de l’État.
Au regard de ces critères, la France n’est pas aujourd’hui dans une économie de guerre dans un sens extensif. Cela ne signifie pas que la réorganisation de l’économie ne soit pas d’actualité. Il faudrait en effet être en mesure de mobiliser certains des leviers attribués à l’« économie de la guerre » pour répondre non pas à un conflit armé, mais aux défis colossaux que représente la crise socio-environnementale.
Avons-nous le temps d’engager des transitions sur des temps longs ? L’urgence ne nécessite-t-elle pas un chef d’orchestre qui décide, planifie, encadre lorsque les enjeux sont vitaux ? Dès lors, comment est aujourd’hui organisé et structuré l’appareil étatique pour prendre en charge cette fonction ? Les idéaux libéraux qui ont tant dominé les économies occidentales et qui se sont même répandus au-delà, couplés à la démilitarisation de certaines nations, n’ont-ils pas en même temps dépouillé l’appareil d’État de ces instruments et de ces capacités d’actions dans un contexte d’urgence ?
Le Commissariat au plan, apparu en France au lendemain de la Seconde Guerre mondiale, a disparu. Les liens étroits entre l’acteur public et le secteur privé se sont distendus, qu’il s’agisse des plans ou des projets phares de long terme, industriels ou d’équipement du territoire. Pourtant, ils ont pu être clés pour faire face à certains défis comme la reconstruction en France. Ou, par exemple aux États-Unis (nation qui – elle – a préservé ses dépenses de défense), les liens public-privé au travers du complexe militaro-industriel ont constitué des piliers essentiels de la politique industrielle des années 1980 intégrée à « la guerre des étoiles ». La démarche était jugée alors nécessaire pour restaurer la toute-puissance des États-Unis qui avait été mise à mal suite à la révolution iranienne et la prise d’otage à l’ambassade des États-Unis à Téhéran.
Dès lors, au-delà du discours sur l’engagement de l’État, quels sont les moyens et les structures dont celui-ci dispose pour endosser un rôle de chef d’orchestre et soutenir la société dans sa capacité à faire face aux chocs ? Chocs qui vont se multiplier avec les tensions géopolitiques et la crise socio-environnementale.
En ces temps de crise de la biodiversité et de questionnements sur le vivant, la vieille question de la dualité homme-animal est, semble-t-il, toujours d’actualité. Même si le « vraiment » de la question laisse entendre qu’au fond la séparation n’est pas si profonde. Sur le plan de la biologie, de la zoologie même devrait-on préciser, le paradoxe a été levé depuis longtemps. L’homme est un animal. Il ne peut donc se séparer de lui-même. La question n’est donc plus de nature scientifique, mais philosophique et sociologique. Il reste que pour la plupart d’entre nous la réponse scientifique importe peu tant les termes sont connotés. Affirmer que l’homme est un animal a peu de poids. L’affirmation serait-elle admise que la question deviendrait : qu’est-ce qui distingue l’humain des autres animaux ?
par Pascal Tassy
Professeur, paléontologue, paléomammalogie, Muséum national d’histoire naturelle (MNHN) dans The Conversation
Depuis des siècles les caractéristiques biologiques de l’humanité ont toutes été intégrées dans le panorama des traits des êtres vivants en général et des animaux en particulier. Et pourtant l’homme s’est quasiment toujours singularisé par rapport au reste du monde vivant. Toute une tradition de réflexion philosophique et spirituelle s’oppose à la vision unitaire de la science biologique.
C’est là le grand problème que Linné au 1VIIIe siècle a cru résoudre définitivement. Dans son Systema Naturae dont la 10e édition datant de 1758 est considérée comme le point de départ de la nomenclature zoologique moderne, l’homme, genre Homo, est classé, parmi les animaux, dans l’ordre des Primates – les « premiers », noblesse oblige –, mais en compagnie de trois autres genres : Simia (les singes), Lemur (les lémuriens incluant, pour Linné, le galéopithèque, un petit mammifère arboricole planeur d’Indonésie) et Vespertilio (les chauves-souris).
Ce choix est significatif et fait de Linné un pionnier qui, d’une certaine manière, dépassa les concepts de la majorité de ses successeurs du 1IXe siècle. De fait en 1910, une fois la biologie devenue évolutionniste, l’anatomiste William K. Gregory nomma Archonta un groupe réunissant les primates (singes, lémuriens, homme), les chauves-souris (ordre des chiroptères), le galéopithèque (ordre des dermoptères) à quoi s’ajoutent des mammifères insectivores inconnus de Linné, les toupayes (mammifères arboricoles d’Asie).
L’homme était non seulement un membre des Primates, mais aussi un membre des Mammalia (tous ces termes sont dus à Carl Von Linné). On peut remonter la hiérarchie classificatoire est inclure l’homme dans les amniotes, dans les vertébrés, dans les animaux. Les animaux c’est-à-dire dans les classifications le règne des Animalia, aujourd’hui appelé Metazoa (mot qui signifie la totalité des animaux) – les deux termes sont synonymes.
Le terme de Metazoa à la sonorité incontestablement scientifique ne heurte aucune oreille. Dire que l’homme est un métazoaire ne choque personne. Dire qu’il est un métazoaire parce qu’il est pluricellulaire et possède une protéine qui structure le lien entre les cellules – le collagène – est affaire de spécialistes et empêche invariablement toute percée philosophique. Aucune sensibilité là-dedans. Un animal, c’est autre chose, n’est-ce pas ?
Les successeurs de Linné ont voulu placer l’humain hors du règne animal
Linné à sa manière a été un révolutionnaire. Ses successeurs se sont attachés à défaire le regroupement des Primates. Le naturaliste français Armand de Quatrefages classa en 1861 l’homme seul dans le « règne humain », caractérisé par « l’âme humaine » reprenant une suggestion émise plus de quarante ans auparavant par l’agronome lamarckien Charles-Hélion de Barbançois : classer l’homme dans un règne à part, le « règne moral ».
Quatrefages s’attacha autant à réfléchir à l’unité de l’espèce humaine qu’à analyser la singularité de ses composantes. Pour Quatrefage, en savant positiviste, c’est-à-dire qui s’en tient aux faits, la notion de Règne (la plus haute des catégories de la classification) s’impose à l’esprit humain : les caractères qui définissent l’homme sont évidents et ne sont liés à aucune hypothèse ou théorie.
L’âme humaine, différente de l’âme animale serait un pur fait d’observation. Auparavant, l’anatomiste allemand Johann Friedrich Blumenbach et l’anatomiste français Georges Cuvier opposèrent l’homme seul (ordre des Bimana) aux autres primates (ordre des Quadrumana). Le naturaliste allemand J. C. Illiger avait classé l’homme seul (seul à être debout) dans les Erecta, tandis que l’anatomiste britannique Richard Owen, adversaire résolu du darwinisme, en fit le seul représentant des Archencephala, introduction notable du cerveau comme spécificité humaine.
On peut remarquer toutefois qu’à l’exception de Quatrefages, tous les autres auteurs cités subordonnent l’espèce humaine au règne animal et à la classe des mammifères. On saisit bien la difficulté de ces anatomistes distingués qui, bien conscients des caractères morphologiques et physiologiques qui tout en intégrant parfaitement l’homme dans les mammifères, étaient tentés irrépressiblement, aussi en tant que croyants, de l’opposer au reste de la création.
L’anatomiste, celui qui décide, c’est bien l’homme, Homo sapiens (« l’homme sage » que Linné n’a pas nommé comme tel par hasard). On aura donc compris que ces affirmations taxinomiques ont pour objet de placer l’Homo sapiens à part, en fonction de traits qui lui sont propres, du psychisme à la bipédie, et non d’identifier une séquence de caractères partagés par l’homme et différents animaux.
Que l’homme soit opposé au reste du règne animal ou bien à son plus proche parent animal revient au même. Un évolutionniste tel que Julian Huxley prit en 1957 l’exemple de la classification de l’homme pour illustrer sa conception du « grade évolutif ». L’activité intellectuelle de l’homme est telle qu’elle lui suffit pour concevoir une niche écologique sans précédent. Le cerveau humain situerait l’homme, seul, au niveau de la plus haute des catégories, le règne : le règne des Psychozoa.
On le sait, le plus proche parent vivant de l’homme (Homo) est le chimpanzé (Pan). Dans les années 1960, les premières classifications incluant les deux genres dans la famille des Hominidae firent scandale. Le tableau de famille était dégradé, gâché, détruit.
La biologie moléculaire nous dit que l’homme et les chimpanzés sont presque identiques génétiquement parlant. Mais c’est en pure perte : on reconnaît aisément un homme d’un chimpanzé. On devrait dire : on reconnaît aisément les deux animaux. La baleine bleue et la musaraigne aussi sont des animaux, et même des mammifères, certes bien distincts. Leurs différences sont infiniment plus grandes que celles qui séparent l’homme et le chimpanzé, mais elles ne sont pas importantes à nos yeux d’hommes sages. Philosophiquement parlant, ce ne sont pas elles qui nous concernent. L’anthropocentrisme est patent. En fait, après des centaines de millions d’années d’évolution animale, la lignée humaine est celle des chimpanzés se sont séparées il y a 7 millions d’années environ.
Sept millions d’années d’évolution : voilà qui est responsable de l’existence des humains et des chimpanzés à la surface de la planète. Et rien d’autre.
L’homme est pétri de caractères animaux depuis le liquide amniotique dans lequel baigne l’embryon rappelant les origines aquatiques des animaux jusqu’à l’éminence mentonnière qui fait saillie à l’avant de la mâchoire inférieure (la grande invention ostéologique des humains !) en passant par tous les traits de vertébrés, de tétrapodes, de mammifères et de primates. L’homme n’est qu’un animal comme les autres et différent de tous les autres comme le sont toutes les espèces animales les unes des autres.
Peut-on se contenter d’une telle affirmation ? Les mots du quotidien sont lourds de sens et de contresens. Le verbe persiste, tenace. Malgré l’idéologie et la perte des repères scientifiques, on n’aura pas la mauvaise grâce de s’en plaindre puisque le verbe, après tout, est l’une des caractéristiques d’Homo sapiens, au moins dans la nature actuelle.
Ces dernières années, on assiste à une évidente électrification de l’industrie automobile : en septembre 2023, les ventes de voitures électriques représentaient 19 % des ventes totales de voitures particulières, en augmentation de 3 points sur un an. Il faut dire que cette augmentation des ventes s’inscrit dans un double contexte : une sensibilité accrue des consommateurs à l’impact environnemental de leurs achats et une législation européenne fortement incitative. Pourtant, la voiture électrique se situe aujourd’hui à la croisée de plusieurs paradoxes. Si la sensibilité accrue à l’impact environnemental est un facteur essentiel dans la décision d’acheter une voiture électrique, le prix joue évidemment un rôle central dans le choix final du véhicule. Autrement dit, l’intention de mieux consommer se heurte régulièrement à la réalité financière des acheteurs, qui n’ont pas forcément les moyens d’acquérir une Tesla, dont le Model 3 est vendu à 42 990 euros.
Céline Flipo
Assistant Professor, Human Resources Management, IÉSEG School of Management
Benjamin Boeuf
Professeur associé en marketing, IESEG School of Management et LEM-CNRS 9221, IÉSEG School of Management
dans The Conversation
De la même façon, le dispositif européen pour mettre fin à la vente des voitures thermiques d’ici 2035 engendre des conséquences potentiellement négatives pour l’Union européenne, en profitant notamment aux constructeurs non européens, chinois en tête. Et les aides à l’achat offertes par la France pourraient conduire au même paradoxe, comme le rappelait en octobre 2023 récemment Bruno Le Maire, ministre de l’Économie et des Finances :
« L’argent des contribuables français n’a pas vocation à financer des véhicules provenant à 70 % de Chine. »
En 2022, la Chine est devenue le premier exportateur mondial de voitures électriques, avec un poids significatif en Europe, où un véhicule vendu sur cinq est fabriqué en Chine. Une étude approfondie sur quatre constructeurs automobiles chinois met en lumière une complémentarité institutionnelle, combinant politiques gouvernementales, conditions de marché et capacités technologiques, comme fondement du succès chinois.
Cette complémentarité institutionnelle se traduit notamment par une politique forte de subventions publiques ainsi que d’une aide de l’État chinois pour sécuriser l’accès au lithium, au nickel et aux terres rares indispensables à la fabrication des batteries.
Tesla s’est positionnée sur le segment haut de gamme.
La Chine compte ainsi une cinquantaine de constructeurs automobiles produisant des voitures électriques. Et certains d’entre eux sont en train de devenir des géants mondiaux du secteur, notamment BYD, SAIC et GAC. Grâce à cette complémentarité institutionnelle, le leader chinois, BYD, profite de capacités technologiques exceptionnelles : le groupe possède en effet un contrôle complet de sa chaîne de production de batteries, source majeure de réduction des coûts, et compte s’appuyer sur l’attractivité du prix de ses modèles, notamment la Dolphin et la Seal, pour conquérir le marché européen.
Dans le contexte de cette avancée chinoise, les constructeurs européens s’interrogent sur leurs marges de manœuvre pour prendre la tête dans la démocratisation des voitures électriques sur le Vieux Continent. Selon une étude de la banque d’investissement UBS, d’ici 2030, 20 % des voitures électriques en Europe pourraient être chinoises, et 10 % seraient des Tesla. Il resterait donc 70 % du marché à conquérir. Quelles sont dès lors les marges de manœuvre des constructeurs européens pour capter ces 70 % ?
Le constructeur chinois BYD s’appuie sur le prix pour conquérir le marché français. Mariordo/Wikimedia, CC BY-SA
Une complémentarité institutionnelle, partiellement inspirée du modèle chinois, est à l’étude et fait notamment l’objet de vives discussions au Parlement européen. En France, Bruno Le Maire et le président de la République Emmanuel Macron estiment que l’Union européenne ne pourra pas relever ce défi sans un « Buy European Act », une forme de protectionnisme européen servant de rempart aux voitures chinoises, fortement subventionnées par des aides d’État et des tarifs douaniers favorables à l’importation en Europe.
Dans ce contexte, les règles du bonus écologique français ont déjà été adaptées pour favoriser les voitures électriques produites en Europe. Une étude menée dans 50 États américains a d’ailleurs démontré l’efficacité de ces incitations sur l’adoption des voitures électriques : une augmentation de 1 000 dollars de la valeur de ces aides entraîne une hausse de 5 à 11 % des nouvelles immatriculations de voitures électriques.
La France veut désormais aller plus loin avec l’annonce fin septembre dernier du chef de l’État d’un dispositif de location de voitures électriques à 100 euros par mois pour les modèles produits en Europe et pour les ménages dont le revenu fiscal est inférieur ou égal à 14 089 euros.
La complémentarité institutionnelle exige néanmoins un travail de la part des constructeurs européens sur leur modèle économique. En se fondant sur les récentes avancées de la recherche académique, examinons ici les marges de manœuvre actuelles des constructeurs européens :
En premier lieu, l’importance des innovations technologiques, en terme notamment de batteries, n’est plus à démontrer et les partenariats semblent incontournables pour les constructeurs dans cette course à l’innovation. Le constructeur japonais Toyota a d’ailleurs fait l’objet d’une étude pour ses liens forts avec ses fournisseurs, à l’origine de transferts de connaissances majeurs. En Europe, la gigafactory récemment inaugurée près de Lens (Pas-de-Calais), visant à stimuler la production française de batteries, est le fruit de la collaboration entre Stellantis, TotalEnergies et Mercedes Benz. D’autres projets similaires devraient voir le jour.
Ensuite, de nouvelles propositions de valeur doivent être introduites. La recherche montre que les intentions d’achat et l’adoption ultérieure de véhicules électriques sont fortement influencées par les perceptions et la confiance des consommateurs à l’égard de différentes variables, tels que la technologie, le prix, la disponibilité et leur connaissance de l’utilisation des véhicules électriques.
Les constructeurs doivent donc comprendre ces motivations pour capitaliser sur les sources de valeur. Par exemple, les actifs de plus de 40 ans choisissent moins fréquemment des véhicules électriques que leurs homologues plus jeunes. Il apparaît ainsi essentiel pour les constructeurs d’en identifier les raisons, car cette tranche d’âge est plus encline à accepter le prix élevé des véhicules électriques tout en privilégiant la qualité comme critère principal d’achat. Cela pourrait se traduire par la vente de modèles plus chers, générant ainsi des marges plus importantes pour les constructeurs.
Une production 59 % plus chère
Autre marge de manœuvre dans une perspective similaire : les modèles économiques des constructeurs européens doivent intégrer l’infrastructure de recharge. Cela peut être aussi une opportunité pour les acteurs de la chaîne de valeur des véhicules électriques de tirer parti de la numérisation et trouver de nouvelles sources de création de valeur pour le client. Par exemple, l’utilisation des stations de recharge pour offrir des services numériques de tiers, notamment à des fins publicitaires, peut générer une valeur ajoutée supplémentaire.
En outre, le prix des véhicules électriques doit aussi être revu à la baisse, notamment grâce aux marges de manœuvre que nous venons de citer. Leur prix reste le frein majeur à leur démocratisation. Certes, deux constructeurs automobiles français, Renault et Citroën, ont récemment annoncé le lancement de leurs premières voitures électriques à moins de 25 000 euros : la Twingo Legend et la Citroën ë-C3, respectivement. Néanmoins, les coûts de production d’un véhicule électrique restent actuellement 59 % plus élevés que ceux d’un véhicule thermique.
Comment résoudre ce dilemme ? Une solution avancée dans la recherche est de transférer une partie du prix d’achat vers les coûts d’exploitation du véhicule. Ainsi, une partie des coûts (et notamment ceux liés à la création d’infrastructure de recharge mentionnée ci-dessus) pourrait être intégrée aux frais payés par les clients lorsqu’ils optent pour des modèles de location. Ceci semble d’autant plus pertinent que la location reste le mode préféré d’acquisition pour les véhicules électriques tandis que l’achat reste la préférence pour les véhicules thermiques.
En conclusion, selon une étude récente, les véhicules électriques peuvent devenir pleinement compétitifs d’ici 2035. Les marges de manœuvre côté européen, dans un contexte concurrentiel mondialisé, semblent se profiler autour d’une complémentarité institutionnelle entre décideurs publics, partenariats privés et innovations technologiques. Cette complémentarité reste l’enjeu principal pour permettre aux constructeurs européens de se faire une place importante sur le marché mondial.
Les objets connectés sont -ils vraiment tous utiles ?
Les objets connectés ont rapidement envahi notre quotidien ces dernières années. Assistants vocaux, réfrigérateurs intelligents, système d’éclairage connecté, balances de santé, enceintes connectées, montres intelligentes, verrous connectés… la liste semble extensible à l’infini. Selon les prévisions de Statista et de Fortune Business Insights, le nombre d’objets connectés dans le monde devrait dépasser les 29 milliards d’ici 2030 et le marché mondial de l’Internet des objets devrait passer d’environ 662 milliards de dollars en 2023 à 3 353 milliards de dollars en 2030. Cet essor rapide des objets connectés a créé une abondance de choix pour les consommateurs. Cependant, la profusion d’objets connectés peut paradoxalement engendrer un sentiment de confusion. En effet, il devient difficile de s’y retrouver parmi de plus en plus d’options disponibles sur le marché. Nous nous sentons parfois comme un enfant dans un magasin de jouets géant, submergé par la multitude de choix qui nous sont offerts.
par
Zeling Zhong
Enseignante-Chercheuse en Innovation Digitale & Marketing, EDC Paris Business School dans The Conversation
Quel objet connecté choisir parmi cette multitude de possibilités ? Lequel correspond réellement à nos besoins et à nos valeurs ? Lequel apporte une véritable valeur ajoutée et lequel relève du « gadget » ? Face à cette surabondance de l’offre, le phénomène de désengagement du consommateur se fait sentir, comme nous le relevons dans un travail de recherche récent.
Notre étude propose ainsi une taxonomie pour catégoriser les objets connectés en fonction de l’amélioration de l’expérience utilisateur et de leur pertinence pour des usages effectifs. Cette taxonomie peut guider les consommateurs vers des choix appropriés et à aider les entreprises à naviguer dans ce paysage en constante évolution.
Trois catégories distinctes des objets connectés grand public émergent de nos analyses :
1. « Objets connectés tels que conçus »
Dans cette catégorie, les objets connectés sont utilisés conformément à leur conception initiale. Bien que ces objets offrent des fonctionnalités technologiques plus ou moins avancées, leur potentiel d’appropriation par les consommateurs reste néanmoins limité. Ces derniers tendent à reproduire les usages qu’ils maîtrisent déjà sur leurs autres appareils mobiles et à personnaliser ces objets selon les intentions des concepteurs.
Les thermostats intelligents constituent des exemples pertinents de cette catégorie. Ils sont conçus pour réguler automatiquement la température d’une maison en fonction des habitudes de vie de l’utilisateur. Bien que ces thermostats connectés offrent des fonctionnalités avancées d’optimisation énergétique, la plupart des utilisateurs les utilisent pour régler simplement la température. Autre exemple : les ampoules intelligentes qui permettent de régler l’éclairage en fonction de l’ambiance recherchée mais dont les fonctionnalités ne sont pas toujours exploitées par les usagers.
Un thermostat intelligent
Les thermostats intelligents, un exemple d’objet connecté « tel que conçu ». Pxhere
Pour cette catégorie d’objets connectés, il est recommandé aux professionnels de laisser une marge de manœuvre permettant aux clients potentiels de disposer de davantage d’options pour intégrer l’objet connecté à leur quotidien. Proposer des objets connectés ajoutant de nouvelles fonctionnalités à des objets familiers facilite en effet une utilisation pérenne.
2. « Objets connectés tels que co-créés »
Dans cette catégorie, les usages résultent d’une cocréation entre concepteurs et utilisateurs. Leur fonctionnalité offre une gamme de solutions technologiques permettant une participation active des utilisateurs à la création d’expériences. Le potentiel d’appropriation par les consommateurs est élevé, grâce à des expériences enrichies par la haute technologie et habilitées par des fonctionnalités sophistiquées.
Les solutions de domotique modulaires constituent des exemples emblématiques de cette catégorie. Elles permettent aux utilisateurs de configurer et d’automatiser leur environnement domestique en fonction de leurs préférences et besoins individuels. Les objets connectés basés sur des plates-formes de développement d’Internet des objets comme Arduino ou ESP32 offrent par exemple une grande flexibilité aux utilisateurs en offrant une expérience utilisateur hautement personnalisée et technologiquement avancée.
Cette catégorie est cruciale pour les professionnels du marché des objets connectés destinés au grand public. Ils doivent considérer ces objets comme des composants informatiques ouverts nécessitant des mises à jour régulières pour optimiser les services. Avec l’ajout d’une connexion réseau, ces objets du quotidien deviennent des mini-ordinateurs, transformant les stratégies de développement de produits sur la base des usages les plus répandus chez les clients. Les fabricants doivent ainsi travailler sur un cycle d’évolution court et élargir régulièrement les possibilités de leurs produits pour favoriser la création de valeur grâce à la participation active des utilisateurs dans la co-création d’expériences.
3. « Objets connectés créés par soi-même »
Dans cette catégorie, les objets connectés sont utilisés tels que créés par les utilisateurs. Leur potentiel d’appropriation est élevé, bien que les expériences soient assistées par des capacités technologiques moins avancées. Cette catégorie inclut les objets connectés les plus simples fournissant des informations de base.
Par exemple, les kits de capteurs de l’air ambiant offrent la possibilité de mesurer des paramètres tels que la qualité de l’air, la température ou l’humidité. Les utilisateurs peuvent ensuite exploiter ces données pour surveiller leur environnement domestique ou professionnel de manière personnalisée.
Les managers des points de vente sont ici encouragés à présenter des vidéos ou des messages publicitaires illustrant les diverses applications de ces objets dans différents contextes d’usage. Cela permet aux clients potentiels de créer des usages personnalisés dans leur quotidien.
En cette ère des objets connectés, il faut dépasser la surabondance d’options en adoptant une approche réfléchie et responsable de l’innovation, d’autant plus que leur fabrication et leur usage génèrent un impact environnemental important. La création des objets connectés centrés sur l’utilisateur, respectueux de l’environnement et sécurisés repose sur la collaboration entre les parties prenantes dans les secteurs concernés et la transparence avec les consommateurs.
Les entreprises doivent donc jouer un rôle proactif en proposant des produits connectés durables et en s’assurant que leurs objets connectés respectent la vie privée des utilisateurs et minimisent leur empreinte environnementale en utilisant des matériaux recyclables, en favorisant la réparation plutôt que le remplacement.
En adoptant une approche centrée sur l’utilisateur et intégrant les principes d’éthique et de durabilité dans leurs stratégies d’innovation, les entreprises peuvent s’assurer que leurs produits connectés répondent aux besoins réels des consommateurs, ce qui favorise leur appropriation et leur utilisation à long terme en créant un écosystème durable.
Fiscalité–Révision en baisse de l’impôt sur le revenu, vraiment ?
Les impôts seront déflatés, c’est-à-dire qu’ils tiendront compte de l’inflation. Le problème est que cette inflation sera autour de 5 % en 2023 officiellement mais que l’inflation réelle, elle, sera plus proche de 10 %.De plus, il n’est même pas certain que le gouvernement retienne la hausse officielle de 5 %. Du coup mécaniquement, il y aura davantage de ménages imposables. Pourtant l’inflation pèse d’autant plus que les revenus sont moins élevés compte tenu de la structure de consommation des ménages. Conséquence, en réalité les impôts vont augmenter et surtout si l’on intègre la fiscalité autre que sur les revenus comme par exemple l’impôt foncier.
Finalement Bruno Lemaire emploie les grosses ficelles habituelles : augmentation discrète de l’impôt, mais pas d’incitation à la hausse des salaires ni au freinage des prix.
Selon les informations des Échos , confirmées au Figaro, Bercy, en pleine préparation du projet de loi de finances 2024, a décidé d’indexer le barème de l’impôt sur le revenu sur l’évolution de la hausse des prix. En d’autres termes, les tranches seront revalorisées pour prendre en compte l’inflation.
Le problème c’est qu’avec l’inflation nombre de ménages qui n’étaient pas imposables sur le revenu le seront désormais de façon mécanique.
Pour l’exécutif, l’indexation permettra en théorie à bon nombre de Français, non-contribuables, de ne pas devenir imposables. Et empêchera les actuels assujettis fiscaux de voir leurs impôts augmenter.
Les impôts seront déflatés, c’est-à-dire qu’ils tiendront compte de l’inflation. Le problème est que cette inflation sera autour de 5 % en 2023 officiellement mais que l’inflation réelle, elle, sera plus proche de 10 %.De plus, il n’est même pas certain que le gouvernement retienne la hausse officielle de 5 %. Du coup mécaniquement, il y aura davantage de ménages imposables. Pourtant l’inflation pèse d’autant plus que les revenus sont moins élevés compte tenu de la structure de consommation des ménages. Conséquence, en réalité les impôts vont c augmenter.
Finalement Bruno Lemaire emploie les grosses ficelles habituelles : augmentation discrète de l’impôt, mais pas d’incitation à la hausse des salaires ni au freinage des prix.
Selon les informations des Échos , confirmées au Figaro, Bercy, en pleine préparation du projet de loi de finances 2024, a décidé d’indexer le barème de l’impôt sur le revenu sur l’évolution de la hausse des prix. En d’autres termes, les tranches seront revalorisées pour prendre en compte l’inflation.
Le problème c’est qu’avec l’inflation nombre de ménages qui n’étaient pas imposables sur le revenu le seront désormais de façon mécanique.
Pour l’exécutif, l’indexation permettra en théorie à bon nombre de Français, non-contribuables, de ne pas devenir imposables. Et empêchera les actuels assujettis fiscaux de voir leurs impôts augmenter.
Inflation – Barème de l’impôt déflaté , vraiment ?
Les impôts seront déflatés, c’est-à-dire qu’ils tiendront compte de l’inflation. Le problème est que cette inflation sera autour de 5 % en 2023 officiellement mais que l’inflation réelle, elle, sera plus proche de 10 %.De plus Il n’est même pas certain que le gouvernement retienne la hausse officielle de 5 %. Du coup mécaniquement, il y aura davantage de ménages imposables. Pourtant l’inflation pèse d’autant plus que les revenus sont moins élevés compte tenu de la structure de consommation des ménages. Conséquence en réalité les impôts vont c augmenter.
Finalement Bruno Lemaire emploie les grosses ficelles habituelles : augmentation discrète de l’impôt, mais pas d’incitation à la hausse des salaires ni au freinage des prix.
Selon les informations des Échos , confirmées au Figaro, Bercy, en pleine préparation du projet de loi de finances 2024, a décidé d’indexer le barème de l’impôt sur le revenu sur l’évolution de la hausse des prix. En d’autres termes, les tranches seront revalorisées pour prendre en compte l’inflation.
Le problème c’est qu’avec l’inflation nombre de ménages qui n’étaient pas imposables sur le revenu le seront désormais de façon mécanique.
Pour l’exécutif, l’indexation permettra en théorie à bon nombre de Français, non-contribuables, de ne pas devenir imposables. Et empêchera les actuels assujettis fiscaux de voir leurs impôts augmenter.