Archive pour le Tag 'comment'

Comment sont comptés les manifestants ?

Comment sont comptés les manifestants ?

Par Jean-François Royer, Statisticien, Société Française de Statistique (SFdS) dans the conversation

« La manifestation contre la réforme des retraites mardi 31 janvier a rassemblé 2,8 millions de personnes en France, d’après la CGT, qui a également évoqué 500 000 personnes dans le cortège parisien. La police a estimé à 1,2 million le nombre de manifestants dans le pays et 87 000 dans la capitale. Le cabinet indépendant Occurrence n’en a lui dénombré que 55 000 dans les rues de Paris », comme l’a rapporté « La Croix ».

Le conflit social de ce début 2023 donne lieu aux habituelles polémiques sur le comptage des manifestants. Les médias ont pris l’habitude de présenter deux chiffres très éloignés, en miroir, sans plus de commentaire : beaucoup semblent penser vaguement que « la vérité est entre les deux ». Est-il si difficile, dans un pays développé, au début du XXIe siècle, de déterminer approximativement combien de personnes ont participé à une manifestation déclarée, prévue et autorisée ?

Tout le monde ne se résigne pas à cette situation. En 2014, une commission d’étude sur le comptage des manifestants a été mise en place par le Préfet de police de Paris. Elle était constituée par Dominique Schnapper, ancienne membre du Conseil constitutionnel, Pierre Muller, ancien inspecteur général de l’Insee, et Pierre Gaxie, professeur de sciences politiques à Paris.

Ces trois personnalités ont remis leur rapport en avril 2015. Pour l’essentiel, ce rapport validait les méthodes de comptage de la préfecture de police. La presse nationale y a très largement fait écho à l’époque, et aucune voix ne s’est élevée pour contester cette conclusion. Libération a même titré « Et les meilleurs en comptage de manifestants sont… les policiers ». Une expérience menée par des journalistes de Mediapart avait d’ailleurs conclu dans le même sens quelques années auparavant.

Après ce rapport, on aurait pu espérer un changement. Il n’en a rien été, ni en 2016 (manifestations contre la loi Travail), ni en 2017 (rassemblements à l’occasion de l’élection présidentielle). De nouveau, un effort a été entrepris. Fin 2017, un collectif de 80 médias a mandaté un cabinet d’études spécialisé, Occurrence, pour réaliser des estimations du nombre de manifestants dans les cortèges, indépendamment du travail du ministère de l’Intérieur et des comptages des syndicats. Cinq ans après, cette tentative d’arbitrage a fait long feu : les syndicats et les partis de gauche récusent les estimations d’Occurrence, les jugeant trop proches de celles du ministère de l’Intérieur. Retour à la case départ.

Un collectif de 80 médias a mandaté un cabinet d’études spécialisé, Occurrence, pour réaliser des estimations du nombre de manifestants dans les cortèges.

Pourquoi cette impasse du comptage ?
S’agit-il d’un désaccord sur la définition de l’objet à mesurer ? On le sait, tout travail statistique sérieux suppose un effort de définition ; et l’objet « manifestation » n’est pas aussi simple qu’il y paraît. Les défilés peuvent avoir plusieurs parcours ; certains manifestants peuvent n’en réaliser qu’une partie ou la manifestation peut s’étirer dans le temps.

Mais tout cela ne peut avoir qu’une influence limitée. Délimitée dans le temps et dans l’espace, caractérisée par une intention commune claire des participants, la manifestation classique est un « objet social » bien plus simple que beaucoup d’autres : bien plus simple, par exemple, que les démonstrations des « gilets jaunes » en 2018-2019. Pour définir une manifestation classique, un petit nombre de caractéristiques suffisent, et peuvent faire l’objet d’un accord rapide.

S’agit-il, alors, d’incertitudes dues aux méthodes de mesure ?

Un problème de méthode ?

Les méthodes de la préfecture de police de Paris n’ont rien de moderne : selon le rapport de la commission Schnapper, ce sont des fonctionnaires de police, placés en hauteur dans plusieurs locaux en bordure du parcours des cortèges, qui comptent « à vue », manuellement, les rangées qui défilent, pendant toute la durée de la manifestation. Ce travail est recommencé quelques jours après, en bureau, en visionnant des vidéos de l’évènement. Les différents comptages sont confrontés, et une estimation finale est produite et diffusée à la presse.

On connaît très peu les méthodes des syndicats : « nous n’avons pas pour habitude de communiquer sur nos méthodes de comptage » a déclaré par exemple un porte-parole de la CGT au Télégramme de Brest après la manifestation du 31 janvier, et ce syndicat a refusé d’être entendu par la commission Schnapper en 2014. D’autres sources au sein des syndicats affirment que des comptages sont réalisés à partir des moyens de transports – trains et bus – réservés pour amener les groupes de manifestants sur place. Les syndicats font aussi appel à des compteurs qui se placent à des points de passage précis du cortège. Chaque union départementale effectue un comptage et fait ensuite remonter les chiffres au siège national. Mais comment sont prises en compte les données sur les cars ? Comment sont éliminés les double-comptes ? Et surtout, comment un comptage « depuis le sol » peut-il s’appliquer à une foule nombreuse dans une avenue de Paris ?

La méthode de comptage la plus répandue est simple : se placer en bordure du parcours des cortèges et compter « à vue », manuellement, les rangées qui défilent, pendant toute la durée de la manifestation.

Quant au cabinet Occurrence, il a recours à des outils plus modernes de traitement des enregistrements vidéo des cortèges, impliquant un logiciel d’intelligence artificielle ; le principe reste de dénombrer les franchissements de lignes virtuelles dessinées sur le parcours du cortège.

Toutes les méthodes ont certainement leurs qualités et leurs défauts. Pour les apprécier, il faudrait les confronter en détail sur des cas précis, avec la collaboration de toutes les parties. Faute de quoi, on ne peut juger que d’après les résultats et noter que les résultats de l’administration et ceux des bureaux d’étude sont en général proches. Déjà relevée par la commission Schnapper, cette proximité a été confirmée lors de la mise en place de la convention entre le consortium de médias et Occurence en 2017. Le 16 novembre 2017 a eu lieu une manifestation « contre la politique libérale d’Emmanuel Macron ». Le cabinet Occurrence a alors dénombré 8 250 manifestants. Pour valider cette estimation, cette manifestation a été intégralement filmée par BFM TV puis comptée manuellement, manifestant par manifestant, par 4 équipes séparément : Occurrence, Europe 1, TF1 et Le Monde. Ces recomptages ont validé la méthode de comptage puisqu’ils étaient proches de celui d’Occurrence. Ce jour-là, la police avait dénombré 8 000 manifestants, alors que la CGT en annonçait 40 000.

Qu’il s’agisse des conventions de définition, ou des méthodes de dénombrement, rien n’indique qu’une divergence technique puisse expliquer des écarts aussi grands que ceux qui nous sont présentés. Alors, de quoi s’agit-il ?

Revenons aux conditions fondamentales de l’observation. Si l’on veut qu’une observation partagée puisse advenir, il faut que deux conditions soient remplies :

Il faut admettre l’existence d’une « vérité » indépendante de la volonté des acteurs ;

Il faut chercher à s’en approcher « de bonne foi » en mettant de côté toute considération politique ou militante.

Si ces deux conditions sont remplies, les techniciens de la statistique peuvent se mettre au travail ; et alors ils parviennent en général rapidement à se mettre d’accord, au moins sur les ordres de grandeur.

Quand on s’intéresse aux manifestations, ces deux conditions ne sont pas remplies. On ne peut évidemment pas garantir que la plus entière bonne foi règne du côté de l’administration et des bureaux d’études ; mais on doit exprimer des doutes sur celle des syndicats et des voix qui les soutiennent dans cette polémique. Ces derniers critiquent souvent les méthodes du camp opposé, en n’hésitant pas à discréditer les observateurs qui n’arrivent pas aux mêmes résultats qu’eux, en invoquant leurs appartenances politiques) ou idéologiques, réelles ou supposées mais ne communiquent pas les leurs d’une manière suffisamment détaillée pour en permettre la critique.

En statistique, la confiance se construit par la publicité des définitions et des méthodes, et par le travail en commun des techniciens. Tant que cela manquera dans le domaine du comptage des manifestants, les conflits de chiffres persisteront.

Pétrole : profits records comment et pour qui ?

Pétrole : profits records comment et pour qui ?

par Valérie Mignon
Professeure en économie, Chercheure à EconomiX-CNRS, Conseiller scientifique au CEPII, Université Paris Nanterre – Université Paris Lumières dans the  » conversation »


Des profits record pour 2022, les plus hauts qu’elles aient connus de toute leur histoire. Côté américain, 55,7 milliards de dollars de profits ont ainsi été enregistrés par ExxonMobil et 36,5 milliards par Chevron.Les majors européennes ne sont pas en reste, avec des profits s’élevant à 39,9 milliards de dollars pour Shell ou encore 20,5 milliards de dollars de bénéfice net engrangés pour TotalEnergies et 27,6 pour le groupe britannique British Petroleum. Ces chiffres mirobolants ne manquent pas de faire polémique dans l’actuel contexte de crise énergétique. Répondre à cette question nécessite d’effectuer un bref retour sur l’évolution du cours du baril lors de l’année 2022. La forte reprise de l’activité qui a suivi la crise économique mondiale liée à la pandémie de Covid-19 s’est traduite par une hausse de la demande de pétrole qui a, mécaniquement, tiré les prix du brut vers le haut.

À ce facteur économique s’est ajouté un élément géopolitique majeur, l’invasion de l’Ukraine par la Russie le 24 février 2022. Cette attaque a créé une onde de choc sur le marché pétrolier avec un cours du baril qui s’est immédiatement envolé pour côtoyer les sommets de mars à mai 2022.

Cette flambée des prix du brut dès le début du conflit s’explique par les craintes provoquées par la guerre en Ukraine quant à un possible manque d’approvisionnement en hydrocarbures, tirant en conséquence les prix de l’or noir vers le haut. Les incertitudes relatives aux perspectives économiques mondiales ont ensuite pris le relais, en particulier quant à un éventuel ralentissement de l’activité économique en Chine, deuxième plus gros pays consommateur de pétrole au monde.

La recrudescence des cas de Covid-19 a en effet jeté un doute sur la santé économique à venir de l’empire du Milieu, générant une vive incertitude au niveau mondial. Les prix du brut ont alors été tirés vers le bas en raison des anticipations à la baisse de la demande chinoise de pétrole. Quoi qu’il en soit, sur l’ensemble de l’année 2022, les prix du brut (brent) ont enregistré une croissance moyenne de 42,6 % par rapport à 2021.
Outre l’impact conséquent sur le pouvoir d’achat des ménages, si cette flambée du cours du baril a engendré une hausse des coûts de production pour la très grande majorité des entreprises, tel n’est pas le cas pour les compagnies pétrolières qui produisent des hydrocarbures. C’est la raison pour laquelle l’envolée des prix du brut s’est traduite par des bénéfices record pour les groupes pétroliers.
Des profits pour qui ?
C’est évidemment la question qui fait couler beaucoup d’encre, puisqu’une grande partie des bénéfices est redistribuée aux actionnaires sous la forme de dividendes. Le sujet des dividendes a toujours fait l’objet de vifs débats en France, dans la mesure où une (très) faible minorité de Français détient des actions, contrairement à la population de nombreux autres pays (États-Unis, Royaume-Uni, Pays-Bas, etc.) pour qui il s’agit de la principale source d’épargne constituée en vue, notamment, de la retraite. Du côté des compagnies, leur réticence à ralentir les versements de dividendes tient au fait que ceux-ci leur permettent d’attirer des actionnaires dont les placements tirent à la hausse leur valeur boursière.

À ces versements de dividendes s’ajoutent les rachats d’actions. La partie des sommes colossales accumulées par les compagnies pétrolières qui n’est pas utilisée pour investir leur sert ainsi aussi à racheter leurs propres actions sur le marché boursier, ce qui a pour effet de faire monter les cours.

On entre alors dans une boucle autoentretenue : les « superprofits » des compagnies pétrolières leur permettent de faire monter le cours de leurs actions en bourse et cette croissance de la valeur boursière alimente à son tour les bénéfices engrangés par les majors, d’autant plus lorsque les prix du brut sont orientés à la hausse.

En pleine crise énergétique mondiale, ces pratiques ont naturellement de quoi être décriées. D’un point de vue strictement économique, il est toutefois important d’étudier si des dividendes en hausse et des rachats d’actions pèsent sur les bénéfices que les firmes pourraient consacrer à l’investissement.

Si tel peut effectivement être le cas pour des entreprises non cotées qui n’auraient pas facilement accès aux marchés financiers, il n’en est pas de même pour les majors. Ces dernières ont généralement des niveaux de trésorerie très élevés et les dividendes n’en constituent qu’une faible proportion. Elles sont donc à même tout à la fois d’investir massivement, en fonction de leurs projets et des opportunités qui se présentent, et de distribuer des dividendes.

Une partie des bénéfices des groupes pétroliers est ainsi destinée à l’investissement dans les hydrocarbures, mais aussi dans les énergies renouvelables. Sur ce dernier point, les compagnies – en particulier américaines – ont été vivement critiquées du fait des faibles montants investis dans le solaire, l’éolien et les autres énergies renouvelables comparativement aux sommes qu’elles versent aux actionnaires. C’est une des raisons qui a conduit le président américain Joe Biden à vouloir quadrupler la taxe sur les rachats d’actions entrée en vigueur en janvier 2023.

Taxer ces superprofits ?

La question de l’instauration d’une taxe sur les profits des géants du pétrole est toujours l’objet de nombreux débats. En Europe, certains pays comme la France avaient choisi d’instaurer un bouclier tarifaire alors que d’autres, tels le Royaume-Uni, l’Italie ou la Hongrie, ont opté pour la mise en place de taxes.
Si l’instauration de taxes exceptionnelles sur les superprofits des compagnies pétrolières peut s’avérer utile pour compenser la hausse des prix de l’énergie, elle pourrait cependant avoir des effets contre-productifs en retardant la transition énergétique. Si les énergies renouvelables sont destinées à devenir des sources d’énergie essentielles d’ici quelques années, elles ne peuvent remplacer « au pied levé » le pétrole : la transition n’est pas

Afin de promouvoir le passage aux énergies renouvelables et assurer la transition énergétique, il convient de prendre garde à ne pas interrompre brutalement les investissements dans le secteur pétrolier, ce qui pourrait advenir en cas d’instauration de taxes très élevées. Cela est encore plus important dans le contexte actuel de la guerre en Ukraine, puisqu’il est nécessaire de remplacer le pétrole russe par du pétrole en provenance d’autres pays. Il faut donc faire preuve de vigilance afin de ne pas entraver cette dynamique.

Taxer lourdement les entreprises lorsque celles-ci réalisent des investissements qui s’avèrent gagnants peut en outre être contre-productif puisque cela reviendrait à taxer les compagnies les plus innovantes. Cela ne profiterait pas aux entreprises du secteur des énergies renouvelables qui pourraient, elles aussi, se voir taxer en cas de réalisation de superprofits alors même que ceux-ci découleraient d’une stratégie d’investissement ambitieuse.

À ce jour, l’urgence est d’aider les consommateurs à faire face aux prix à la pompe élevés sans entraver les investissements des entreprises, nécessaires à la transition énergétique. De ce point de vue, une piste réside dans la redistribution des recettes provenant de la taxe carbone aux ménages les plus vulnérables afin de les aider dans la réalisation de la transition énergétique. De même, une taxe carbone « flottante » évoluant en fonction des fluctuations du cours du baril permettrait de contrebalancer la hausse des prix du brut via une réduction du montant de la taxe et limiter ainsi l’impact sur les prix affichés des carburants.

Retraites : augmenter la population active ?

Retraites : augmenter la population active ?

par Bernard Laurent, Professeur, EM Lyon Business School et Kévin Parmas Instructeur d’économie, EM Lyon Business School dans The Conversation

Le président de la République Emmanuel Macron défend actuellement le projet de réforme des retraites au nom de la fidélité à ses engagements formulés lors de campagne présidentielle de 2022. Le chef de l’État sortant avait alors proposé un allongement progressif de l’âge de départ à la retraite à 65 ans. Environ 9 mois après sa réélection, la première ministre Élisabeth Borne a présenté, le mardi 10 janvier, les grandes lignes du texte qui prévoit effectivement un report de l’âge légal, mais finalement à 64 ans. Selon la cheffe du gouvernement, « notre système par répartition sera alors à l’équilibre ».

Pourtant, en avril 2019, Emmanuel Macron affirmait exactement le contraire, comme ne manquent pas aujourd’hui de le rappeler les opposants à la réforme, qui ont défilé massivement sur tout le territoire le jeudi 19 janvier. En effet, le système actuel ne nécessite aucune réforme pour rester à l’équilibre, comme nous le rappelions dans un précédent article.
Quand Macron promettait de ne pas reculer l’âge légal de départ à la retraite (L’Obs, 2022).

Projections erronées

En effet, selon les dernières estimations du Conseil d’orientation des retraites (COR) publiées en septembre 2022, le système dégageait un excédent de 900 millions d’euros en 2021 et de 3,2 milliards en 2022. Il devrait enregistrer ensuite un déficit d’environ 10 milliards d’euros par an jusqu’en 2032.

Or, les prévisions récentes du COR ont été invalidées par la réalité : les déficits annoncés pour les années 2021 et 2022 n’ont ainsi pas été observés. De plus, les projections du COR tablent notamment sur une augmentation de la population active qui suivrait la même tendance que celle observée entre 2006 et 2019, 123 000 en moyenne par an.

Cependant, ce chiffre pourrait être relevé pour renouer avec les rythmes observés entre 1990 et 2005, soit environ 173 000 personnes par an en plus dans la population active, ce qui éviterait de demander aux actifs de travailler plus longtemps. Trois leviers pourraient être actionnés : l’immigration, le taux d’emploi des jeunes et le taux d’emploi des seniors.
Des tendances qui peuvent être infléchies

En ce qui concerne l’immigration, le COR retient une estimation située entre 62 000 et 87 000 entrées nettes par an dans la population active. Ce solde s’est tari ces dernières années, notamment en raison d’un resserrement de la politique migratoire, puisqu’il se situait au-delà de 100 000 entre 2001 et 2006. Un assouplissement permettrait donc d’augmenter le nombre de cotisants et les montants qui entreraient chaque année dans les caisses de retraite.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. [Abonnez-vous aujourd’hui](https://theconversation.com/fr/newsl
Le gouvernement pourrait également adopter des politiques visant à améliorer la participation des jeunes au marché du travail. Rappelons qu’aujourd’hui, la France enregistre l’un des taux de chômage des moins de 25 ans les plus élevés en Europe : 18,3 % en novembre 2022, contre 15,1 % en moyenne dans la zone euro (15,1 %).
Le taux d’emploi des plus de 55 ans pourrait enfin être renforcé : fin 2021, seuls 56,1 % des 55-64 ans étaient en emploi. Il existe donc une véritable marge de manœuvre pour le relever en valorisant davantage les compétences des seniors en entreprise. Sans compter que, sous l’effet des précédentes réformes qui allongeaient la durée de cotisations, ce taux augmente déjà mécaniquement depuis 20 ans.

Le COR s’en tient donc à des tendances qui pourraient parfaitement être infléchies à plus long terme par certaines mesures de politique économique.
L’espérance de vie stagne

Pendant la campagne de 2022, le président-candidat avançait en outre qu’il fallait « travailler plus » et « plus longtemps parce que nous vivons plus vieux ». Cet argument de l’allongement de la durée est pourtant contredit par les données récentes qui livrent un enseignement différent. Si effectivement avant 2014, nous gagnions 1 année de vie tous les 4 ans il n’en est plus rien depuis, avec un petit mois gagné en 8 ans.

Si demain nous connaissions une augmentation forte de l’espérance de vie, pourquoi n’accepterions-nous pas de convenir, sans toucher aux autres paramètres du régime, l’automaticité d’une augmentation de la durée des cotisations, en phase avec la réalité de la situation ?

Actuellement, bien que l’espérance de vie n’augmente que très peu, l’augmentation de la durée de cotisation pour pouvoir toucher une retraite à taux plein reste pourtant bel et bien envisagée dans le cadre de la réforme. La première ministre Élisabeth Borne avait ainsi introduit sa conférence de presse de présentation du projet, le mardi 10 janvier, par ce point. Or, la réforme antérieure de 2013 avait déjà porté à 43 ans les annuités de cotisation nécessaires pour les générations postérieures à 1973.

Plutôt que de faire porter l’effort sur un nouvel allongement de la durée de cotisation, le gouvernement pourrait donc mettre en place une politique pour augmenter la population active comme décrite ci-dessus. Ou alors, choisir de faire contribuer les retraités (dont le niveau de vie est aujourd’hui supérieur à celui des actifs) en taxant les pensions les plus importantes. Le président Macron pourrait alors donner un contenu concret à son intention, formulée au cours de son premier mandat, en 2018, de « réinventer » l’État-providence.

Comment dormir sans-domicile-fixe ?

Comment dormir sans-domicile-fixe

Par Thibaut Besozzi,Docteur en sociologie, LIR3S, Université de Bourgogne – UBFC dans the conversation

Le scandale sans doute le plus inadmissible dans nos sociétés développées est sans doute celui qui accepte une sorte d’institutionnalisation des marginaux sans domicile fixe .

Tribune

Dormir ne va pas de soi pour tout le monde. La question du sommeil et du repos se pose évidemment de manière criante quand on s’intéresse aux personnes sans-abri qui peuplent nos centres-villes. Cela est d’autant plus vrai pour les personnes sans-domicile qui n’accèdent pas aux centres d’hébergement. Pour comprendre les options qu’ils privilégient pour passer la nuit, et les logiques de survie sous-tendues, il faut repartir de l’expérience et du point de vue des sans-abri eux-mêmes.

Plusieurs critères président aux choix contraints qu’ils opèrent pour s’accommoder des moments de repos. Les lieux appropriés temporairement sont évalués au regard de leur confort matériel (abri, chauffage, salubrité, mobilier…), de la sécurité qu’ils procurent (visibilité ou invisibilité des lieux d’élection, possibilité ou non d’en limiter l’accès, nécessité de se protéger des agressions, possibilité de dormir en groupe pour se protéger mutuellement…) ou encore de l’intimité qu’ils permettent (solitude, calme ou promiscuité et bruit). Ils se différencient également en fonction de la liberté qu’ils octroient ou qu’ils brident (horaires d’ouverture et de fermeture, règlement intérieur ou non, contrôle plus ou moins fort des illégalismes).

Ces facteurs conduisent les sans-abri à opter pour des solutions variées afin de passer la nuit et se reposer tant bien que mal. Ces options vont de la sollicitation des centres d’hébergement d’urgence (via le 115 et la mise à l’abri à la nuitée notamment) à l’installation de tentes dans l’espace public, en passant par l’appropriation de parcelles de parkings souterrains, l’ouverture de squats, l’invitation chez des tiers ou l’occupation d’interstices urbains comme des parvis, des porches abrités ou des dessous de pont.

Chacune de ces solutions éphémères offre des avantages et des inconvénients au regard des critères sus mentionnés. Certains sans-abri préfèrent dormir durant la journée afin de se protéger des potentielles agressions qu’ils ont peur de subir pendant la nuit. Ils passent alors la nuit à arpenter la ville en marchant et somnolent en journée, dans l’espace public, relativement protégés par la présence des passants.

Avantages et inconvénients des lieux de repos
Les hébergements d’urgence offrent généralement des conditions matérielles normalisées et sécurisées (chambre, lit, chauffage, accès à l’eau et aux sanitaires, possibilité de fermer sa porte à clé…). Ils imposent néanmoins une collectivité qui n’est pas toujours souhaitée et une promiscuité menaçante exposant aux vols, aux agressions et aux souillures symboliques (traces de sangs, d’urine, déchets de matériel d’injection, etc.). Qui plus est, ces lieux institués de l’assistance font état de règles de fonctionnement souvent perçues comme contraignantes par les sans-abri (impossibilité d’y inviter des connaissances, interdiction d’y consommer alcools et drogues, horaires d’ouverture et de fermeture qui s’imposent aux « usagers », etc.). Cela limite l’appropriation des lieux, à tel point que certains préfèrent ne pas y recourir.

La solution qui semble la plus enviée est celle qui consiste à dormir chez un tiers (un ami, un membre de la famille) offrant l’hospitalité plus ou moins durablement. Les conditions optimales de confort, de sécurité, d’intimité et de liberté y sont généralement réunies, sans que s’imposent des contraintes institutionnelles. La cohabitation soulève néanmoins souvent des difficultés pouvant mettre un terme à la solidarité prodiguée.

Bien qu’elle relève de l’illégalité, la possibilité d’accéder à un squat – entendons un local vacant illégalement habité, qu’il s’agisse d’un appartement, d’un bâtiment public désaffecté ou d’un garage – constitue une option qui présente quant à elle plusieurs caractéristiques intéressantes.

Elle offre la possibilité de s’y établir en groupe et sans contrainte comportementale tout en bénéficiant d’un certain confort matériel (pièces fermées et abritées, ameublement, éventuel accès à l’eau et à l’électricité…). Cela favorise évidemment l’appropriation des lieux.

Cependant, dormir dans un squat collectif expose à des visites impromptues limitant ainsi l’intimité et le sentiment de sécurité, sans compter sur l’éventualité d’être expulsé par les forces de l’ordre ou d’autres squatteurs menaçants. Il faut néanmoins disposer de certaines compétences pour ouvrir des squats et s’y maintenir.

Le dilemme de l’intimité

À l’instar des tentes et parkings souterrains, d’autres options sont mobilisées par les sans-abri pour dormir : elles accordent la possibilité de recréer un « chez-soi » rudimentaire individuellement ou collectivement défendu. Si elles s’avèrent limitées sur le plan du confort matériel qu’elles apportent (faibles protections contre les intempéries, indigence du mobilier, absence d’accès à l’eau et aux sanitaires…), ces solutions permettent néanmoins de s’aménager des espaces d’intimité et de liberté où inviter des amis et consommer sans entrave de l’alcool et/ou des drogues. En revanche, parce qu’elles s’inscrivent dans des espaces reclus et soustraits à la vue des passants, ces options suscitent aussi l’insécurité en exposant à d’éventuelles agressions contre lesquelles il vaut mieux se prémunir (par la présence de chiens, la protection mutuelle du groupe, le fait d’avoir un couteau sous la main, etc.).

« Perdre en intimité pour gagner en sécurité. »

Perdre en intimité pour gagner en sécurité. Jeanne Manjoulet/Flickr
Par ailleurs, certains sans-abri élisent domicile dans des recoins d’espace public, à même la rue, où ils dorment à la vue des tous, le plus souvent dans un simple sac de couchage. Quoiqu’ils semblent alors exposés au regard et aux interpellations des passants, c’est précisément cette perte d’intimité et de confort qui assure leur sécurité, dans la mesure où les caméras de vidéosurveillance et la proximité des citadins dissuadent les agresseurs potentiels.

Finalement, en étudiant leurs points de vue et leur expérience de la survie à partir d’une approche ethnographique, on constate que les sans-abri disposent de multiples options pour trouver des lieux où dormir, quoique chacune d’elle atteste d’aspects (matériels, juridiques, sociaux…) qui en rappellent la précarité. Les choix s’opèrent alors au regard de dialectiques qui articulent différemment la visibilité et l’invisibilité, la liberté et les contraintes, la sécurité et l’intimité.

Finalement, les lieux qu’occupent les sans-abri sont concurrencés et soumis aux aléas de la précarité. Généralement, au fil de leur expérience de la survie, les sans-abri sont amenés à mobiliser successivement différentes options pour dormir, plutôt qu’en privilégier une seule. Leurs nuits sont donc toujours susceptibles d’être tourmentées.

Concilier croissance et sobriété ?



•Concilier croissance et sobriété ?

Un thème intéressant mais article un peu général voire confus et qui manque de documentation NDLR

Changement climatique, déclin rapide et massif des espèces, recul continu du jour du dépassement, accroissement des inégalités… À mesure que les signaux d’alerte sociaux et environnementaux se multiplient, nos modes de développement apparaissent de plus en plus incompatibles avec un avenir positif et durable.

Dans ce contexte, le modèle économique « en volume », universellement partagé, n’est plus tenable. Il induit une création de valeur via l’augmentation du chiffre d’affaires – et des bénéfices – qui passe nécessairement par une hausse des flux (vente de biens et de services) et par conséquent par des consommations de ressources.

Il s’agit donc de penser à de nouveaux modèles de production et de consommation à la hauteur de ces enjeux. Par la vision de société qu’elle porte, la sobriété peut constituer une réponse intéressante à explorer. Encore faut-il savoir ce qui se cache derrière cette notion parfois floue.

Assimilée à la modération ou à la frugalité, la notion de sobriété trouve ses racines dans des traditions philosophiques et religieuses anciennes. Le sujet suscite un regain d’intérêt au XXe siècle, en lien avec des questionnements sur les modes de vie modernes, les systèmes productifs et consuméristes actuels et leurs conséquences sur l’environnement, le lien social et le bien-vivre.

La sobriété, dans notre vie quotidienne, renvoie généralement au « moins mais mieux », en reliant consommation, bien-être, santé, environnement et qualité de vie (et non pas niveau de vie).

Le « moins » peut être rattaché à la notion de limite planétaire ; il peut s’illustrer, par exemple, par la réduction du nombre de produits ou équipements dont nous nous entourons (textiles, électroniques…) ou la limitation des distances ou des kilomètres réalisés (tourisme)…

Le « mieux », qui vise à développer une consommation de biens et services plus « responsables » (production et acquisition de produits à moindres impacts sur l’environnement) soulève également des questionnements au regard de son accessibilité pour les publics plus défavorisés.

Par ailleurs, la définition du « moins » et du « mieux » est rendue difficile par les distinctions complexes entre « besoins » et « désirs », « essentiel » et « non essentiel ».

En dehors des démarches pionnières de sobriété émergent à l’échelle individuelle et de petits collectifs, les enquêtes menées par l’Ademe et ses partenaires depuis quelques années révèlent un désir croissant pour une consommation plus responsable et une aspiration à repenser nos modèles économiques.

Les Français expriment avec constance une forte sensibilité aux enjeux environnementaux et ils sont aujourd’hui 58 % à penser qu’il faudra modifier nos modes de vie pour faire face au changement climatique. Par ailleurs, 88 % des Français considèrent que l’on vit dans une société qui nous pousse à acheter sans cesse et 83 % des Français souhaiteraient que la consommation y prenne moins de place.

Selon eux, il s’agirait de la réduire, plus globalement, et de supprimer le superflu pour consommer de manière responsable. Plus de la moitié d’entre eux (52 %) pensent aussi qu’il faut sortir du mythe de la croissance infinie et revoir complètement notre modèle économique.

Toutefois, malgré une sensibilité à la sobriété de plus en plus prégnante, une majorité de Français reste très attachée à la consommation et aspire même ce qu’elle augmente : 60 % des Français souhaitent « pouvoir se payer plus souvent des choses qui leur font envie » et 35 % déclarent céder à la tentation lors de leurs achats.

On relève ainsi un paradoxe fort entre des aspirations croissantes à un autre modèle de société remettant en cause le système économique actuel et des pratiques qui demeurent largement ancrées dans un modèle consumériste.

Trois difficultés peuvent être ici relevées.

Nos sociétés dites développées se sont structurées autour de l’accès à la consommation de masse, puissant vecteur d’inclusion sociale, et nombre de nos concitoyens aspirent légitimement à l’augmentation de leur niveau de vie.

Il est difficile pour un individu d’adopter un mode de vie sobre appliqué à l’ensemble de nos besoins essentiels (s’alimenter, s’équiper, se déplacer…) : certaines marges de manœuvre sont directement liées aux offres ainsi qu’aux infrastructures existantes, ce qui renvoie au rôle des entreprises (metteurs sur le marché des biens et services), aux collectivités territoriales et à l’État.

Par ailleurs, l’omniprésence des messages publicitaires dans notre environnement quotidien complexifie toute approche visant à se détacher d’une consommation effrénée.

Il existe en outre le risque qu’apparaissent au sein de notre société des clivages entre plusieurs populations : les plus défavorisés qui ne peuvent pas accéder à la consommation comme ils le souhaiteraient versus les plus riches qui ont souvent un mode de vie ostentatoire. Les plus désireux de changer qui peuvent se le permettre versus celles et ceux qui aspirent à consommer plus, quel que soit leur niveau de revenus.

Le lien entre sobriété et qualité de vie, santé, convivialité et épanouissement personnel reste donc à mettre en évidence pour une partie de la population, tout comme les enjeux d’inégalités qui ne peuvent être écartés.

La sobriété dans le monde économique est déjà intégrée par certains acteurs, voire incluse dans des stratégies à moyen ou long terme : le Conseil national de l’industrie évoque l’objectif de « frugalité » dans ses axes structurants d’action.

L’interprétation mise en avant porte toutefois souvent sur la progression de l’efficience (consommer moins de ressources pour la production d’un même produit) via l’amélioration des procédés, en restant dans un modèle dit « en volume » (qui vise à écouler un maximum de produits).

Cette amélioration apporte souvent des solutions techniques et technologiques permettant certes de consommer moins (matières, énergie…), mais à aucun moment ne remet en cause le modèle économique en soi.

Cela entraîne parfois des effets rebonds. L’efficacité est certes meilleure, mais les transformations techniques, comportementales ou sociales entraînent en parallèle des phénomènes de compensation qui peuvent altérer le bilan des gains réalisés.

Prenons l’exemple de la réglementation thermique des bâtiments. À mesure que leur efficacité énergétique a augmenté, la taille des maisons s’est agrandie, et l’évolution des modèles familiaux a provoqué une hausse des surfaces à chauffer.

De la même manière, le poids des véhicules a peut-être baissé (avant une nouvelle augmentation ces dernières années) grâce à une amélioration des performances des moteurs, mais l’entrée dans la société du tourisme et des loisirs a multiplié les distances parcourues par les Français. Les gains de l’efficacité sont alors annulés par les effets de ces évolutions sociétales.

D’autres remettent en cause ce modèle économique « en volume » en proposant leur propre modèle – par exemple en assurant un juste dimensionnement de leur offre – ou via de nouvelles approches comme l’économie de la fonctionnalité, qui vise à répondre à une fonction (se déplacer, s’éclairer, avoir un confort thermique…) plutôt qu’à la seule vente du produit.

Cette dernière a un rôle certainement majeur à jouer. Elle établit une nouvelle relation entre l’offre et la demande qui n’est plus uniquement basée sur la simple commercialisation de biens ou de services. La contractualisation repose sur les effets utiles (les bénéfices).

On vise par exemple à garantir un confort thermique optimisé plutôt que de vendre uniquement de l’énergie, à fournir des solutions de mobilité durable au lieu de vendre des voitures, à proposer des aides pédagogiques pour la réussite des élèves plutôt que de simples manuels scolaires, etc. C’est une économie orientée vers l’usage, l’offre s’adapte aux besoins réels des personnes, des entreprises et des collectivités. Cela implique des transformations profondes dans la façon de produire.

Elle permet donc d’envisager une création de valeur avec moins de ressources, mais c’est aussi une économie du « plus » car elle vise à générer de la valeur sociale et environnementale, à augmenter la satisfaction et la fidélité des clients, à développer les compétences et la créativité des salariés, à accroître la confiance et la coopération entre les acteurs d’un territoire ou d’une filière industrielle…

Plusieurs collectivités « pionnières » (avec un rôle essentiel des élus) se sont déjà lancées dans la mise en œuvre de plans d’action « sobriété », même si la définition et le périmètre de cette dernière restent mal identifiés.

Une des spécificités porte sur le nombre important d’acteurs présents sur leur territoire et de thématiques potentiellement couvertes par ces évolutions : foncier, immobilier, éclairage public, tourisme…

Une mise en lumière de ces actions et de leurs résultats est indispensable pour développer les bonnes pratiques. L’Ademe vient de publier une étude présentant plusieurs retours d’expériences en France et en Europe qui témoignent de la richesse et de l’apprentissage face à de telles démarches.

Dans la mesure où elle passe par une réévaluation des besoins et une distinction entre le superflu et le nécessaire, la sobriété interroge la construction de notre identité et de nos représentations, et donc le rôle de la publicité.

L’accès à un certain niveau de consommation garantissant un standing de vie reste cependant une préoccupation largement partagée par nos compatriotes, qui expriment année après année, depuis bientôt 40 ans, une préférence pour l’augmentation du pouvoir d’achat plutôt que du temps libre.

Aussi, les discours sur la sobriété font courir le risque de divisions au sein de la population. Il est donc essentiel de documenter les impacts et co-bénéfices des démarches de sobriété ainsi que les transformations nécessaires pour construire d’autres formes de scénarios de « vie future » et d’imaginaires collectifs.

Anaïs Rocci, Patrick Jolivet, Dominique Traineau, Marianne Bloquel et Stéphanie Guignard, qui travaillent à l’Ademe ont contribué à la rédaction de cet article paru dans the conversation

Pénurie d’essence : Comment réguler les pénuries ?

Pénurie d’essence : Comment réguler les pénuries ?

Par Florian Léon, Research officer à la Fondation pour les Etudes et Recherches sur le Développement International, Agence Universitaire de la Francophonie (AUF) dans « The conversation »

Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde et se sont rués vers les pompes, même si leurs besoins étaient limités.

Depuis plus d’une semaine, les automobilistes français font face à une situation de pénurie de carburant à la suite de mouvements de grève dans plusieurs raffineries. L’actualité de la semaine passée a également été marquée, de manière beaucoup plus discrète, par la remise du prix de la Banque de Suède en l’honneur d’Alfred Nobel à trois économistes américains pour leurs travaux sur les banques et la stabilité financière.

Si ces deux évènements n’ont a priori rien en commun, les travaux de Douglas Diamond et Philip Dybvig, récipiendaires du prix au côté de Ben Bernanke, ancien président de la Réserve fédérale américaine (Fed), apportent un éclairage intéressant sur la situation actuelle en France.

En 1983, Diamond et Dybvig ont écrit un article fondateur qui a permis de comprendre que ce qui fait la raison d’être des banques est aussi une source de leur fragilité. L’existence des banques s’explique par leur rôle d’intermédiaires entre épargnants et emprunteurs. Les premiers cherchent à placer leur épargne dans des placements sûrs et liquides, c’est-à-dire disponibles à tout moment. Les emprunteurs ont besoin de fonds, mobilisés pour une durée assez longue, afin d’investir.

En l’absence de banque, il est impossible de transférer le surplus d’épargne vers les emprunteurs en raison de temporalité différente. Les banques assurent cette intermédiation en collectant l’épargne disponible à court terme pour la prêter à long terme. En opérant cette transformation de maturité, les banques contribuent à l’investissement et donc à l’activité économique.

Diamond et Dybvig ont mis en évidence que cette activité d’intermédiation est aussi ce qui rend les banques intrinsèquement fragiles. Les banques sont structurellement en position d’illiquidité car une partie de l’épargne est non disponible à court terme puisqu’elle est prêtée à long terme. En temps normal, cette situation ne pose pas de problème. Seule une part limitée de l’épargne totale est retirée tous les jours. Les banques ne sont donc pas dans l’obligation de disposer de toute l’épargne placée par les déposants.

Diamond et Dybvig s’intéressent aux situations de ruées vers les guichets (« bank runs ») au cours desquelles de nombreux épargnants vont vouloir retirer leur épargne au même moment mettant les banques, voire le système bancaire, en difficulté. Les origines de ces paniques bancaires sont multiples, allant de doute sur la solvabilité d’une banque à des décisions politiques comme à Chypre en 2013 lorsque le gouvernement a souhaité taxer les dépôts.

Le point intéressant de l’analyse de Diamond et Dybvig est de montrer que même si les retraits ne concernent initialement qu’un nombre limité d’épargnants, ils peuvent induire une ruée vers les guichets de l’ensemble des déposants en raison des prophéties autoréalisatrices et d’absence de coordination. Supposons qu’une proportion des épargnants décident de vouloir retirer leurs dépôts. Si les autres déposants commencent à douter de la capacité de la banque à faire face aux demandes de retraits, il est alors rationnel pour eux d’aller retirer leurs dépôts. Si ces déposants arrivent trop tard, ils ne pourront plus accéder à leur argent dans la mesure où le principe de retrait étant celui de la file d’attente (premiers arrivés, premiers servis).

À partir de ce moment-là, tous les déposants vont se ruer sur les guichets bancaires pour retirer leurs dépôts. La banque ne pourra servir toutes ces demandes et elle se retrouvera face à une situation d’illiquidité qui peut même se transformer en un risque de solvabilité (si la banque doit vendre ses actifs en urgence pour obtenir de la liquidité). Il est possible que le phénomène se diffuse rapidement aux autres banques, par exemple si les déposants qui ont des comptes dans plusieurs banques vont retirer leurs fonds dans les autres banques.

Bien que ce modèle soit très simple, il permet d’éclairer en partie la pénurie actuelle de carburants. La pénurie s’explique en premier lieu par les grèves qui ont impacté plusieurs raffineries. Néanmoins, les grèves ne permettent pas d’expliquer les ruptures observées dans plusieurs stations-service, notamment dans des zones initialement non servies par les raffineries fermées. Une explication des pénuries tient aux phénomènes de prophéties autoréalisatrices, mises à jour dans le modèle de Diamond et Dybvig.

Les solutions des « Nobel »…

Comme dans le cas des banques, les stations-service n’ont qu’une quantité limitée d’essence et le principe qui s’applique est celui de la file d’attente. Face aux nouvelles alarmantes, de nombreux automobilistes ont anticipé une incapacité des stations à pouvoir servir tout le monde. Ils se sont rués vers les pompes même si leurs besoins étaient limités, épuisant les stocks et créant de fait une situation de pénuries.

Il est utile de pousser l’analogie un peu plus loin en étudiant les propositions de solutions avancées (ou ignorées) par Diamond et Dybvig pour voir comment elles pourraient s’appliquer dans le cas de pénurie des carburants. Les deux économistes proposent deux solutions pour contrer la ruée vers les guichets.

La première solution est un système d’assurance qui permet à chaque citoyen d’avoir une couverture de son épargne en cas de faillite de sa banque (100 000 euros par banque et par déposant au sein de l’Union européenne). L’objectif de ce dispositif est surtout préventif, pour éviter qu’une panique apparaisse, mais s’avère inutile dès que la crise s’est matérialisée.

La seconde solution est plus utile en cas de panique. Elle consiste à empêcher les agents à retirer de l’argent au-delà d’un certain seuil. En pratique, cette solution a pris la forme d’un montant de plafond de retrait. Une solution similaire a été appliquée dans certaines stations-service en limitant la capacité maximale lors de chaque plein ou en interdisant le remplissage de réservoirs annexes. Le risque est alors que les automobilistes « paniqués » multiplient les passages à la pompe.

Une solution plus proche du modèle de Diamond et Dybvig serait de mettre en œuvre des « bons carburant » qui seraient rattachés à chaque automobiliste ou véhicule et pourraient être modulés selon les activités (prioritaires ou non), voire avec la possibilité d’être échangés. Cette solution est peut-être théoriquement attrayante mais reste techniquement très difficile à mettre en œuvre dans un délai aussi court.

… et les autres

Il est également intéressant d’étudier des solutions non envisagées par Diamond et Dybvig. Les auteurs ignorent dans leur analyse le rôle de la création monétaire (ce qui est une limite de leur modèle). Face à des crises de liquidité, la banque centrale peut injecter de la liquidité dans le système bancaire afin de donner de l’oxygène aux banques.

En ce qui concerne l’essence, le gouvernement a ainsi commencé à recourir aux stocks stratégiques afin de réduire la tension. Néanmoins, l’analogie avec le système bancaire a ses limites. Contrairement à la monnaie de banque centrale, le carburant ne se crée pas ex nihilo. Cette solution implique donc de réduire ces stocks avec le risque de se trouver dépourvu si la crise perdure.

Enfin, il est utile de se demander pourquoi des économistes n’ont pas pensé à la régulation par les prix. Une solution aux deux problèmes serait de modifier le mode d’allocation de la ressource selon un principe de prix plutôt que de rationnement (file d’attente). Concrètement, les banques pourraient facturer les retraits en proportion du montant retiré ou alors jouer sur le prix des carburants.

Il ressort d’ailleurs que les prix à la pompe ont connu une hausse depuis le début de la pénurie, notamment dans les zones les plus tendues.

Cette solution a deux limites essentielles. D’une part, augmenter les prix est politiquement explosif dans la situation actuelle d’inflation. Ce choix reviendrait à donner la priorité aux plus aisés au risque d’accroître les tensions et donc l’origine du problème. D’autre part, on peut douter que la régulation par les prix soit le meilleur outil en situation de panique, lorsque les incitations économiques perdent de leur efficacité.

L’expérience vécue pourrait servir pour anticiper les futures crises afin de juguler au plus vite les phénomènes d’anticipations autoréalisatrices qui sont au cœur des difficultés actuelles.

Ecole : Comment éviter le naufrage ?

Ecole : Comment éviter le naufrage ? 

 Les élèves français peinent à acquérir les savoirs fondamentaux, comme en témoignent les classements PISA de la France, et l’école de la République n’arrive plus à tenir sa promesse d’égalité des chances, socle de notre République. Professeurs en colère, parents inquiets, système éducatif qui semble péricliter… Comment éviter le naufrage annoncé ? Par Sandrine Dirani, PDG de Zeneduc. (La tribune)

 

Qui dit attractivité de notre école dit nécessairement revalorisation du métier d’enseignant. La hausse des salaires annoncée par notre ministre de l’Education, Pap Ndiaye, est certes un prérequis indispensable mais elle ne sera pas suffisante pour stopper l’hémorragie des professeurs qui quittent le navire et pour pourvoir les postes vacants.

Les enseignants sont également en quête d’une vraie reconnaissance de la hiérarchie à la hauteur de leur engagement et d’un accompagnement concret pour les aider à exprimer leur vocation : un mentorat de terrain des jeunes professeurs qui débutent leur carrière dans les établissements les plus difficiles, une meilleure formation sur les neurosciences, les aspects pédagogiques de la gestion de la classe et de l’hétérogénéité des élèves, une liberté pédagogique pour promouvoir l’innovation dans l’acquisition des savoirs fondamentaux, un meilleur dialogue avec les familles pour définir les rôles respectifs entre parents et école dans l’éducation des enfants, … Nombreuses sont les pistes à explorer pour répondre au malaise du corps professoral.

L’école de la république ne parvient plus à éviter la reproduction sociale. Les chiffres parlent d’eux-mêmes : les enfants d’ouvriers représentent 12% des élèves du supérieur et le tableau est encore plus sombre si, aux inégalités socio-économiques, on rajoute celles d’origine territoriale. La France est le règne de l’entre-soi : trois lycées (Sainte Geneviève, Louis le Grand et Stanislas) remplissent à eux-seuls plus de la moitié des promotions de Polytechnique !

Outre le fait que cela renforce les inégalités en créant une France à double vitesse, cet élitisme forcené tend à creuser sa propre tombe à force de consanguinité et d’inertie. Là encore, ce ne sont pas les pistes de réflexion qui manquent et notamment le renforcement du dédoublement des classes en zone prioritaire, l’attribution de primes et logements de fonction pour attirer les enseignants les mieux formés vers les zones défavorisées et la substitution de la notion d’équité à celle d’égalité des chances (aide aux devoirs, embauches d’assistantes sociales, révision des seuils de bourses pour l’enseignement secondaire).

La France survalorise ses diplômes et ses élites au détriment d’une meilleure intégration entre le marché du travail et les apprentissages ou d’une revalorisation nécessaire des métiers techniques ou manuels.

Il est grand temps que cela change ! Non un diplôme, une filière, un premier emploi ne devrait pas conditionner toute une vie. Créons des passerelles, libérons les énergies, permettons à notre jeunesse de tenter, d’échouer, de se relever, d’apprendre, de progresser à tout âge.

Notre société ne cesse de parler de soft skills et pourtant, qu’est-il fait concrètement pour que nos jeunes apprennent à se connaître, découvrent leurs talents, se posent la question de leurs rêves et de leurs aspirations pour trouver une voie où ils pourraient véritablement s’épanouir et se réaliser ? Je pense qu’il est indispensable qu’ils se posent la question de leur orientation et de leurs intérêts bien plus tôt et au sein même de l’école qui devrait les préparer bien plus largement à leur vie professionnelle, en collaboration avec les entreprises.

Le pessimisme ne sert à rien. Seule l’action nous permettra de redéfinir un nouveau contrat social et de renouer avec les valeurs républicaines de notre école. Tous les citoyens pourront, ainsi, croire à nouveau en sa capacité à leur assurer un avenir.

________
(*) Sandrine Dirani est conférencière et autrice de « Aider son enfant à surmonter ses colères » – Hatier, « Ton meilleur atout, c’est toi ! » – de Boeck Supérieur et « Je maîtrise l’orthographe » (à paraître en janvier 2023).

Système éducatif : Comment éviter le naufrage ?

Système éducatif : Comment éviter le naufrage ? 

 Les élèves français peinent à acquérir les savoirs fondamentaux, comme en témoignent les classements PISA de la France, et l’école de la République n’arrive plus à tenir sa promesse d’égalité des chances, socle de notre République. Professeurs en colère, parents inquiets, système éducatif qui semble péricliter… Comment éviter le naufrage annoncé ? Par Sandrine Dirani, PDG de Zeneduc. (La tribune)

 

Qui dit attractivité de notre école dit nécessairement revalorisation du métier d’enseignant. La hausse des salaires annoncée par notre ministre de l’Education, Pap Ndiaye, est certes un prérequis indispensable mais elle ne sera pas suffisante pour stopper l’hémorragie des professeurs qui quittent le navire et pour pourvoir les postes vacants.

Les enseignants sont également en quête d’une vraie reconnaissance de la hiérarchie à la hauteur de leur engagement et d’un accompagnement concret pour les aider à exprimer leur vocation : un mentorat de terrain des jeunes professeurs qui débutent leur carrière dans les établissements les plus difficiles, une meilleure formation sur les neurosciences, les aspects pédagogiques de la gestion de la classe et de l’hétérogénéité des élèves, une liberté pédagogique pour promouvoir l’innovation dans l’acquisition des savoirs fondamentaux, un meilleur dialogue avec les familles pour définir les rôles respectifs entre parents et école dans l’éducation des enfants, … Nombreuses sont les pistes à explorer pour répondre au malaise du corps professoral.

L’école de la république ne parvient plus à éviter la reproduction sociale. Les chiffres parlent d’eux-mêmes : les enfants d’ouvriers représentent 12% des élèves du supérieur et le tableau est encore plus sombre si, aux inégalités socio-économiques, on rajoute celles d’origine territoriale. La France est le règne de l’entre-soi : trois lycées (Sainte Geneviève, Louis le Grand et Stanislas) remplissent à eux-seuls plus de la moitié des promotions de Polytechnique !

Outre le fait que cela renforce les inégalités en créant une France à double vitesse, cet élitisme forcené tend à creuser sa propre tombe à force de consanguinité et d’inertie. Là encore, ce ne sont pas les pistes de réflexion qui manquent et notamment le renforcement du dédoublement des classes en zone prioritaire, l’attribution de primes et logements de fonction pour attirer les enseignants les mieux formés vers les zones défavorisées et la substitution de la notion d’équité à celle d’égalité des chances (aide aux devoirs, embauches d’assistantes sociales, révision des seuils de bourses pour l’enseignement secondaire).

La France survalorise ses diplômes et ses élites au détriment d’une meilleure intégration entre le marché du travail et les apprentissages ou d’une revalorisation nécessaire des métiers techniques ou manuels.

Il est grand temps que cela change ! Non un diplôme, une filière, un premier emploi ne devrait pas conditionner toute une vie. Créons des passerelles, libérons les énergies, permettons à notre jeunesse de tenter, d’échouer, de se relever, d’apprendre, de progresser à tout âge.

Notre société ne cesse de parler de soft skills et pourtant, qu’est-il fait concrètement pour que nos jeunes apprennent à se connaître, découvrent leurs talents, se posent la question de leurs rêves et de leurs aspirations pour trouver une voie où ils pourraient véritablement s’épanouir et se réaliser ? Je pense qu’il est indispensable qu’ils se posent la question de leur orientation et de leurs intérêts bien plus tôt et au sein même de l’école qui devrait les préparer bien plus largement à leur vie professionnelle, en collaboration avec les entreprises.

Le pessimisme ne sert à rien. Seule l’action nous permettra de redéfinir un nouveau contrat social et de renouer avec les valeurs républicaines de notre école. Tous les citoyens pourront, ainsi, croire à nouveau en sa capacité à leur assurer un avenir.

________
(*) Sandrine Dirani est conférencière et autrice de « Aider son enfant à surmonter ses colères » – Hatier, « Ton meilleur atout, c’est toi ! » – de Boeck Supérieur et « Je maîtrise l’orthographe » (à paraître en janvier 2023).

Comment prévenir les incendies de forêt ?

Comment prévenir les incendies de forêt ?

L’été 2022 a été marqué par un nombre élevé d’incendies de grande ampleur. Des territoires d’ordinaire peu concernés comme la Bretagne, l’Allemagne ou la République Tchèque sont touchés. En Gironde, 20.000 hectares de surface forestière ont été détruits dans deux feux hors normes qui ont duré plus d’une semaine malgré des moyens de lutte importants. La menace grandit, sous l’influence du changement climatique. Comment faire face ? Par Amélie Castro et Philippe Riou-Nivert (Centre national de la propriété forestière) dans la Tribune.

.

Les massifs forestiers les plus exposés sont situés sur les sols les plus sensibles à la sécheresse. La région méditerranéenne, mais aussi le sud-ouest et l’ouest de la France sont concernés et le reste du pays n’est plus à l’abri. En Gironde, qui n’est pas un département associé à un risque d’incendie élevé, bien qu’il détienne le record annuel de départs de feux, la capacité naturelle des sols sableux à retenir l’eau est faible. La végétation du sous-bois (fougères, graminées, bruyères…) se dessèche rapidement et devient très combustible. À la moindre étincelle, elle s’enflamme. Le feu peut se communiquer aux arbres qui la surplombent et se transforme vite en incendie s’il y a du vent. Le relief et le manque d’accès compliquent la situation.

Il est indispensable de comprendre ces mécanismes pour définir une stratégie de prévention alors que les sécheresses s’annoncent plus fréquentes. Cette action du quotidien, peu visible, s’organise durant l’hiver et le printemps et s’inscrit dans le temps long.

Face au risque de feu, les forestiers évaluent la vulnérabilité de leurs forêts. Les résineux, notamment les pins, sont souvent mis en cause. Est-ce si simple que ça ? Certes, les arbres qui poussent dans des conditions sèches présentent plus souvent un risque de départ de feu. Pour autant, ils ne brûlent pas spontanément et ont même développé des mécanismes d’adaptation. C’est le cas du pin maritime, une essence forestière présente naturellement dans le sud et le sud-ouest de l’Europe. Ses caractéristiques (écorce épaisse…) lui assurent une certaine résistance aux feux de faible intensité.

Pour survivre et pousser, les essences doivent être adaptées au terroir. Dans les Landes de Gascogne, il faut qu’elles tolèrent à la fois la forte acidité naturelle des sols, l’excès d’eau en hiver et la sécheresse en été. Très peu d’essences supportent de telles contraintes. Après des décennies, les travaux de la recherche sont formels : il a été pour l’instant impossible de trouver des essences de substitution au pin maritime.

En forêt, la végétation est présente du sol à la cime des arbres et de parcelle à parcelle : les feuilles sèches au sol, les herbacées, les arbustes et les différents arbres. Dans les conditions climatiques de l’été 2022, un sous-bois dense ne peut pas maintenir la fraîcheur et l’humidité, deux conditions qui abaissent le risque incendie. Le sous-bois devient une masse combustible qui peut transformer un incendie en un véritable brasier. Il faut donc entretenir les forêts.

Pour ce faire, différentes techniques peuvent être mobilisées, en fonction du contexte. Les débroussaillements, les éclaircies et les élagages régulièrement pratiqués permettent de maîtriser le sous-bois, d’espacer nettement les cimes de la végétation au sol, en rompant l’homogénéité du massif forestier. Pour être efficaces, elles doivent atteindre une surface critique, ce qui suppose souvent l’association de propriétaires voisins. La question de leur coût et de leur prise en charge se pose. Les activités sylvopastorales en région méditerranéenne ont pu historiquement contribuer à entretenir les espaces forestiers. La forêt cultivée et entretenue dans les Landes de Gascogne est aussi une réponse de longue date, mise en place après les grands incendies des années 1940 qui virent aussi naître les premières assurances mutuelles.

Souvent présenté comme un moyen de limiter la vulnérabilité des forêts, le mélange des essences ne donne pourtant aucune certitude concernant un effet significatif sur la vulnérabilité au feu (le chêne vert est aussi inflammable que le pin). Cependant, les autres bénéfices, notamment écologiques, des mélanges sont nombreux et il est donc intéressant de les favoriser au sein du peuplement, en mosaïque ou en lisière, à condition de continuer à maîtriser la végétation. Par contre, la futaie irrégulière avec ses différents étages de végétation assure la continuité verticale et rend la forêt plus vulnérable en cas de risque élevé.

Accès pour les pompiers, pare-feu, points d’eau bien répartis et tours de guet font partie des équipements de prévention essentiels. Classé à haut risque depuis 1945, le territoire des Landes de Gascogne fait l’objet de travaux continus depuis plus de 70 ans. L’organisation de la Défense des Forêts Contre I’Incendie est spécifique et collective, animée par un réseau de sylviculteurs bénévoles dans leur majorité. Les Services Départementaux d’Incendie et de Secours et de la Sécurité Civile se sont appuyés sur les équipements de la DFCI. Même si le réseau n’a pas suffi pour contenir les feux attisés par la sécheresse et le vent, il a permis d’éviter les victimes et la plupart des dégâts aux habitations. Car les enjeux humains, notamment dans le Bassin d’Arcachon, sont bien plus importants qu’en 1945 et la protection des zones d’habitation a demandé des efforts considérables avec, sans doute, des arbitrages sur la répartition des moyens disponibles.

La question du risque de feux de forêt se pose à l’échelle du territoire. Plus de 90 % des départs de feu sont d’origine humaine et la densité de la population est un paramètre essentiel pour la sécurité des personnes et des biens mais aussi des forêts.

L’intensité des actions de débroussaillement doit être adaptée au risque de mise à feu. Il est plus fort le long des zones urbanisées et des infrastructures de transport routier ou ferroviaire. Les opérations doivent donc y être renforcées, jusqu’à créer des ruptures de combustible. Elles sont sous la responsabilité de différents acteurs : forestiers mais aussi communes, départements, gestionnaires d’infrastructures et résidents.

L’aménagement du territoire est un instrument de prévention à part entière. Les documents d’urbanisme doivent à ce titre intégrer le risque par des mesures spécifiques. Les obligations légales de débroussaillement permettent de limiter la vulnérabilité des interfaces entre forêt et habitations et servent à protéger la forêt mais aussi les maisons. Ces mesures d’autoprotection doivent être connues et intégrées par les résidents des zones à risques ; elles nécessitent de nombreuses actions d’information et de formation. Le partenariat entre les collectivités locales, les services de secours et les forestiers, privés et publics, est un élément clé pour la protection des territoires, à mener sur le long terme.

Il convient toutefois de rappeler que tirer des conclusions trop hâtives sur ces incendies, sur les essences ou sur les sylvicultures pratiquées négligerait le vrai sujet : l’accélération du changement climatique.

 

 

Science- Comment le cerveau construit sa réalité

Science- Comment le cerveau construit sa réalité

Contrairement à ce qu’on a longtemps supposé, notre représentation du monde n’est pas le fruit de l’empreinte que laisseraient les stimuli extérieurs sur l’activité de nos neurones. Ceux-ci sont en fait le siège d’activités spontanées, construisant une représentation interne du monde, sans cesse comparée à nos actions et perceptions.

Lorsque j’étais professeur, j’enseignais à mes étudiants comment notre cerveau perçoit le monde et contrôle le corps. Le message en substance était que lorsque nous regardons quelque chose ou que nous entendons un son, les stimuli visuels et auditifs sont convertis en signaux électriques, puis transmis au cortex sensoriel qui traite ces entrées et donne lieu à des perceptions. Pour déclencher un mouvement, les neurones du cortex moteur envoient des instructions à des neurones intermédiaires, situés dans la moelle épinière, ce qui se traduit par une contraction musculaire.

J’ai commencé mes recherches sans véritablement me demander si cette manière très simple de considérer les liens entre le cerveau et le monde extérieur était fondée. Cependant, malgré la succession des grandes découvertes qui ont donné naissance, à partir des années 1960, au domaine des « neurosciences », j’ai régulièrement dû faire face à la difficulté d’expliquer des mécanismes qu’au fond je ne comprenais pas – comme répondre à la question « où, exactement, dans le cerveau, a lieu l’acte de percevoir ? ». C’est pour répondre à ce genre d’interrogations que j’ai peu à peu développé une autre vision de la façon dont le cerveau interagit avec le monde extérieur.

Le plus grand défi des neurosciences consiste essentiellement à répondre à une question vertigineuse : qu’est-ce que l’esprit ? Du temps d’Aristote, les penseurs supposaient que l’esprit naissait vierge et se formait à partir des seules expériences de la vie. Un peu à l’image d’un tableau noir dépourvu d’inscriptions (que l’on appela tabula rasa, ou « table rase »), sur lequel nos expériences se graveraient peu à peu.

Ce cadre théorique, qualifié de modèle outside-in (les informations de l’extérieur modèlent le cerveau), a non seulement imprégné les philosophies chrétienne et perse, l’empirisme britannique et la doctrine marxiste mais également la psychologie et les sciences cognitives. Il est réputé aujourd’hui encore d’expliquer comment notre cerveau nous donne accès à la réalité.

Mais il existe un autre point de vue – celui qui a guidé mes recherches – qui affirme que les réseaux cérébraux entretiennent leur propre dynamique interne et produisent continuellement une myriade de motifs d’activité neuronale a priori dépourvus de sens. L’accès à la réalité est alors tout à fait différent : c’est parce qu’un comportement – a priori aléatoire – se révèle présenter un avantage pour la survie de l’organisme que le schéma neuronal ayant conduit à cette action prend alors du sens. Par exemple, lorsqu’un nourrisson prononce le mot « te-te » et que ses parents lui tendent un ours en peluche, le son « te-te » acquiert la signification « ours en peluche » [teddy bear, ndlr]. Ce cadre théorique inversé, « inside-out », qui part du principe que le cerveau n’est pas une table rase, est désormais étayé par de nombreux résultats de recherche.

Cela n’empêche pas le cadre « outside-in » d’avoir inspiré des expériences remarquables, comme les découvertes des scientifiques David Hubel et Torsten Wiesel. Ceux-ci sont parvenus, dans les années 1960, à enregistrer l’activité de neurones individuels impliqués dans le système visuel, ce qui leur a valu le prix Nobel de physiologie en 1981. Dans leurs plus célèbres expériences, ils ont enregistré l’activité neuronale d’animaux auxquels ils montraient des images. Les lignes, les bords, les zones claires ou sombres provoquaient des décharges dans différents groupes de neurones. Cela a conduit les chercheurs à penser que les signaux extérieurs amènent les neurones à produire des schémas d’activité simples, dont la combinaison, formant des modèles plus complexes, aboutit à la représentation d’un objet. Aucune participation active n’est nécessaire. Le cerveau effectue automatiquement cet exercice.

Le cadre théorique « outside-in » suppose ici que la fonction fondamentale du cerveau est de percevoir les « signaux » du monde extérieur et de les interpréter correctement. Sauf que si cette hypothèse est vraie, une opération supplémentaire est nécessaire pour que le cerveau réponde aux signaux en questions. En effet, entre les entrées perceptuelles et ce qu’en fait le sujet, il faut supposer l’existence d’une sorte de processeur central, qui reçoit les représentations sensorielles de l’environnement et en extrait les décisions orientant les actions appropriées.

Mais quelle est la nature de ce processeur central ? On le désigne sous de multiples termes : libre arbitre, homoncule, décideur, fonction exécutive, variables intervenantes ou tout simplement « boîte noire ». Cependant, la terminologie utilisée dépend à la fois de l’inclination philosophique de l’expérimentateur et de ce qui abrite ce « processeur ».

Science- Comment le cerveau construit sa réalité dans actu-économie politique

Comment affronter la future crise de la tech

Comment  affronter la future crise de la tech

 

Le krach boursier annoncé des entreprises tech et les mises en garde des fonds de capital-risque causent déboires et sueurs froides aux start-up et entreprises. Comment les relations publiques peuvent-elles aider les entreprises tech à surmonter ces difficultés ? Les communicants de l’agence internationale de RP Red Lorry Yellow Lorry, spécialisée en Tech B2B, partagent leurs conseils aux entreprises pour anticiper les défis des prochains mois. Par Hélène Joubert, Jack Benda, Elisabeth-Astrid Beretta, Lena Grün et Justin Ordman - consultants UK, Allemagne, France et US de Red Lorry Yellow Lorry PR.

 

L’effondrement du Nasdaq (28% de pertes depuis janvier, soit 1000 milliards de dollars) a entraîné une crise sans précédent des valorisations tech. La hausse des taux d’intérêts a pénalisé le financement des valorisations technologiques et le problème se manifeste dans les marchés privés. Softbank a annoncé 27 milliards de dollars de pertes pour ses Vision Funds sur l’année fiscale passée, Ark Innovation a perdu 55% depuis le début de 2022. Des start-up comme Klarna ont dû licencier 10% de leurs effectifs pour espérer atteindre leurs objectifs.

Les relations publiques peuvent être d’une grande aide aux entreprises dans cette période d’une grande complexité. Quelques bonnes pratiques d’anticipation peuvent aider à garder le cap.

Après une période faste pour la tech, les temps sont à la prudence. Face à des atermoiements financiers, aux craintes de leurs clients, fournisseurs, partenaires et employés, les entreprises tech se demandent comment rassurer. Pour cela, il faut se saisir en amont des leviers stratégiques qu’offre la communication.

« Plus que jamais, les communicants doivent se saisir des enjeux stratégiques de leur entreprise, en ayant une vue holistique de celle-ci : dynamique concurrentielle, pression financière, road-map des Go to Market, culture et mission…. », explique Hélène Joubert, Directrice Europe de Red Lorry Yellow Lorry. « Ce n’est qu’en ce faisant, que la communication peut venir répondre aux enjeux réputationnels de l’entreprise et devenir un asset primordial pour maintenir la  crédibilité de l’organisation  ainsi que son  levier d’influence. » On doit donc envisager la communication comme un levier devant être intégré à la stratégie et à la gouvernance d’entreprise.

 

Dans un contexte de tension, les esprits sont plus agités qu’à l’accoutumée et tout message raisonne davantage qu’en temps normal. Qui plus est, selon Jack Benda, directeur de comptes senior au UK, « il faut oublier toute idée de séparation entre la communication interne et externe. Toute information peut fuiter à tout momentIl faut maintenir une cadence de communication régulière et communiquer de la manière la plus transparente possible, dans la mesure du raisonnable ».

Aussi, est-il crucial de comprendre vos parties prenantes et les messages qui les intéressent. « Le fait que vous ne puissiez pas séparer vos messages en cas de crise représente un véritable défi en matière de gestion des parties prenantes. Les différentes parties prenantes ont des priorités différentes et parfois divergentes – le personnel s’intéresse aux salaires et à la sécurité de l’emploi ; les investisseurs s’intéressent au rendement ; les clients s’intéressent à la continuité des services. Essayer de trouver des messages qui garantissent la transparence tout en satisfaisant toutes ces parties est l’un des plus gros défis, et nécessite souvent l’œil impartial d’un expert externe en communication », spécifie-t-il.

 

Pas toutes les entreprises tech ne sont à risque d’effondrement, la valeur ajoutée de certaines est une constante. Certains financements ne sont que retardés. Néanmoins, « il faut se méfier d’un effet boule de neige qui provoquerait des rétractations. Il va falloir visibiliser la pérennité des business models, les relais de croissance, afficher des ambitions réalistes, souligner l’expérience des dirigeants, la compliance des entreprises, mettre en exergue les dispositifs qui assurent leur bonne gestion, les externalités positives… », selon Elisabeth-Astrid Beretta, consultante senior en France.

Cependant, il incombe aux dirigeants de donner des perspectives plus larges. Pour renforcer le message, il conviendra de l’alimenter de faits tangibles et de données concrètes, laissant entrevoir un dénouement heureux à cette conjecture.  »Irriguer son écosystème d’études de marché inédites, de données, peut aider à consolider le soutien des parties-prenantes, à évaluer le contexte et à laisser entrevoir non pas ‘si’, mais approximativement ‘quand et comment’ une entreprise ou un marché sortiront d’une mauvaise passe », conclut-elle.

 

Après deux ans de pandémie, d’une inflation croissante, d’une récession imminente et avec une guerre en Europe, la santé mentale des individus est mise à rude épreuve. Selon le rapport de Sapien Lab de mai 2022, la moitié des jeunes adultes (donc entrants  sur le monde du travail) ont vu leur santé mentale décliner au cours de la deuxième année de pandémie : ils sont pourtant tous les jours au travail. Il faut prioriser leur bien-être. En plus, recruter est difficile et les employés constituent un groupe de pression officieux qui peut médiatiquement apporter ou retirer son soutien à une entreprise.

Tenir compte de leur bien-être se reflète dans la manière dont on communique avec eux, surtout en cas de crise. Pour éviter toute confusion, la désinformation et les rumeurs, « il faut communiquer avec ses équipes sur un plan personnel, et ne pas les inonder de messages énigmatiques, de jargon et d’annoncer des changements radicaux dans votre entreprise par des mails collectifs. Il faut leur parler directement avant qu’ils ne commencent à s’interroger. Parfois, cela implique d’admettre que vous ne pouvez pas entièrement prédire ou saisir l’effet à long terme des événements sur votre entreprise « , conseille Lena Grün, directrice de comptes en Allemagne. Néanmoins, la communication ne doit pas être à sens unique : « Idéalement il faut permettre aux collaborateurs un moyen de poser des questions pour démystifier certaines fausses informations qui pourraient déjà s’être répandues », ajoute-t-elle.

 

Face à la démultiplication des outils de communication et des relais d’opinion, il convient d’être présent sur tous les fronts. « Il faut investir dans les outils marketing qui aideront à mieux jauger de l’efficacité d’une campagne, afin de pouvoir rapidement rediriger une éventuelle mauvaise stratégie et d’optimiser le budget marketing. Il est nécessaire également de tirer parti des réseaux sociaux, sur lesquels il est possible de lancer des campagnes et de cibler le public adéquat avec une barrière d’entrée à faible coût. Notamment à travers une stratégie de contenus… », recommande Justin Ordman, Head of Enterprise IT practice.

C’est souvent la première tentation des entreprises en période de difficulté mais il faut s’abstenir de réduire les budgets en relations publiques. C’est au contraire le moment d’exploiter les leviers qu’elles offrent. « Il ne faut surtout pas disparaître. Les autres entreprises se retireront en période de récession, et celles qui maintiendront la visibilité de leur marque gagneront des parts de marché dans leur secteur. Investir dans les relations publiques aujourd’hui, c’est aussi se préparer pour l’avenir », ajoute-t-il.

 

Rappelons-le, si certaines valorisations ont été surpayées, bénéficiant d’un engouement désormais obsolète au sortir des cycles de confinement, c’est loin d’être le cas de très nombreux services et de technologies à réelle valeur-ajoutée sur lesquels les investisseurs ne cesseront pas de miser.

Certaines technologies apporteront même des solutions et une richesse réputationnelle aux autres entreprises dans cette phase compliquée. En revanche, même les plus performantes pourraient pâtir de la frilosité généralisée des investisseurs, et certaines bonnes pratiques de gestion réputationnelles peuvent anticiper et dépasser le problème. Et pour cause, le lancement prochain d’Euronext Tech Leaders, l’indice boursier des valorisations tech européennes, donne un horizon au secteur.

Hélène Joubert, Jack Benda, Elisabeth-Astrid Beretta, Lena Grün et Justin Ordman

BCE : comment éviter une crise de l’euro ?

BCE : comment éviter une crise de l’euro ?

 Pour éviter une nouvelle crise de l’euro quelles seraient les options possibles ? Par Gabriel Gaspard, Chef d’entreprise à la retraite, spécialiste en économie financière. ( Dans la Tribune, extraits)

 

 

Fermer les yeux. En forte hausse en Europe, l’inflation annuelle dans l’Union européenne atteint 8,1% en avril 2022. En mars 2020, avant la pandémie le taux était en baisse à 0,7%. Jusqu’à présent, la position de la BCE a été de prendre du recul et d’affirmer que cette inflation est « temporaire » pour éviter la « fragmentation » de la zone euro.

Pour gérer l’inflation, le taux d’intérêt directeur est le principal outil utilisé par les Banques centrales. Quand la BCE augmente son taux directeur, les taux des prêts sur le marché grimpent et la capacité d’emprunt est abaissée. Les dépenses sont diminuées et la pression sur les chaînes de production est réduite.

Depuis quelques mois, alors que les taux directeurs de la Banque centrale européenne restent stables, les taux d’intérêt des prêts immobiliers augmentent et suivent la tendance de l’inflation et sont moins influencés par les taux directeurs. L’argent perd de sa valeur et les banques commerciales rehaussent leurs taux d’intérêt pour continuer à gagner de l’argent. De même au fur et à mesure que l’éventualité d’une hausse des taux directeurs se confirme, l’écart entre les coûts d’emprunts de l’Allemagne et les autres pays européens se creuse. Les détenteurs des obligations anticipent cette hausse et mettent en vente leurs anciennes obligations moins avantageuses. Cette vente surprend les décideurs économiques qui ne pensaient pas que les conditions actuelles équivalaient à une « fragmentation ». La BCE ne peut plus fermer les yeux mais les moyens disponibles sont limités.

 

Dans le cas où un accroissement des écarts des coûts d’emprunts devient alarmant, la BCE pourrait tout simplement reprendre son principal outil de soutien au crédit et à l’économie depuis la crise de la dette dans la zone euro qui est le l’assouplissement quantitative. Cette décision estelle probable étant donné que la BCE vient de mettre fin à l’achat d’obligations ? Il y a un précédent lorsque l’épidémie de COVID19 a brièvement fait passer les spreads (l’écart qui existe entre deux taux) obligataires italiens/allemands audessus de 300 points de base. La Banque d’Italie a alors intensifié ses achats d’obligations pour le compte de la BCE. Plus tard la BCE a lancé son programme d’urgence PEPP (programme d’achats d’urgence face à la pandémie). En réalité, la BCE n’envisage pas une éventuelle réduction de son bilan qui a atteint 8.700 milliards d’euros en mars 2022, mais de le maintenir constant. Dans ce contexte comment créer un nouveau programme d’achat des actifs sans augmenter son bilan ?

 

Pour garder son bilan stable, lorsqu’une obligation arrive à échéance ou maturité, la BCE va acheter une autre obligation sur le marché secondaire avec l’argent perçu au moment du remboursement. Dans ce cas, la BCE prolonge les effets de son programme en gardant la même liquidité sur les marchés. Avec une inflation forte et la fin du programme PEPP, la BCE s’est engagée à acheter des obligations des pays les plus faibles, Italie et Grèce, pour éviter la « fragmentation ». Mais réinvestir les achats acquis pendant la période de pandémie estelle suffisante pour empêcher les divergences des coûts d’emprunt dans la zone euros ? « Nous sommes frappés par le poids que la BCE accorde au canal de réinvestissement comme moyen d’empêcher la fragmentation, car nous pensons qu’il s’agit du canal le plus faible de soutien des flux (d’assouplissement quantitatif)« , a déclaré Rohan Khanna, stratégiste d’UBS. Cette approche n’est pas suffisante il faut réinventer un nouveau système.

 

Un prêt direct de la BCE aux États est interdit par les traités européens relatifs à la Banque centrale. Avec un euro numérique, l’idée serait de reprendre partiellement une pratique établie avant les années 70 en Europe.

« En 1974, on a eu une loi stupéfiante [...]. On a obligé l’État à aller se financer sur le marché financier privé à 4% ou 5%, et, du coup, notre dette est maintenant à 90% du produit national brut. » Michel Rocard, Europe 1, 22 décembre 2012.

Si la BCE ne peut pas financer directement les dettes publiques des États membres de la zone euro, alors elle le fait indirectement avec les programmes de rachats d’actifs. La BCE rachète sur le marché secondaire les obligations souveraines des États de la zone euro. Avec l’euro numérique ne seraitil pas souhaitable d’autoriser chaque européen à détenir des euros numériques sur des comptes ouverts directement à la BCE ? Une partie des économies des ménages européens se retrouvera automatiquement au passif du bilan de cette banque et réduirait son bilan. Avec ces dépôts, il n’y a pas de création de liquidités, pas d’inflation. La Banque centrale européenne pourra financer directement les dettes publiques des États les plus faibles de l’Union économique et monétaire.

D’après le traité de Rome, il n’est pas possible de forcer l’épargne privée à financer directement la croissance des dettes publiques. Mais voilà, avec la pandémie, la France a déjà dévié ces règles. « L’ensemble constitué des banques commerciales et de la Banque centrale a donc recyclé l’épargne des ménages pour prêter à l’État« , explique Agnès BénassyQuéré, Chef économiste de la DG trésor. Cependant, un tel écart par rapport à « l’orthodoxie monétaire » pourrait s’avérer un point de conflit, en particulier de la part de la Cour constitutionnelle allemande.

 

Après le NextGenerationEU, qui a été accepté par la Cour constitutionnelle Allemande, ce plan sera bien plus qu’une relance : un plan de croissance pour éviter la stagflation (croissance faible et forte inflation). C’est un nouvel endettement commun des VingtSept et une nouvelle création de liquidité. C’est une seconde occasion pour l’Europe d’établir une autre perspective des règles de gouvernances et de transformer les économies des pays les plus faibles. Il s’agit d’accélérer la reprise tout en participant à la reconstruction de l’Ukraine. Il est urgent de rendre l’Europe plus homogène et d’investir massivement dans une économie verte.

 

L’inflation actuelle est en grande partie liée à des phénomènes extérieurs comme les prix de l’énergie, la guerre en Ukraine. Les taux directeurs de la BCE ont peu d’influence sur le niveau des prix des événements extérieurs.

Autrement dit, si l’offre du bien peut toujours répondre à la demande, il n’y aura pas de place pour l’inflation. Cela signifie une production plus élevée pour un coût et des prix inférieurs. Il faut des investissements rapides pour ralentir l’inflation en poussant la croissance à la hausse, tout en rendant les budgets européens plus homogènes.

 

La BCE dispose d’autres outils comme le programme d’opérations monétaires sur titres (OMT). Conçu au plus fort de la crise de la dette dans la zone euro, ce programme permet à la Banque centrale d’acheter directement de la dette souveraine d’un pays donné sans aucune limite. Mais la Banque centrale européenne n’envisage pas de recourir à ce programme, pourquoi ?

 

Suspendu pour cause de pandémie, le pacte de stabilité budgétaire sera de nouveau en vigueur en 2024 au lieu de mars 2023. Alors d’ici fin 2023, estil possible d’éviter une « fragmentation » sans règles strictes entre tous les pays Européens. Tous les pays de la zone euro présentent des taux d’endettement, d’inflation, de croissance, etc. tous différents. Ceci confirme que les niveaux de développement sont éloignés, les dynamiques économiques sont divergentes et la régulation des marchés du travail nationaux discordante. La Présidente de la BCE admet que l’Europe pourrait davantage agir sur « les modalités d’interprétation » des règles qui reviendront en 2024 au lieu de 2023, mais « ce ne seront certainement pas les mêmes règles« .

La situation actuelle estelle comparable à celle des années 1970 ? Les mêmes causes sont présentes : des perturbations persistantes de l’offre qui alimentent l’inflation à cause de la pandémie, précédées d’une période prolongée de politique monétaire très accommodante et une faible croissance, etc.

Dans les années 70, il n’y avait pas de guerre aux portes de l’Europe, pourtant « à l’époque, peu d’économistes comprennent que ces indices annoncent l’entrée des pays industrialisés dans une crise économique qui durera plus de vingt ans » .

Fibre: Comment mettre fin à la pagaille ?

Fibre: Comment mettre fin à la pagaille ?

ENTRETIEN. Alors que de nombreux raccordements d’abonnés à la fibre se passent mal, Philippe Le Grand, le président d’InfraNum, qui rassemble les industriels du secteur, dévoile un nouveau plan pour améliorer la qualité des interventions. Il permettra de sanctionner les sous-traitants des opérateurs qui ne travaillent pas dans les règles de l’art. (la Tribune)

 

LA TRIBUNE – Le déploiement de la fibre fait aujourd’hui l’objet de sévères critiques. Beaucoup d’abonnés se plaignent de ne pouvoir être raccordés correctement, quand d’autres sont parfois sauvagement débranchés par des techniciens indélicats… Chez InfraNum, qui rassemble l’essentiel des industriels de la filière, que comptez-vous faire pour améliorer la situation ?

PHILIPPE LE GRAND - Nous avons pris le sujet à bras le corps. Laure de La Raudière, la présidente de l’Arcep, et Cédric O, l’ancien secrétaire d’Etat au Numérique, nous ont notamment demandé, il y a un peu plus d’un mois, de régler le problème. La pression est tellement forte que nous ne pouvions pas passer à côté. Nous présentons aujourd’hui un plan visant à améliorer la qualité des raccordements des abonnés à la fibre. Nous l’avons travaillé avec les opérateurs d’infrastructures, les opérateurs commerciaux et les intégrateurs [les sous-traitants, Ndlr]. Le principe général est de replacer l’opérateur d’infrastructures, le donneur d’ordre, comme garant de la qualité des réseaux. Ce qui n’est pas le cas avec le mode STOC (1), le processus qui encadre les raccordements des clients. Nous voulons remettre l’opérateur d’infrastructures au centre du jeu. Pour ce faire, notre plan repose sur trois axes. Nous allons d’abord créer une labellisation des intervenants sur les réseaux. Il faut être certain que ceux-ci soient correctement formés, bien équipés, et qu’il suivent les règles de l’art. Dans le cas contraire, ils seront déréférencés et sortis du jeu. Nous souhaitons également mettre un terme à certains actes inadmissibles et intolérables, comme les câbles coupés ou les écrasements volontaires de lignes… L’autre axe du plan concerne le contrôle des travaux. Les opérateurs d’infrastructures doivent pouvoir diligenter des enquêtes en temps réel sur les interventions. L’idée, c’est que les opérateurs commerciaux les préviennent en amont des opérations à venir. Nous commencerons, ici, dans les régions où il y a le plus d’incidents. Le simple fait que les sous-traitants sachent qu’ils peuvent être contrôlés devrait améliorer les choses. Le troisième axe du plan vise, lui, à mettre le compte-rendu d’intervention au centre de la relation contractuelle entre l’opérateur d’infrastructures et l’opérateur commercial, et de facto entre l’opérateur commercial et son sous-traitant. Ce compte-rendu doit être fourni, complet. Il contiendra des informations techniques qui n’existent pas encore, lesquelles attesteront de la bonne réalisation des raccordements. Les photos des interventions sont essentielles. Elles permettront de vérifier, avant et après, s’il y a eu des câbles coupés, débranchés. Ou encore si des points de mutualisation [à partir desquels les opérateurs commerciaux tirent les lignes pour raccorder les abonnés, Ndlr] ont été saccagés, si leurs portes ont été forcées… Notre plan ambitionne, en clair, de sanctionner tout travail mal fait.

Quand sera-t-il opérationnel ?

Nous le présentons ce mercredi après-midi devant l’Avicca, une association rassemblant les collectivités impliquées dans le numérique. J’espère qu’il va rassurer tout le monde. Pour que ce plan soit mis en œuvre, il doit se traduire par des engagements bilatéraux entre tous les opérateurs d’infrastructures et commerciaux. Nous voulons aller très vite. Nous souhaitons qu’il soit totalement opérationnel au mois de septembre.

Ces mesures seront-elles vraiment suffisantes pour en finir avec les malfaçons de certains sous-traitants ? Certains sont, en bout de chaîne, accusés de recourir à des autoentrepreneurs ou à des travailleurs immigrés, mal payés et peu formés, qui sèment la pagaille dans les réseaux…

Ce que vous évoquez, c’est l’ubérisation de la chaîne de sous-traitance. Il s’agit du fait qu’un intermédiaire prenne l’essentiel de la marge et sous-traite au moins-disant. Avec notre plan, nous comptons passer d’un système d’ubérisation à un système d’industrialisation. Cela ne signifie pas que les petites sociétés n’auront plus le droit d’intervenir sur les réseaux. Mais toutes devront avoir suivi un parcours de formation, et avoir démontré leur capacité à travailler correctement. Sinon, encore une fois, elles prendront la porte.

Beaucoup de sous-traitants se plaignent de ne pas être assez bien rémunérés. Certains sous-traitants de rang 2 qui travaillent sur les réseaux d’Orange pestent, notamment, contre les nouveaux prix pratiqués par l’opérateur historique, de loin le premier donneur d’ordre du secteur… Qu’en dites-vous ?

Il y a une compression des prix. C’est vrai. Mais il faut faire attention à ce qu’on dit, parce que cette baisse n’est pas toujours si violente que ça. Ce que je déplore, c’est la brutalité de l’évolution des tarifs d’Orange telle qu’elle a été conduite ces derniers mois. Ce n’est pas acceptable. Ce qui nous préoccupe, c’est que le sous-traitant de rang 2 qui va intervenir sur le chantier puisse vivre décemment de son travail. Or ce n’est pas possible s’il est payé 70 euros pour une demi-journée d’intervention… C’est donc de là qu’il faut partir. Il faut déterminer quel est le prix minimum à payer pour une intervention en bout de chaîne, et faire remonter cette information aux sous-traitants de rang 1, jusqu’à Orange. C’est de cette manière qu’on déterminera au mieux les tarifs des prestations. Le travail à perte ne doit pas être autorisé. Cela dit, je me garde de critiquer Orange. Son modèle économique est sous forte pression, et il a, lui aussi, ses contraintes. Il reste l’opérateur commercial qui investit le plus dans la fibre en Europe.

Que comptez-vous faire, concrètement, au niveau d’InfraNum, pour aider les sous-traitants ?

Nous allons travailler sur la question du partage de la valeur au sein de la filière. C’est l’étape d’après, notre prochain chantier. En parallèle d’une analyse concernant la viabilité économique des acteurs en bout de chaîne, nous souhaitons mettre en place une indexation des contrats sur l’augmentation du coût de la vie. Cela se fait dans tous les autres secteurs d’infrastructures. Il s’agit d’une demande forte des intégrateurs et des sous-traitants. Ils souffrent aujourd’hui de l’inflation, et en particulier de la hausse du prix de l’essence pour se rendre sur leurs lieux d’intervention. Leurs contrats doivent en tenir compte. Cela me paraît tout à fait normal. Mais si les sous-traitants en bout de chaîne doivent pouvoir vivre correctement, il en va de même pour les opérateurs commerciaux. Ces derniers sont confrontés à la domination des GAFAM [Google, Amazon, Facebook, Apple et Microsoft, Ndlr], qui captent l’essentiel de la valeur. Il est essentiel que ces grandes plateformes contribuent à l’économie des réseaux, dont elles sont les principaux utilisateurs. Je suis favorable à ce que les opérateurs commerciaux puissent facturer l’utilisation des réseaux aux GAFAM. Cela doit être encadré par des règles de non-discrimination. Il faudra aussi, bien entendu, qu’on veille à la neutralité du Net.

L’Union européenne s’est récemment saisie de ce dossier. Bruxelles appelle à ce que les géants américains du Net, qui utilisent plus de la moitié de la bande passante, contribuent financièrement au déploiement des réseaux télécoms…

Je soutiens totalement cette initiative. Sinon qu’allons-nous faire ? Augmenter les prix des abonnements téléphoniques et Internet de 10 euros pour enrichir encore, au final, les GAFAM ? Parce ce sont eux qui, au final, profitent de tout cet argent… Nous sommes confrontés à un problème structurel. C’est une question de justice.

Considérez-vous que la forte concurrence en France, qui rogne les marges des opérateurs en les obligeant à pratiquer des prix parmi les plus bas d’Europe, a fini par plomber la filière et ses sous-traitants ?

Force est de constater que si la concurrence a permis de doper les investissements, elle a également paupérisé le secteur. Les prix bas ont profité au consommateur. Il a gagné du pouvoir d’achat, et on ne peut que s’en réjouir. Mais l’économie des réseaux en souffre. Aujourd’hui, les prix sont clairement trop bas. Soit on les relève, soit on trouve d’autres sources de revenus. C’est tout l’enjeu, justement, de notre combat contre les GAFAM…

La volonté du gouvernement d’accélérer le déploiement de la fibre n’a-t-elle pas, aussi, déstabilisé la filière, qui a eu du mal à se structurer et à trouver suffisamment de main-d’œuvre qualifiée ?

Il est vrai que nous sommes allés très vite. Nous avons encore raccordé 5,6 millions de lignes en 2021. En 2022, nous projetons au moins 4 millions. A la fin de l’année – c’est-à-dire un peu plus de dix ans après le début du chantier -, plus de 80% des Français bénéficieront de la fibre. C’est énorme. Tout le monde travaille à plein régime, tambour battant, pour tenir le rythme un peu fou du plan France Très haut débit. La qualité en a pâti. Nous n’imaginions pas, pour autant, que les malfaçons seraient si nombreuses, et que leur impact serait aussi important. Mais ce sont d’abord les élus locaux qui voulaient avoir la fibre rapidement. Et non les industriels, qui auraient, de loin, préféré que le déploiement s’étale davantage dans le temps, pour bénéficier de plus de stabilité et de visibilité… Le gouvernement a choisi de suivre les demandes des élus locaux et des collectivités. L’industrie, elle, s’est mise au diapason. Malgré les difficultés, ce chantier reste une belle réussite. La fibre constitue un atout formidable pour le pays et la vitalité de l’économie.

___

1. Le mode STOC (« sous-traitance opérateur commercial ») est le dispositif qui s’applique pour le raccordement final des abonnés à la fibre. Dans cette logique, l’opérateur d’infrastructures laisse ces interventions aux opérateurs commerciaux Orange, SFR, Bouygues Telecom et Free, lesquels font appel à différents sous-traitants p

Électricité :Comment expliquer la flambée des prix ?

Électricité :Comment expliquer la flambée des prix ?

Les taxes et les coûts de transport mais aussi le financement de la transition énergétique expliquent notamment pourquoi la libéralisation n’a pas, comme attendu, conduit à une baisse des prix. Par Julien Pillot, INSEEC Grande École

Entre 2007, date symbolique en France puisqu’elle marque l’éligibilité de l’ensemble des consommateurs aux tarifs de marché, et 2020, le prix moyen du mégawatt-heure (MWh) de l’électricité pour les ménages est passé de 124 euros à 181 euros, soit 57 euros par MWh d’augmentation. À première vue, le constat est donc sans appel : avec près de 50 % d’augmentation depuis 2007, l’ouverture à la concurrence ne semble pas avoir rempli son objectif de baisse des tarifs pour le consommateur.

Les deux finalistes de la dernière élection présidentielle, Emmanuel Macron et Marine Le Pen, en ont d’ailleurs ouvertement débattu durant l’entre-deux-tours et, si les remèdes proposés différaient, tous deux s’accordaient sur le fait que le marché européen de l’énergie était inefficient et concourrait, sous sa forme actuelle, à l’augmentation des prix. C’est également la conclusion du comité social et économique central d’Électricité de France (EDF) qui vient de lancer une pétition pour la sortie du marché européen de l’électricité et le retour à un service public de l’énergie. De son côté, le chef de fil de la gauche, Jean-Luc Mélenchon, qui ambitionne de devenir Premier ministre à l’issue des élections législatives, appelle au retour à un marché national de l’énergie.

Mais cette envolée des prix est-elle réellement liée à la libéralisation du secteur, qui était justement supposée stimuler la concurrence et donc l’innovation, notamment dans le déploiement des énergies renouvelables (EnR), et la baisse des prix ? En réalité, le constat apparaît plus nuancé.

Tout d’abord, une partie de cette augmentation s’explique par les taxes (notamment la CSPE) qui pesaient pour 25 % sur la facture du consommateur en 2007 (soit 31 euros/MWh), et pour 34 % en 2020 (soit 61,5 euros/MWh). Autrement dit, sur le relèvement des taxes explique à lui seul 31,5 euros/MWh sur les 57 euros/MWh d’augmentation des prix moyens constatée (soit 55,3 % du total).

Les tarifs s’envoleraient si la France s’isolait

Une autre partie de l’augmentation repose sur les coûts inhérents aux réseaux de transport qu’il a fallu à plusieurs reprises réévaluer pour tenir compte des nécessaires investissements dans la maintenance, mais aussi la modernisation de ces infrastructures essentielles. Cette modernisation apparaît d’autant plus nécessaire que la production d’électricité se décentralise (notamment avec le déploiement des EnR), et que les nouveaux usages se développent. Ces tarifs d’acheminement de l’électricité (Turpe) sont ainsi passés de 41 euros/MWh en 2007 à 53,5 euros/MWh en 2020, soit 21,9 % de l’augmentation totale constatée.

Un rapide calcul nous permet donc de déduire que les coûts de fourniture, ou dit autrement, les facteurs de marché, n’expliquent en moyenne que 22,8 % (100 %-55,3 %-21,9 %) de l’augmentation des prix constatée sur la période, soit environ 13 euros/MWh. Pour les opposants au marché européen de l’énergie, ces 22,8 % résiduels résonneraient donc comme un constat d’échec et justifieraient un retour à des marchés de nationaux.

 

, selon les projections de RTE (gestionnaire du réseau national de transport d’électricité haute tension), une France isolée à horizon 2050-2060 coûterait plusieurs milliards supplémentaires par an aux contribuables. En effet, pour réduire nos émissions de CO2 et notre dépendance aux fossiles, nous avons déjà fermé et planifié la fermeture de l’équivalent de près de 10 gigawatts (GW) de centrales thermiques. De plus, nos centrales nucléaires vieillissantes connaissent des périodes d’arrêts et de surveillance prolongées qui ne permettent pas leur pleine exploitation.

Tout cela fait de la France un importateur d’électricité, notamment pour couvrir ses pics de consommation. En 2021, RTE nous rappelle que la France aura importé 44 térawatts-heures (TWH, un million de MWh) d’électricité (dont 22,2 TWh depuis l’Allemagne et le Benelux). Ce chiffre n’était « que » de 27,5 TWh en 2007 !

Cela ne peut signifier que deux choses : la France a de plus en plus de difficultés à couvrir ses besoins énergétiques intérieurs et/ou il lui est parfois profitable d’importer de l’énergie, notamment quand les prix de marché sont bas.

Le paradoxe EDF

Au milieu de cette dynamique de marché, EDF est l’objet d’un curieux paradoxe. Il faut comprendre que le principal acteur du marché de la production d’électricité en France reste tenu de céder à ses concurrents un plafond de 100 TWh/an d’énergie nucléaire à un tarif « Arenh » (accès régulé à l’énergie nucléaire historique) fixé depuis 2012 à 42 euros/MWh. Cette disposition, qui engage à peu près le quart de la capacité de production nucléaire d’EDF, a permis l’instauration d’une concurrence sur le marché de la fourniture, l’électricité d’origine nucléaire étant fortement compétitive, notamment pour couvrir les besoins « de base ». Elle est d’ailleurs très fortement demandée actuellement du fait de l’envolée des prix de marché.

L’Arenh, qui n’a pas été révisé depuis 2012, est supposé couvrir les coûts de production en électricité d’origine nucléaire d’EDF. Or, ce n’est plus le cas si l’on en croit la Commission de régulation de l’énergie (CRE) et l’opérateur historique, qui estiment respectivement ces coûts de production à 48,36 euros/MWh et 53 euros/MWh. Autrement dit, EDF cède une partie de sa production nucléaire à perte… ce qui, du point de vue du contribuable français qui a participé à la constitution du parc d’EDF et figure à son actionnariat, s’apparente à une double peine puisque, dans le même temps, il est également percuté par l’augmentation des prix.

Cependant, il ne faut pas occulter qu’EDF est à la fois un leader de la fourniture d’électricité, mais aussi un très important exportateur. Et s’il perd de l’argent sur les 100 TWh concédés au tarif Arenh, il en gagne sur le reste de sa production, à plus forte raison quand les prix de marché s’envolent ! Par ailleurs, son coût de revient reste très compétitif, du fait notamment de sa rente de nucléaire et hydraulique.

Au bilan, malgré le paradoxe de l’Arenh, cette situation lui permet de générer des gains importants qui bénéficient à l’État actionnaire… et, d’une manière ou d’une autre, au contribuable. Les mesures de type « bouclier énergétique », par exemple, ne sont-ils pas indirectement prélevés sur les bénéfices d’EDF ?

Le lourd financement du renouvelable

Enfin, il faut garder à l’esprit que l’ouverture à la concurrence répondait à d’autres objectifs que la seule baisse des prix. Il s’agissait aussi de réagir face à une série de problématiques identifiées dès le milieu des années 1990. À cette époque, déjà, l’Union européenne avait anticipé une forte augmentation de la demande mondiale en énergie, et les tensions subséquentes sur l’accès aux ressources fossiles dont l’Europe reste fortement dépendante. La souveraineté énergétique européenne ne peut, dans ce contexte, faire l’économie d’une réelle politique de l’énergie unifiée qui permette à la fois de peser sur les marchés, mais aussi de planifier la sortie progressive des énergies fossiles. Le mode de financement des énergies renouvelables (EnR) et de leurs coûts associés à leur intégration au réseau explique ainsi en partie les hausses de prix.

En effet, les financements privés se réalisent à un taux de marché généralement compris entre 4 % et 7 % quand l’État pourrait bénéficier de conditions de financement nettement plus avantageuses. Dit autrement, la transition énergétique revient plus cher – toutes choses égales par ailleurs – quand elle fait l’objet d’investissements privés plutôt que publics. Certes, mais ce serait oublier un peu vite que les États européens, déjà lestés de dettes souveraines très importantes pour certains, ont de multiples arbitrages budgétaires à effectuer (sous contraintes de se conformer, en temps normaux, au Pacte de stabilité et de croissance). Or, ils subventionnent directement et indirectement déjà beaucoup les EnR, par le biais d’obligations d’achat à un tarif régulé ou de complément de rémunération au bénéfice exclusif des producteurs d’EnR. Ces dispositifs de soutien aux EnR auraient permis de subventionner, pour la France et sur seule année 2020, la production de 79 TWh d’énergies renouvelables, à hauteur de 6,2 milliards d’euros (selon le ministère de la Transition écologique).

Les EnR ont de surcroît le désavantage d’être intermittentes, mais surtout décentralisées et générées par de multiples producteurs hétérogènes. Cette dispersion rend le réseau plus délicat à piloter et équilibrer et nécessite des investissements massifs pour adapter les lignes à cette nouvelle donne. Par exemple, Réseau de transport d’électricité (RTE), qui assure le transport de l’électricité en France, prévoit quelque 33 milliards d’euros d’investissements à horizon 2035 (dont 13 milliards pour la seule absorption des EnR), et une progression exponentielle au-delà en fonction de la part des renouvelables dans le mix énergétique français.

En contrepartie, ces investissements ouvrent la voie à un pilotage plus intelligent de l’énergie, et le développement des usages qui vont de pair, qu’il s’agisse de l’électrification massive des flottes de véhicules, les réseaux électriques « intelligents » (smart grids) permettant une production/injection d’énergie ajustable en temps réel, le pilotage distant de la demande… En bref, une optimisation qui permettra, à terme, une meilleure efficience énergétique. Et de continuer à réduire, par la densification de notre parc EnR, nos émissions de CO2. L’évolution des tarifs à l’avenir reflétera donc en partie nos choix politiques concernant l’environnement.

On comprend à la lecture de ce bref panorama que, certes, on reste loin des promesses d’une concurrence modératrice en prix, mais que l’ensemble des hausses de prix ne découlent pas des imperfections du marché libéralisé, et que les nombreux bénéfices liés à la construction du marché européen de l’énergie ne peuvent être totalement occultés. Reste que les marges de manœuvre pour protéger le portefeuille des consommateurs et assurer la transition énergétique demeurent limitées.

Sauf à miser sur la sobriété énergétique, voir émerger des innovations radicales dans la génération d’énergie, ou à espérer des conditions macro plus favorables, la hausse des prix ne semble pas pouvoir être endiguée sur le court terme. Et ce, même s’il était décidé de plafonner les dépenses marketing des fournisseurs, EDF et ses rivaux apparus depuis 2007…

_______

Par Julien Pillot, Enseignant-Chercheur en Economie (Inseec) / Pr. associé (U. Paris Saclay) / Chercheur associé (CNRS), INSEEC Grande École.

La version originale de cet article a été publiée sur The Conversation.

Rémunération des grands patrons : comment expliquer l’explosion ?

Rémunération des grands patrons : comment expliquer l’explosion ?

 

La réglementation imposant la publication des rémunérations des dirigeants a notamment entraîné leur inflation car ces chiffres sont devenus une mesure de leur valeur. Par Frédéric Fréry, CentraleSupélec – Université Paris-Saclay

 

Comme chaque printemps, avec la publication des documents de référence des entreprises cotées, la rémunération des grands patrons suscite des réactions indignées. Cette année, une étude de Fintech Scalens, une plate-forme spécialisée dans les services aux sociétés cotées, a notamment montré que les dirigeants du CAC 40, les quarante entreprises les mieux valorisées à la bourse de Paris, ont vu leur rémunération doubler en un an, atteignant une moyenne de 8,7 millions d’euros. Même tendance haussière aux États-Unis : les 100 principaux dirigeants américains ont vu leur rémunération progresser de 31 % en 2021 pour s’établir à environ 20 millions d’euros par personne en moyenne (dont +569 % pour le patron d’Apple, Tim Cook, ou encore +65 % pour celui de Goldman Sachs).

Un nom a retenu en particulier l’attention de la presse française : celui de Carlos Tavares, le directeur général du groupe automobile Stellantis (né de la fusion entre Fiat Chrystler et PSA Peugeot Citroën), censé toucher 66 millions d’euros de rémunération totale en 2021, dont une part fixe de 19 millions d’euros. Ce chiffre, rendu public pendant l’entre-deux-tours de la campagne présidentielle, a été jugé « choquant » aussi bien par la candidate du Rassemblement national, Marine Le Pen, que par le président candidat Emmanuel Macron qui a en outre appelé à un plafonnement des rémunérations des dirigeants à l’échelle européenne.

Le cas de Carlos Tavares apparaît en effet d’autant plus polémique que, sous le mandat de François Hollande, une loi a été adoptée pour que la rémunération patronale soit soumise à l’approbation des actionnaires. Le 13 avril dernier, ces derniers se sont d’ailleurs opposés au versement des 66 millions d’euros lors de l’assemblée générale du groupe. Mais le vote a eu lieu au nouveau siège situé aux Pays-Bas, où ce vote n’a qu’une fonction consultative… La déléguée syndicale centrale CFDT, a ainsi amèrement regretté au sujet du déménagement : « on nous assurait pourtant que c’était par neutralité géographique, pas pour des avantages financiers… »

Lors de l’assemblée générale du groupe Stellantis, le président John Elkann avait justifié ce niveau de rémunération en expliquant vouloir « récompenser les performances » du dirigeant qui a mené à bien la fusion entre Fiat Chrystler et PSA Peugeot Citroën.

Pourtant, la question de savoir s’il faut récompenser financièrement la réussite, même si elle est largement débattue en psychologie depuis les travaux fondateurs d’Edward Deci, n’est pas ce qui est principalement en jeu ici. Ce qui choque, c’est le niveau de cette récompense. Comment peut-on l’expliquer ? Est-ce une pratique pertinente en termes de management ?

Aux États-Unis, les dirigeants ont en moyenne gagné 254 fois plus que leurs salariés en 2021, contre 238 fois en 2020. Un niveau proche de celui observé en France. Or, si le niveau absolu de cet écart peut légitimement choquer, c’est surtout son évolution au cours des dernières décennies qui constitue le phénomène le plus surprenant.

En effet, cet écart n’était que de 1 à 20 aux États-Unis en 1965. C’était d’ailleurs l’écart maximal de rémunération que recommandait au début du XXe siècle le célèbre banquier J.P. Morgan, peu réputé pour son militantisme égalitaire. Qu’est-ce qui peut expliquer une telle inflation ? Ce n’est certainement pas un accroissement proportionnel du talent et des responsabilités des grands patrons : quel que soit l’indicateur choisi, rien n’indique que la performance des dirigeants (et des entreprises qu’ils dirigent) a été multipliée par 20 depuis les années 1960.

 

En fait, l’explosion de la rémunération des dirigeants des sociétés cotées s’explique par la conjonction de deux effets pervers. Le premier de ces effets est la consanguinité des conseils d’administration et des conseils de surveillance, connue en France sous le doux nom de « barbichette », en référence à la comptine « je te tiens, tu me tiens par la barbichette », qui devient : « tu es membre de mon conseil, tu votes ma rémunération, je suis membre de ton conseil, je vote ta rémunération ».

Pour légitimer la rémunération des dirigeants, certains affirment qu’il existerait un « marché » des talents, et que les rémunérations, quelque exubérantes qu’elles soient, correspondraient au « prix de marché » des compétences. Or, si un tel marché existe pour les dirigeants des grands groupes, ce n’est certainement pas un marché libre et le prix n’y est certainement pas une mesure objective de la valeur. En effet, les conseils d’administration des groupes cotés sont souvent composés d’individus qui sont eux-mêmes dirigeants, et qui siègent souvent dans plusieurs autres conseils.

Il existe donc une forme de connivence plus ou moins affichée entre les dirigeants et ceux qui évaluent leur action et décident de leur rémunération. Cette situation n’est d’ailleurs pas spécifique au capitalisme français (même si les collusions entre anciens des mêmes grandes écoles et des mêmes grands corps ont tendance à la renforcer), puisqu’on la retrouve par exemple aux États-Unis.

On peut ainsi expliquer le niveau de rémunération des grands patrons par le fait qu’ils se l’attribuent eux-mêmes, au travers de leurs administrateurs, avec lesquels ils partagent les mêmes intérêts et les mêmes réseaux. Cependant, si ce phénomène peut permettre de comprendre le montant des rémunérations, il n’explique pas leur multiplication depuis les années 1960. En effet, l’endogamie des instances de pouvoir est vieille comme le monde, et rien n’indique qu’elle soit pire aujourd’hui qu’elle ne l’était hier.

 

Pour expliquer l’explosion de la rémunération des dirigeants, il faut donc invoquer un deuxième effet pervers, bien plus redoutable car largement contre-intuitif. C’est à partir des années 1990 que la réglementation a peu à peu imposé une révélation des niveaux de rémunération des dirigeants des entreprises cotées. Aux États-Unis, cela a pris la forme d’une nouvelle règle édictée par la Securities and Exchange Commission (SEC) en 1992. En France, c’est la loi NRE du 15 mai 2001, revue par la loi de Sécurité financière du 1er août 2003 qui a fixé ce cadre.

Dans les deux cas, l’objectif était le même : mieux informer les actionnaires sur les rémunérations des dirigeants, avec l’hypothèse sous-jacente que si ces rémunérations devenaient publiques, elles resteraient contenues. Or, paradoxalement, c’est exactement l’inverse qui s’est produit : c’est la publication des rémunérations qui a provoqué leur inflation.

En effet, dès lors que la rémunération est publique, elle devient une mesure de la valeur des dirigeants et donc un enjeu. Tant qu’elle était secrète, elle ne permettait pas de comparer les individus et restait donc une question purement privée. Devenue publique, elle s’impose comme l’étalon de leur talent. Lorsqu’une société cotée nomme un nouveau dirigeant et qu’elle décide de le payer moins que son prédécesseur, tout le monde le sait, et on va en déduire qu’il n’est pas aussi capable que celui qu’il remplace. De même, si le dirigeant d’une entreprise est moins payé que la moyenne de son industrie, tout le monde le sait, et on va en déduire qu’il n’est pas parmi les plus talentueux.

C’est parce que les rémunérations sont publiques que tous les dirigeants cherchent à gagner plus que la moyenne et que tous les conseils d’administration ne cessent de mieux les payer. En effet, un administrateur qui douterait publiquement de la compétence du dirigeant provoquerait un effondrement du prix de l’action. Réciproquement, pour influencer positivement la valeur actionnariale, un conseil d’administration a intérêt à donner tous les signes les plus patents, les plus mesurables et les plus visibles de l’extrême confiance qu’il a dans le talent exceptionnel du dirigeant : c’est ce qu’il fait en décidant de l’augmenter. Par conséquent, une fois publique, la rémunération des dirigeants devient instrumentalisée comme à la fois un outil de mesure et un mécanisme d’influence.

Le phénomène d’instrumentalisation de la moyenne est connu aux États-Unis sous le nom de « Lake Wobegon effect », du nom de la ville fictive de Lake Wobegon, où comme le veut la légende « toutes les femmes sont fortes, tous les hommes sont beaux et tous les enfants sont au-dessus de la moyenne ». S’il est impossible que tout le monde soit meilleur que la moyenne, le fait que chacun cherche à l’être provoque son inflation.

 

Que retenir de tout cela ? Au regard de l’histoire, l’explosion des rémunérations des patrons des grandes entreprises reste une anomalie, et c’est une anomalie récente (l’économiste français Thomas Piketty condamne à ce propos un « extrémisme méritocratique »). D’un point de vue managérial, les niveaux actuels de rémunération ne se justifient pas, car pendant longtemps les entreprises ont été très bien dirigées sans que leurs patrons ne soient aussi grassement payés.

De plus, de tels écarts de rémunération provoquent un profond sentiment d’iniquité, au risque d’une démotivation générale, bien plus préjudiciable à la performance des entreprises qu’une très hypothétique érosion du talent des dirigeants. Comme le dit avec malice le milliardaire américain Warren Buffett :

> « Quand un dirigeant avec une réputation d’excellence rencontre une industrie avec une réputation de difficulté, c’est généralement l’industrie qui conserve sa réputation ».

Par conséquent, si nous voulons mettre fin à cette anomalie historique qu’est l’explosion des rémunérations des grands patrons (ou celle des stars de cinéma et des champions sportifs), la conclusion qui s’impose est limpide : il faut rendre ces rémunérations secrètes. Dès lors qu’elles seront secrètes, les rémunérations cesseront d’être une mesure de la valeur des individus, et donc d’être un enjeu. Bien entendu, rien ne dit qu’en devenant confidentielles, les rémunérations redescendront à des niveaux plus raisonnables (pour cela, il faudrait que la loi l’impose ou que les actionnaires l’exigent), mais a minima elles auront moins de raisons d’augmenter.

Reste un obstacle de taille : on voit mal comment l’opinion, scandalisée par les niveaux actuels de ces rémunérations, pourrait accepter qu’on décide de les cacher. J’invite nos lecteurs les plus pédagogues à résoudre cet épineux problème.

_______

Par Frédéric Fréry, Professeur de stratégie, CentraleSupélec – Université Paris-Saclay

La version originale de cet article a été publiée sur The Conversation.

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol