Archive pour le Tag 'quel'

Page 2 sur 11

Biodiversité: quel enjeu ?

Biodiversité: quel enjeu ?

Si le changement climatique préoccupe beaucoup de monde, les scientifiques alertent aussi régulièrement sur la crise de la biodiversité causée majoritairement par les activités humaines. La biodiversité, c’est un mot popularisé par une convention internationale en 1992 qui est la contraction de « diversité » et de « biologique ».

par
Julien Blanco
Chercheur en ethnoécologie, Institut de recherche pour le développement (IRD)

Sarah Paquet
Doctorante en économie écologique, Institut de recherche pour le développement (IRD)
dans The Conversation

Elle désigne la diversité du monde vivant et peut s’observer à trois niveaux :

Au niveau des espèces : c’est la diversité des animaux (les mammifères, les poissons, les oiseaux, mais aussi les insectes et les mollusques), des plantes (dont les arbres et les algues) ou encore des champignons et des bactéries. Parmi ces espèces, certaines ont été domestiquées par les humains, comme les vaches ou les chiens, mais ces dernières font aussi partie de la biodiversité ;

Au niveau des individus d’une même espèce : c’est le fait que chaque individu est unique, et qu’il y a plusieurs races ou variétés au sein d’une même espèce. Par exemple, l’espèce des chiens regroupe différentes races (chihuahuas, labradors, caniches, etc.) ;

Au niveau des écosystèmes et des paysages : ce sont tous les types de forêts, de savanes, de prairies, de milieux marins, ou encore de déserts qui sont le fruit de la rencontre entre des êtres vivants variés et leur environnement.

La biodiversité est donc présente dans tout ce qui nous entoure, y compris en ville et à la campagne, dans les terres, les mers et les rivières. Sa disparition pose problème pour trois raisons principales.

La biodiversité a le droit d’exister

Nous constatons aujourd’hui que les activités humaines menacent la biodiversité : sur environ huit millions d’espèces animales et végétales connues, près d’un million est menacé d’extinction.

Or on peut considérer que chaque être vivant a le droit d’exister sur cette planète : cette dernière est un lieu de vie pour toutes et tous, pas seulement pour les humains. Ainsi, chaque être a une valeur en soi (valeur intrinsèque) et devrait à ce titre pouvoir vivre, même si les humains le jugent inutile.

La biodiversité est nécessaire au bien-être des humains

Si vous pensez à ce que vous mangez chaque jour, vous réaliserez que tout est fourni par la biodiversité. La viande provient de divers animaux élevés ou chassés (poules, vaches, sangliers, etc.). Le pain et les pâtes sont préparés à partir de céréales comme le blé.

La biodiversité est aussi indispensable pour se soigner : la plupart des médicaments que nous utilisons sont issus des plantes et, dans beaucoup de pays, on utilise encore les plantes médicinales directement. Par exemple, le thym (Thymus vulgaris) peut être employé en décoction contre la toux et les bronchites. La molécule qu’il contient, le thymol, entre dans la composition de certains médicaments.

Sur un autre plan, les forêts sont particulièrement importantes, car elles participent à rendre l’eau que nous buvons potable, à limiter l’érosion des sols et à réguler le climat.

Par conséquent, les humains ne pourraient tout simplement pas vivre sans la biodiversité. Elle est importante parce qu’elle est utile à notre bien-être : on parle de valeur instrumentale. Bien qu’un peu égoïste, c’est un bon argument pour en prendre soin.

Les humains entretiennent des relations intimes avec la biodiversité
Au même titre que les relations amicales et familiales, les humains ont parfois des relations très profondes et intimes avec la biodiversité.

Par exemple, certaines personnes sont attachées aux rivières ou aux montagnes où elles ont grandi, ces lieux étant associés à des souvenirs. À leurs yeux, aucune autre rivière ou montagne ne peut les remplacer. On associe aussi l’identité de certains pays à la biodiversité : l’érable est le symbole du Canada, tandis que le ravinala (ou arbre du voyageur) et le lémurien sont ceux de Madagascar. De même, la population française est associée au coq ou aux grenouilles. Qu’adviendrait-il de ces identités si ces espèces venaient à disparaître ?

C’est ce qu’on appelle la valeur relationnelle de la biodiversité : elle est importante parce qu’elle définit qui nous sommes, notre histoire et notre identité. C’est d’ailleurs en se reconnectant à la biodiversité que l’on pourra en avoir davantage conscience.

Ce sont ces trois grandes valeurs (d’existence, d’utilité et relationnelle) qui rendent la biodiversité si importante et irremplaçable. Il est donc crucial d’en prendre soin et de faire preuve de réciprocité vis-à-vis d’elle.

Fonderie aveyronnaise Sam : quel avenir pour quels clients ?

Fonderie aveyronnaise SAM : quel avenir pour quels clients ?

Le problème de l’avenir de la fonderie aveyronnaise SAM illustre malheureusement la problématique de l’industrie automobile française. Une industrie qui s’est ratatinée pour lorsqu’elle existe encore se réduire surtout au montage de pièces fabriquées à l’étranger. L’exemple plus significatif étant évidemment la voiture électrique en totalité ou en partie chinoise.

Certes la région Occitanie est très mobilisée par ce dossier et a décidé de reprendre le contrôle c’est-à-dire la propriété de la fonderie abandonnée d’ailleurs par des Chinois mais qui en reste propriétaires.

Cette entreprise s’est laissée prendre au piège du client unique qui était Renault et qui d’un coup a changé de fournisseur. Le piège classique du client unique qui peut tuer une entreprise brutalement.

Après cette prise de participation de la région Occitanie dans l’outil industriel restera cependant à trouver un industriel compétent et fiable mais surtout des clients.

Ce que qu’indiquait il y a déja un an l’un des anciens candidats à la reprise, MH Industrie:

Dans quels secteurs vous lanceriez cette activité, le cycle et le ferroviaire ?

Pas uniquement. En fait, on se baserait en grande partie sur notre propre expérience. Quand je vous ai dit qu’on ne croyait pas dans un modèle mono client, mono secteur d’activité, c’est que notre groupe, qui fait un peu moins de 30 millions de chiffre d’affaire et qui a 300 personnes, est sur une dizaine de secteurs d’activité, près de 600 clients différents, un seul client fait plus de 10% de notre chiffre d’affaire. On va du bâtiment à l’aéronautique, à la défense, au ferroviaire et à l’automobile également. L’idée c’est donc de dupliquer ce système-là et donc d’offrir de la sous-traitance mécanique à tous ces secteurs.
Vous avez déjà réindustrialisé des sites ?
Non. Nous avons repris des sites en difficulté mais réindustrialiser de zéro des sites, non.

Le conseil régional d’Occitanie s’apprête à devenir le propriétaire de ce site industriel de plusieurs milliers de mètres carrés à l’entrée de Decazeville. La transaction sera bouclée dans les premières semaines de l’année 2024.

« Nous avons mis du temps à racheter l’outil industriel du fait de la complexité juridique du dossier et notamment la présence des actionnaires chinois pour mener à bien cette transaction, étant toujours propriétaires des lieux », souligne Carole Delga, la présidente socialiste de la région Occitanie, Carole Delga.

Au début de la décennie 2020, cette fonderie employait encore plus de 350 personnes, après un redressement judiciaire en 2019 et une reprise par le chinois Jinjiang. Seulement, au cours de l’année 2020, un administrateur judiciaire a repris la direction de l’entreprise et donc écarté les repreneurs en raison de plusieurs promesses d’investissements non tenues particulièrement. Pour autant, Jinjiang a gardé la propriété de l’usine.

Mais ce mouvement à la tête de ce sous-traitant automobile n’est qu’un petit épisode d’un dossier qui a fait couler beaucoup d’encre pendant plusieurs années. Après avoir connu une période faste et une collaboration avec une multitude de constructeurs, la fonderie SAM s’est enfermée dans un business modèle périlleux en travaillant uniquement avec Renault.

Cette situation de mono-client a d’ailleurs rendu difficiles toutes les tentatives de reprise par des acteurs privés. « Bercy (où le ministère de l’Économie est logé, ndlr) et Renault nous ont lâché, c’est pour cette unique raison que cela ne s’est pas fait », rappelle sur un ton amer Carole Delga. Une analyse partagée par Matthieu Hède, le PDG du groupe lotois MH Industries, intéressé pour reprendre l’usine et une centaine de salariés jusqu’à l’été 2022. Seule contrepartie ? Que Renault puisse garantir un matelas de commandes pendant deux à trois années le temps que MH Industries organise le pivot de la fonderie SAM. L’élue et l’entrepreneur n’ont pas été entendus par le constructeur automobile français menant ainsi à l’échec de ce projet.

Social-Quel rattrapage des salaires sur l’inflation ?

Quel rattrapage des salaires sur l’inflation ?


De quoi surprendre, pour la première fois en deux ans, les hausses de salaires (même sans les primes) observées entre fin juin 2022 et fin juin 2023, auraient été supérieures à celles des prix, selon la Dares ( Pour l’ensemble de l’année 2023, On retrouvera sans doute les mêmes conclusions quand les chiffre seront disponibles). Même son de cloche chez les experts au service des grands intérêts financiers qui s’expriment dans les médias. Sur cette période d’un an, le « salaire mensuel de base » des salariés a grimpé, en moyenne, de 4,6 % quand les étiquettes n’ont évolué que de 4,4 % (hors tabac). La différence reste très maigre, puisque l’écart ne serait que de 0,2 %.

Plusieurs objections, la première est d’ordre méthodologique: le ministère du travail parle en effet de salaires de base. Il s’agit sans doute des salaires théoriques des conventions collectives mais sans doute par des salaires réels qui exigeraient le recueil de données beaucoup plus conséquentes et plus conformes à la réalité.

La seconde objection est celle relative à la mesure de l’inflation. On sait que cette inflation est largement sous-estimée du fait du glissement régulier des dépenses contraintes vers le haut. En clair, le pouvoir de consommation des ménages et de plus en plus contraints par les dépenses incontournables.

Dans le détail des dépenses de logement représentent environ 25 % du budget, l’alimentation 25 % également, le transport 15 % les autres biens et services 15 % soient au total 80 % .

On assiste notamment depuis la guerre en Ukraine à une importante évolution de la structure des dépenses des ménages. Ainsi l’inflation réelle est plus proche de 10 % que de 4,6 % et par exemple les dépenses alimentaires ont enregistré une hausse plus proche de 20 % que de 10 %. De toute manière le salaire réel en 2023 est encore plus faible qu’en 2022.

Cela en effet en raison de l’envolée des prix de l’alimentaire et de l’énergie. Deux postes qui ne cessent de prendre une part plus importante dans la structure des dépenses des ménages. Une modification qui rend par ailleurs obsolète la mesure officielle de l’évolution des prix à la consommation.

Les gains très théoriques de pouvoir d’achat diffèrent selon les secteurs de l’économie. Ils auraient atteint 0,3 % dans l’industrie et 0,2 % dans le secteur tertiaire. En revanche, les salariés du secteur de la construction ont continué à perdre de l’argent avec une diminution de leur rémunération réelle de 0,3 %.

Face à un choc sur les prix, les entreprises ajustent en général les salaires avec retard. Mais la dynamique est bel et bien enclenchée, alors que la valse des étiquettes s’avère un peu moins vive qu’auparavant. Dans sa dernière note de conjoncture de juin, l’Insee anticipait que le salaire moyen progresse de 5,1 % sur toute l’année 2023 dans le secteur privé, alors que l’inflation annuelle moyenne ne serait que de 5 %. Ce chiffre comprend toutefois les primes exceptionnelles et non pas uniquement le salaire de base.

Le fait que les salaires évoluent désormais plus vite que les prix ne veut toutefois pas dire que les pertes de pouvoir d’achat encaissées depuis le retour de l’inflation ont été effacées. Loin de là. En juin, l’Insee avait calculé que, en moyenne sur l’année 2023, le salaire réel resterait 1,3 % plus faible qu’en 2022.

Quel rattrapage des salaires sur l’inflation ?

Quel rattrapage des salaires sur l’inflation ?


De quoi surprendre, pour la première fois en deux ans, les hausses de salaires (même sans les primes) observées entre fin juin 2022 et fin juin 2023, auraient été supérieures à celles des prix, selon la Dares . Même son de cloche chez les experts au service des grands intérêts financiers qui s’expriment dans les médias. Sur cette période d’un an, le « salaire mensuel de base » des salariés a grimpé, en moyenne, de 4,6 % quand les étiquettes n’ont évolué que de 4,4 % (hors tabac). La différence reste très maigre, puisque l’écart ne serait que de 0,2 %.

Plusieurs objections, la première est d’ordre méthodologique: le ministère du travail parle en effet de salaires de base. Il s’agit sans doute des salaires théoriques des conventions collectives mais sans doute par des salaires réels qui exigeraient le recueil de données beaucoup plus conséquentes et plus conformes à la réalité.

La seconde objection est celle relative à la mesure de l’inflation. On sait que cette inflation est largement sous-estimée du fait du glissement régulier des dépenses contraintes vers le haut. En clair, le pouvoir de consommation des ménages et de plus en plus contraints par les dépenses incontournables.

Dans le détail des dépenses de logement représentent environ 25 % du budget, l’alimentation 25 % également, le transport 15 % les autres biens et services 15 % soient au total 80 % .

On assiste notamment depuis la guerre en Ukraine à une importante évolution de la structure des dépenses des ménages. Ainsi l’inflation réelle est plus proche de 10 % que de 4,6 % et par exemple les dépenses alimentaires ont enregistré une hausse plus proche de 20 % que de 10 %. De toute manière le salaire réel en 2023 est encore plus faible qu’en 2022.

Cela en effet en raison de l’envolée des prix de l’alimentaire et de l’énergie. Deux postes qui ne cessent de prendre une part plus importante dans la structure des dépenses des ménages. Une modification qui rend par ailleurs obsolète la mesure officielle de l’évolution des prix à la consommation.

Les gains très théoriques de pouvoir d’achat diffèrent selon les secteurs de l’économie. Ils auraient atteint 0,3 % dans l’industrie et 0,2 % dans le secteur tertiaire. En revanche, les salariés du secteur de la construction ont continué à perdre de l’argent avec une diminution de leur rémunération réelle de 0,3 %.

Face à un choc sur les prix, les entreprises ajustent en général les salaires avec retard. Mais la dynamique est bel et bien enclenchée, alors que la valse des étiquettes s’avère un peu moins vive qu’auparavant. Dans sa dernière note de conjoncture de juin, l’Insee anticipait que le salaire moyen progresse de 5,1 % sur toute l’année 2023 dans le secteur privé, alors que l’inflation annuelle moyenne ne serait que de 5 %. Ce chiffre comprend toutefois les primes exceptionnelles et non pas uniquement le salaire de base.

Le fait que les salaires évoluent désormais plus vite que les prix ne veut toutefois pas dire que les pertes de pouvoir d’achat encaissées depuis le retour de l’inflation ont été effacées. Loin de là. En juin, l’Insee avait calculé que, en moyenne sur l’année 2023, le salaire réel resterait 1,3 % plus faible qu’en 2022.

COP 28 : quel sujet ? Le climat ou le business

COP 28 : quel sujet ? Le climat ou le business

La prochaine réunion internationale sur le climat à Dubaï, certains argumentent sur le fait que choisir un pays producteur de pétrole peut permettre une avancée justement pour amorcer sérieusement la baisse de consommation de ce produit. Le problème, c’est que le président de cette réunion internationale en profiterait pour faire du business… de pétrole!

Beaucoup d’autres considèrent qu’il ne faut pas attendre grand-chose de cette COP 28 compte tenu notamment des positions très divergentes des participants notamment des pays producteurs de pétrole.

Un autre élément vient brouiller les perspectives de cette grande réunion habituée des grandes déclarations qui ne changent rien sur le terrain car le climat ne cesse évidemment de ce détériorer. Mais cette fois il s’agit d’une accusation contre le président de cette COP 28 qui en profiterait pour faire du business de pétrole avec les représentants nombreux des pays participants.

La BBC, publiée ce lundi, révèle que le président émirati de la COP28 aurait utilisé sa fonction pour tenter de négocier des contrats pétroliers et gaziers avec plusieurs représentants de gouvernement. A trois jours à peine de la conférence à Dubaï, ces révélations jettent un nouveau doute sur la capacité des Emirats, grands producteurs de pétrole, à trouver un accord ambitieux sur le climat.

Dirigeant de la compagnie nationale de pétroles des Emirats arabes unis, Sultan Al Jaber est régulièrement accusé par les ONG de ne pas être crédible dans son rôle de président de la COP28.

« Je ne peux pas croire que ce soit vrai ». C’est ce qu’a déclaré naïvement comme d’habitude ce lundi le bavard secrétaire général de l’ONU Antonio Guterres suite à une révélation embarrassante sur le président de la COP28 et patron de la compagnie émiratie de pétrole et de gaz. réduire autant que possible leur empreinte carbone globale. Les informations révélées par la BBC sont d’autant plus détonantes qu’en vertu des règles fixées par l’ONU, les présidences de COP ont l’obligation d’agir avec impartialité et transparence.

Dans le détail, la BBC qui dénonce l’affaire a mis la main sur une compilation de 150 pages de briefings en vue de rencontres entre le président de la COP28 et au moins 27 représentants de gouvernement, entre juillet et octobre 2023. Des « points de discussion » sont évoqués avec différents représentants de pays. Notamment un à l’intention de la Chine selon lequel la compagnie pétrolière nationale des Emirats (Adnoc) est « disposée à évaluer conjointement les opportunités internationales de GNL [gaz naturel liquéfié] » au Mozambique, au Canada et en Australie.

On trouve aussi les noms des pays suivants: le Royaume-Uni, les États-Unis, la France, l’Allemagne, les Pays-Bas, le Brésil, la Chine, l’Arabie saoudite, l’Égypte ou encore le Kenya.

Quel type de réindustrialisation ?

Quel type de réindustrialisation ?


Anaïs Voy-Gillis, chercheuse : « Il faut s’interroger sur la réindustrialisation que nous voulons ». La spécialiste des questions industrielles estime, dans un entretien au « Monde », que le retour de l’industrie en France doit s’accompagner d’une réflexion plus large sur les modèles de production et de consommation.

Chercheuse associée à l’Institut d’administration des entreprises de Poitiers et docteure en géographie, Anaïs Voy-Gillis est spécialiste des questions industrielles. Autrice, avec Olivier Lluansi, de Vers la renaissance industrielle (Editions Marie B, 2020), elle est, depuis peu, chargée de la stratégie au sein du groupe chimique français Humens, producteur de carbonate et de bicarbonate de sodium. ( dans « le Monde »)


Comment jugez-vous la réindustrialisation française ?

Timide. Depuis quelques années, la réindustrialisation est dans une dynamique positive, mais il est encore beaucoup trop tôt pour dire si c’est gagné ou pas. C’est un phénomène qui prend du temps et sa réussite ou son échec dépendent des critères retenus : doit-on seulement prendre en compte le nombre de créations et de fermetures d’usine ? Le nombre d’emplois créés ? La part de l’industrie dans le produit intérieur brut ? Le maintien et le renforcement du tissu industriel existant ?

Ou de sa finalité ? Réindustrialiser, oui, mais pour quoi faire ?

Les modèles industriels doivent évoluer sous l’effet des contraintes environnementales. Il faut donc s’interroger sur la réindustrialisation que nous souhaitons. Quels produits veut-on fabriquer ? Quels sont ceux que l’on veut importer ou rapatrier, dans quels volumes, etc. ? Il faut s’interroger plus globalement sur le modèle social que l’on veut construire.

Est-ce le cas ?
Non, pour l’instant, les débats sont très techniques au niveau des industriels et des élus, mais pas au niveau des citoyens et de l’ensemble de la société. Ces questions ont été, par exemple, très peu abordées durant les campagnes présidentielle et législatives en 2022. La croyance est encore trop forte que l’on va s’en sortir avec quelques aménagements à la marge et en décarbonant l’industrie.

Alimentation et environnement- Quel impact écologique des aliments ?

Alimentation et environnement- Quel impact écologique des aliments ?


Dès le 1er janvier 2024, un score environnemental devrait apparaître sur les produits alimentaires (et textiles), sorte de « Nutriscore » de l’écologie. Or, depuis plusieurs mois, la bataille des méthodologies fait rage. Plusieurs parties prenantes reprochent ainsi à l’Ecoscore, qui devrait inspirer le futur outil gouvernemental, de se borner à procéder à l’analyse du cycle de vie du produit. Ils mettent en avant que l’analyse de cycle de vie rend mal compte de l’impact des produits sur la biodiversité. Les défenseurs du Planet score reprochaient notamment au score environnemental retenu par les autorités, inspiré de l’Ecoscore, de donner de moins bonnes notes aux produits issus de l’agriculture biologique.

par Valentin Bellasen
Directeur de recherche, Inrae
dans The conversation.

Mais les produits issus de l’agriculture biologique impactent-ils moins l’environnement ? J’ai précisément été auditionné sur ce point par le conseil scientifique de l’expérimentation ADEME en 2020, et les conclusions de ma communication sont reprises dans son rapport final. Il s’avère que si l’agriculture biologique mérite d’être subventionnée par les agences de l’eau pour la protection des points de captage, elle ne mérite pas forcément la meilleure note dans le cadre de l’affichage environnemental. Voyons pourquoi.

Le principe de l’évaluation multicritères fait consensus dans le monde scientifique, en particulier dans la démarche de l’analyse de cycle de vie. Il permet de ne pas favoriser un produit qui apporte un bénéfice infime sur un aspect au prix d’une dégradation forte sur un autre aspect. Mais cela ne signifie pas pour autant que tous les critères se valent et qu’un score environnemental puisse se résumer à une moyenne non pondérée des impacts sur différentes composantes.

Le Product Environmental Footprint, la méthode qui fait foi à l’échelle européenne, accorde ainsi le poids le plus fort au changement climatique. C’est à mon avis justifié, pour plusieurs raisons.

D’abord parce que l’enjeu climatique est le plus urgent des enjeux environnementaux. Le temps de retour à l’équilibre de la plupart des composantes de la qualité environnementale (qualité et quantité de l’eau, qualité de l’air, qualité des sols…) est de l’ordre de la décennie ou du siècle. Par comparaison, il est de l’ordre du million d’années pour le climat (irréversibilité).

De plus, le changement climatique est lui-même l’une des causes principales de dégradation de la biodiversité (autre enjeu partiellement irréversible), mais la réciproque est globalement fausse.

Enfin, les impacts d’un changement climatique non contenu seraient encore plus dramatiques que ceux des autres enjeux environnementaux. Pour ne citer qu’un exemple du dernier rapport du GIEC, la bande intertropicale, qui abrite 40 % de la population mondiale, deviendrait largement inhabitable à l’horizon 2080.

Dans le domaine de l’alimentation, l’impact sur le climat est par ailleurs corrélé à la plupart des impacts environnementaux. Notamment pour l’eutrophisation, via l’utilisation d’engrais et les déjections animales, pour les pollutions liées à la production d’énergie, notamment via les combustibles fossiles, ou encore pour les atteintes à la biodiversité via le stockage de carbone des prairies et des forêts. Ainsi, l’amélioration de l’empreinte carbone s’accompagne le plus souvent d’une amélioration de la plupart des autres impacts environnementaux. Concentrons-nous donc pour commencer sur l’empreinte carbone comparée des produits biologiques et conventionnels.

Parmi les différents critères environnementaux à prendre en compte pour la production alimentaire, le critère climatique est celui qui domine.

L’évaluation des impacts environnementaux de l’agriculture est très sensible à l’unité fonctionnelle retenue pour l’analyse. Dans le cas des produits alimentaires certifiés, deux unités fonctionnelles sont souvent discutées : la quantité de produit (par exemple, un litre de lait, une tonne de blé…) ou l’hectare de terre.

Les deux visions ont leurs points forts et leurs limites : d’un point de vue économique, normaliser par la quantité de produit revient à considérer que la demande est totalement inélastique. C’est une bonne approximation pour des produits de base comme le pain ou le riz, mais ça devient discutable pour les consommations « plaisir », notamment la viande. À l’opposé, utiliser l’hectare comme unité fonctionnelle revient à considérer une demande qui diminuera ou augmentera proportionnellement au rendement, ce qui est irréaliste dans la plupart des cas.

Une manière sans doute plus didactique de savoir quelle unité fonctionnelle est pertinente est de s’interroger sur l’objectif de l’utilisateur. Dans le cas de l’affichage environnemental, le consommateur cherche à réduire l’impact de ses achats. Comme il achète des quantités de produits et non des hectares, la quantité de produit est l’unité fonctionnelle la plus pertinente.

La métrique « par hectare » reste toutefois utile dans certains cas et surtout pour certains publics, par exemple pour une collectivité qui chercherait à protéger un captage d’eau potable. Dans ce cas, la collectivité cherche en effet à limiter la pollution par unité de surface qui entoure le captage, et la quantité d’aliments produite par ces surfaces n’est pour elle que très secondaire. Comme l’agriculture biologique pollue moins l’eau par unité de surface (on explique pourquoi un peu plus bas dans ce texte), la collectivité a donc tout intérêt à ce que les exploitations agricoles alentour se convertissent à l’agriculture biologique, et à subventionner une telle transition, comme le font les agences de l’eau.

La recherche sur l’empreinte carbone du bio est foisonnante depuis les années 2010. Plusieurs méta-analyses convergent pour dire qu’il n’y a pas de différence marquée entre bio et conventionnel sur l’empreinte carbone. Si l’absence d’engrais minéraux diminue fortement les émissions des fermes biologiques, cette baisse est compensée par leur moindre productivité, et notamment l’allongement de la durée de vie des animaux pour atteindre un poids donné.

Les productions végétales bio pourraient toutefois tirer leur épingle du jeu avec une empreinte carbone plus faible d’une dizaine de pour cent, mais ces résultats restent à confirmer.

La prise en compte du stockage de carbone en fonction des types d’agriculture reste un front de recherche, mais qui ne semble pas bouleverser ces résultats jusqu’à présent.

En termes de consommation d’eau, principalement pour l’irrigation, les produits certifiés sont plus sobres, d’environ 30 % par hectare et 15 % par tonne. Pour ce qui est de la pollution de l’eau aux nitrates, l’agriculture biologique emploie de 30 % à 60 % de moins d’azote par hectare. Mais ramenée à la tonne de produit, la différence n’est plus significative. En effet, malgré l’absence d’azote minéral, les fermes biologiques restent consommatrices d’azote organique et ont par ailleurs des rendements inférieurs.

Si l’on s’intéresse à l’impact des systèmes alimentaires sur la biodiversité, la situation est plus complexe encore. Grâce à l’interdiction des pesticides, les surfaces cultivées en agriculture biologique présentent des niveaux d’abondance et de richesse spécifique de 20 % à 50 % supérieure à leurs équivalents conventionnels.

Toutefois, leur impact global sur la biodiversité reste une question complexe.

D’abord du fait des moindres rendements, qui peuvent être à l’origine de déforestation sur place ou à l’étranger. En effet, les forêts feuillues sont le type d’habitat avec le plus de biodiversité, quelle que soit la zone géographique considérée.

Ensuite parce qu’à la différence des autres composantes environnementales, il n’y a pas d’indicateur synthétique et consensuel de la biodiversité, ce qui complique les choses. Une expertise scientifique collective Inrae/Ifrener est en cours pour démêler le sujet.

Et si, avec cette comparaison du score environnemental du conventionnel à celle du bio, on se trompait de débat ? La littérature scientifique montre en effet que l’amélioration des pratiques agricoles n’est finalement qu’un levier de second ordre, après la modification du régime alimentaire. À l’échelle mondiale, 61 % des émissions liées à l’alimentation sont dues aux produits animaux – et le chiffre pourrait atteindre 80 % en Europe.

La réduction du cheptel et de la consommation de protéines animales, qui permettrait de réduire les émissions alimentaires de l’ordre de 30 % à 60 %, est donc la condition nécessaire pour atteindre les objectifs d’atténuation climatique européens et français. Ce qui a des conséquences directes en termes d’affichage environnemental sur les produits alimentaires : l’affichage doit avant tout inciter les consommateurs à éviter les produits animaux les plus émetteurs, plutôt que de distinguer bio et conventionnel qui ont un impact par kilo très proche.

Mais il y a d’autres bonnes raisons de manger bio : un principe de précaution sanitaire vis-à-vis des pesticides, et une meilleure performance économique et sociale. En fin de compte, peut-être est-ce la principale contribution du bio à la préservation de l’environnement : aider les producteurs et les consommateurs à réduire la production et consommation de viande en compensant la baisse des quantités par une augmentation de la qualité des produits, qui satisfera les consommateurs, et une augmentation du prix, qui satisfera les producteurs. Plusieurs études montrent d’ailleurs que les consommateurs de produits biologiques vont dans ce sens, compensant le surcoût unitaire du bio par une sobriété sur le poste alimentaire le plus coûteux : la viande.

Quel accompagnement social pour la transition écologique ? Le cas du secteur automobile

Quel accompagnement social pour la transition écologique ? Le cas du secteur automobile

La voiture, au cœur des mobilités du quotidien, le restera dans les prochaines décennies, malgré les efforts indispensables pour rééquilibrer les usages vers des modes alternatifs. Par Jean-Philippe Hermine, Directeur de l’Institut Mobilités en Transition et Chercheur associé à l’Iddri et Marjorie Mascaro, Responsable du développement de l’Institut Mobilités en Transition

Un article intéressant mais cependant un peu flou qui propose une approche systémique pertinente mais sans lien justement avec le développement des transports alternatifs notamment collectifs NDLR

La poussée de fièvre récente sur les carburants a mis l’accent sur la dépendance subie au véhicule par des ménages fragiles et sur la spirale de précarité qu’elle génère. Dans ce contexte, difficile d’envisager une transition vers une solution technologique plus coûteuse d’accès, même si cela s’avère inexact à l’usage. L’électrification massive et rapide du parc est pourtant la seule solution raisonnable pour atteindre nos objectifs de décarbonation. L’Union européenne a acté cette ambition, programmant la fin de vente des voitures thermiques en 2035. Sur le plan national, la déclinaison des ZFE, souvent mal comprises, parfois caricaturées et instrumentalisées dans le débat public, renforce l’idée que la transition écologique est un potentiel catalyseur des inégalités sociales et territoriales.

Dans ces conditions, la mise en œuvre d’un agenda social pour accompagner cette transformation est au cœur de l’acceptabilité et de sa réussite. La notion même du traitement social recouvre cependant différents aspects, différentes approches, qu’il convient de distinguer pour ce qu’ils ambitionnent de résoudre.

La compensation vise principalement à préserver le marché et les usages
C’est l’approche réclamée, entre autres, par les constructeurs : ils attendent des pouvoirs publics qu’ils prennent en charge les impacts et efforts budgétaires qu’implique la transition. Dans cette logique, c’est le marché du neuf qui doit être subventionné pour maintenir une forme de statu quo en termes d’offre ou de pratiques.

Cette approche coûteuse pour l’État, rarement ciblée, a conduit en partie à l’inflation de la taille et du prix des véhicules de ces dernières années. Ainsi, le bonus à l’achat, qui pèse près d’un milliard d’euros par an, bénéficie principalement aux 20% les plus aisés, ceux pouvant acquérir un véhicule neuf.

Le ciblage consiste à flécher la dépense publique vers les plus contraints
Une nouvelle orientation vise dorénavant à conditionner les aides financières à des critères de revenus. Ce ciblage se justifie d’autant plus s’il est alimenté par des recettes fiscales, définies pour orienter le marché vers plus de sobriété et identifiées dans une logique de réaffectation budgétaire à visée sociale. Cette logique reste une exception en France, ce qui a en partie alimenté la crise des « Gilets Jaunes ».

Pour autant, un ménage précaire restera souvent en incapacité de combler le reste à charge pour acquérir un véhicule neuf. Cette approche est donc conditionnée à l’émergence rapide d’un marché de véhicules d’occasion accessibles. C’est en s’appuyant sur les flux de renouvellement des flottes d’entreprises, renforcés par des politiques volontaristes de verdissement, que ce marché a vocation à générer une offre abordable pour la majorité.

À court terme, des ruptures du business model traditionnel telles que le leasing social, sont particulièrement utiles pour faire, plus que symboliquement, des plus fragiles également des acteurs de la transition.

Le traitement social et structurel de la transition écologique

Il consiste à considérer ce moment de transformation du secteur comme un levier profond de résolution de problèmes systémiques et structurels tels que la dépendance à l’automobile, l’inflation de la taille et du prix des véhicules, la localisation de la production, le besoin d’efficience énergétique ou la circularité.

La dépense publique doit être envisagée comme un levier de transition inclusive et en rupture, pour faire évoluer à moyen terme les pratiques et l’offre vers plus de sobriété. Elle doit également s’inscrire dans une trajectoire à long terme pour favoriser, sécuriser, les investissements des acteurs économiques ou des territoires, vers des produits ou services qui gagneront durablement en compétitivité.

Le traitement social de la transition est trop important pour être traité uniquement à travers le prisme de la relation entre l’État et les constructeurs. Sa complexité, le champ des possibles, les conséquences qu’il implique sur le reste de l’industrie, nécessitent qu’il soit géré d’un point de vue systémique au sein d’un ensemble large de parties prenantes et avec des outils socio-économiques d’analyses des usages, des flux, des contraintes réelles des usagers et non celles du simple marché.

Quel impact écologique des aliments ?

Quel impact écologique des aliments ?


Dès le 1er janvier 2024, un score environnemental devrait apparaître sur les produits alimentaires (et textiles), sorte de « Nutriscore » de l’écologie. Or, depuis plusieurs mois, la bataille des méthodologies fait rage. Plusieurs parties prenantes reprochent ainsi à l’Ecoscore, qui devrait inspirer le futur outil gouvernemental, de se borner à procéder à l’analyse du cycle de vie du produit. Ils mettent en avant que l’analyse de cycle de vie rend mal compte de l’impact des produits sur la biodiversité. Les défenseurs du Planet score reprochaient notamment au score environnemental retenu par les autorités, inspiré de l’Ecoscore, de donner de moins bonnes notes aux produits issus de l’agriculture biologique.

par Valentin Bellasen
Directeur de recherche, Inrae
dans The conversation.

Mais les produits issus de l’agriculture biologique impactent-ils moins l’environnement ? J’ai précisément été auditionné sur ce point par le conseil scientifique de l’expérimentation ADEME en 2020, et les conclusions de ma communication sont reprises dans son rapport final. Il s’avère que si l’agriculture biologique mérite d’être subventionnée par les agences de l’eau pour la protection des points de captage, elle ne mérite pas forcément la meilleure note dans le cadre de l’affichage environnemental. Voyons pourquoi.

Le principe de l’évaluation multicritères fait consensus dans le monde scientifique, en particulier dans la démarche de l’analyse de cycle de vie. Il permet de ne pas favoriser un produit qui apporte un bénéfice infime sur un aspect au prix d’une dégradation forte sur un autre aspect. Mais cela ne signifie pas pour autant que tous les critères se valent et qu’un score environnemental puisse se résumer à une moyenne non pondérée des impacts sur différentes composantes.

Le Product Environmental Footprint, la méthode qui fait foi à l’échelle européenne, accorde ainsi le poids le plus fort au changement climatique. C’est à mon avis justifié, pour plusieurs raisons.

D’abord parce que l’enjeu climatique est le plus urgent des enjeux environnementaux. Le temps de retour à l’équilibre de la plupart des composantes de la qualité environnementale (qualité et quantité de l’eau, qualité de l’air, qualité des sols…) est de l’ordre de la décennie ou du siècle. Par comparaison, il est de l’ordre du million d’années pour le climat (irréversibilité).

De plus, le changement climatique est lui-même l’une des causes principales de dégradation de la biodiversité (autre enjeu partiellement irréversible), mais la réciproque est globalement fausse.

Enfin, les impacts d’un changement climatique non contenu seraient encore plus dramatiques que ceux des autres enjeux environnementaux. Pour ne citer qu’un exemple du dernier rapport du GIEC, la bande intertropicale, qui abrite 40 % de la population mondiale, deviendrait largement inhabitable à l’horizon 2080.

Dans le domaine de l’alimentation, l’impact sur le climat est par ailleurs corrélé à la plupart des impacts environnementaux. Notamment pour l’eutrophisation, via l’utilisation d’engrais et les déjections animales, pour les pollutions liées à la production d’énergie, notamment via les combustibles fossiles, ou encore pour les atteintes à la biodiversité via le stockage de carbone des prairies et des forêts. Ainsi, l’amélioration de l’empreinte carbone s’accompagne le plus souvent d’une amélioration de la plupart des autres impacts environnementaux. Concentrons-nous donc pour commencer sur l’empreinte carbone comparée des produits biologiques et conventionnels.

Parmi les différents critères environnementaux à prendre en compte pour la production alimentaire, le critère climatique est celui qui domine.

L’évaluation des impacts environnementaux de l’agriculture est très sensible à l’unité fonctionnelle retenue pour l’analyse. Dans le cas des produits alimentaires certifiés, deux unités fonctionnelles sont souvent discutées : la quantité de produit (par exemple, un litre de lait, une tonne de blé…) ou l’hectare de terre.

Les deux visions ont leurs points forts et leurs limites : d’un point de vue économique, normaliser par la quantité de produit revient à considérer que la demande est totalement inélastique. C’est une bonne approximation pour des produits de base comme le pain ou le riz, mais ça devient discutable pour les consommations « plaisir », notamment la viande. À l’opposé, utiliser l’hectare comme unité fonctionnelle revient à considérer une demande qui diminuera ou augmentera proportionnellement au rendement, ce qui est irréaliste dans la plupart des cas.

Une manière sans doute plus didactique de savoir quelle unité fonctionnelle est pertinente est de s’interroger sur l’objectif de l’utilisateur. Dans le cas de l’affichage environnemental, le consommateur cherche à réduire l’impact de ses achats. Comme il achète des quantités de produits et non des hectares, la quantité de produit est l’unité fonctionnelle la plus pertinente.

La métrique « par hectare » reste toutefois utile dans certains cas et surtout pour certains publics, par exemple pour une collectivité qui chercherait à protéger un captage d’eau potable. Dans ce cas, la collectivité cherche en effet à limiter la pollution par unité de surface qui entoure le captage, et la quantité d’aliments produite par ces surfaces n’est pour elle que très secondaire. Comme l’agriculture biologique pollue moins l’eau par unité de surface (on explique pourquoi un peu plus bas dans ce texte), la collectivité a donc tout intérêt à ce que les exploitations agricoles alentour se convertissent à l’agriculture biologique, et à subventionner une telle transition, comme le font les agences de l’eau.

La recherche sur l’empreinte carbone du bio est foisonnante depuis les années 2010. Plusieurs méta-analyses convergent pour dire qu’il n’y a pas de différence marquée entre bio et conventionnel sur l’empreinte carbone. Si l’absence d’engrais minéraux diminue fortement les émissions des fermes biologiques, cette baisse est compensée par leur moindre productivité, et notamment l’allongement de la durée de vie des animaux pour atteindre un poids donné.

Les productions végétales bio pourraient toutefois tirer leur épingle du jeu avec une empreinte carbone plus faible d’une dizaine de pour cent, mais ces résultats restent à confirmer.

La prise en compte du stockage de carbone en fonction des types d’agriculture reste un front de recherche, mais qui ne semble pas bouleverser ces résultats jusqu’à présent.

En termes de consommation d’eau, principalement pour l’irrigation, les produits certifiés sont plus sobres, d’environ 30 % par hectare et 15 % par tonne. Pour ce qui est de la pollution de l’eau aux nitrates, l’agriculture biologique emploie de 30 % à 60 % de moins d’azote par hectare. Mais ramenée à la tonne de produit, la différence n’est plus significative. En effet, malgré l’absence d’azote minéral, les fermes biologiques restent consommatrices d’azote organique et ont par ailleurs des rendements inférieurs.

Si l’on s’intéresse à l’impact des systèmes alimentaires sur la biodiversité, la situation est plus complexe encore. Grâce à l’interdiction des pesticides, les surfaces cultivées en agriculture biologique présentent des niveaux d’abondance et de richesse spécifique de 20 % à 50 % supérieure à leurs équivalents conventionnels.

Toutefois, leur impact global sur la biodiversité reste une question complexe.

D’abord du fait des moindres rendements, qui peuvent être à l’origine de déforestation sur place ou à l’étranger. En effet, les forêts feuillues sont le type d’habitat avec le plus de biodiversité, quelle que soit la zone géographique considérée.

Ensuite parce qu’à la différence des autres composantes environnementales, il n’y a pas d’indicateur synthétique et consensuel de la biodiversité, ce qui complique les choses. Une expertise scientifique collective Inrae/Ifrener est en cours pour démêler le sujet.

Et si, avec cette comparaison du score environnemental du conventionnel à celle du bio, on se trompait de débat ? La littérature scientifique montre en effet que l’amélioration des pratiques agricoles n’est finalement qu’un levier de second ordre, après la modification du régime alimentaire. À l’échelle mondiale, 61 % des émissions liées à l’alimentation sont dues aux produits animaux – et le chiffre pourrait atteindre 80 % en Europe.

La réduction du cheptel et de la consommation de protéines animales, qui permettrait de réduire les émissions alimentaires de l’ordre de 30 % à 60 %, est donc la condition nécessaire pour atteindre les objectifs d’atténuation climatique européens et français. Ce qui a des conséquences directes en termes d’affichage environnemental sur les produits alimentaires : l’affichage doit avant tout inciter les consommateurs à éviter les produits animaux les plus émetteurs, plutôt que de distinguer bio et conventionnel qui ont un impact par kilo très proche.

Mais il y a d’autres bonnes raisons de manger bio : un principe de précaution sanitaire vis-à-vis des pesticides, et une meilleure performance économique et sociale. En fin de compte, peut-être est-ce la principale contribution du bio à la préservation de l’environnement : aider les producteurs et les consommateurs à réduire la production et consommation de viande en compensant la baisse des quantités par une augmentation de la qualité des produits, qui satisfera les consommateurs, et une augmentation du prix, qui satisfera les producteurs. Plusieurs études montrent d’ailleurs que les consommateurs de produits biologiques vont dans ce sens, compensant le surcoût unitaire du bio par une sobriété sur le poste alimentaire le plus coûteux : la viande.

Quel système pertinent de publication scientifique

Quel système pertinent de publication scientifique

Le système de publication scientifique est sous tension : l’accès aux publications doit être libre et gratuit, mais publier a un coût. Historiquement, ce coût revenait aux lecteurs. Désormais, il incombe souvent aux auteurs, permettant un accès gratuit aux lecteurs, avec en 2019 31 % de tous les articles scientifiques publiés qui étaient accessibles à tous. La note, souvent réglée avec de l’argent public, peut atteindre plus de 10 000 euros par article. Ce marché juteux, avec des marges bénéficiaires pouvant atteindre 40 %, a conduit nombre de scientifiques à ne plus accepter que des maisons d’édition profitent d’un travail intellectuel qu’elles ne financent et ne rémunèrent pas.

par
François Massol
Directeur de recherche en écologie, Université de Lille dans The Conversation

Simultanément, le système d’évaluation conventionnel des scientifiques, fondé notamment sur le nombre de publications en général et dans des périodiques à haut facteur d’impact (IF, correspondant au nombre moyen annuel de citations des articles d’un périodique parus les deux années précédentes) en particulier, est remis en question depuis la Déclaration sur l’évaluation de la recherche de San Francisco (DORA). DORA est une déclaration collective internationale, initialement élaborée lors d’une réunion annuelle de la Société américaine de biologie cellulaire en 2012, et qui a été progressivement ratifiée par nombre d’universités et d’organismes de recherche, par exemple en France le CNRS et le CEA.

La collision de ces deux changements débouche sur de nouveaux questionnements :

Quels impacts ces transformations ont-elles sur la qualité de la science ?

Des analyses de qualité et sans publicité, chaque jour dans vos mails.
Peut-on raisonner l’usage fait de l’argent public dans la publication académique ?

La transition actuelle du système lecteur-payeur vers le système auteur-payeur s’est accompagnée de l’émergence de maisons d’édition scientifique qualifiées « de prédatrices ». Développant des démarches commerciales agressives, notamment via quantité de numéros spéciaux, leur objectif principal étant de « faire du profit » en imposant des coûts de publication démesurés (article-processing charges ou APC), et non de promouvoir une science de qualité.

En effet, le processus d’évaluation des articles y est souvent médiocre (brefs délais d’évaluation, évaluateurs peu compétents), parfois inexistant, conduisant à une pollution massive de la littérature par des résultats mal, voire pas vérifiés. En 2015, déjà un cinquième de la production scientifique mondiale paraissait dans des maisons d’édition prédatrices.

Un effet secondaire est l’érosion de la confiance des scientifiques dans le processus d’évaluation par les pairs, pourtant robuste et éprouvé depuis plus d’un siècle.

À la racine du problème, un cercle vicieux : les chercheurs sont engagés dans une course frénétique à la publication et les évaluateurs disponibles, non rémunérés pour ce travail d’évaluation et devant eux-mêmes publier, deviennent une ressource limitante.

Quand des périodiques traditionnels s’échinent à dénicher des évaluateurs compétents et disponibles, les prédateurs se contentent d’évaluateurs peu compétents qui, contre des rabais sur des APC futurs, écriront de brefs rapports justifiant d’accepter au plus vite un article. Couper le robinet des évaluateurs et refuser d’y soumettre ses travaux, soit par décision personnelle, soit collectivement, permettrait de contrer l’émergence et le développement de ces maisons d’édition prédatrices.

Mais la volonté d’aller dans ce sens est-elle là ? Reconnaître les travers de ce système prédateur est nécessairement lent, en particulier lorsqu’on y a largement contribué.

Il est difficile de définir le caractère prédateur d’un éditeur et certaines revues vont donc se situer dans une zone grise, à la limite de la prédation. De plus, si l’objectif des revues prédatrices est avant tout le profit, le montant des APC n’est pas une condition suffisante pour qualifier un périodique de prédateur – les APC de revues liées à des sociétés savantes (à but non lucratif) sont parfois élevés, mais tout ou partie de ces APC leur sert à développer leur mission dont l’utilité sociale est avérée.

Couper les ailes de l’édition prédatrice passe aussi par une évaluation différente de l’activité des scientifiques, en s’écartant d’une évaluation actuellement trop quantitative, car largement fondée sur le nombre d’articles et sur l’IF des revues (une métrique mesurant leur audience et non leur qualité).

DORA et l’appel de Paris vont dans ce sens en proposant la fin de l’utilisation de l’IF, mais aussi du nombre de publications, comme métriques centrales de l’évaluation. Ainsi, des institutions françaises, dont le CNRS, INRAE, l’ANR et l’Hcéres, demandent non pas la liste exhaustive des productions, mais une sélection que la personne évaluée souhaite mettre en avant, avec une explication détaillant les qualités, la signification et la portée de cette sélection dans son projet. Ce changement d’évaluation, simple à mettre en œuvre, permet de limiter une course aux publications faciles et coûteuses. Ces initiatives de réforme du système d’évaluation académique fleurissent dans d’autres pays, par exemple aux Pays-Bas et au Canada, ou encore au niveau européen avec la coalition CoARA.

Bien entendu, il est peu probable que les chercheurs évaluateurs des dossiers ou des projets de collègues jettent les indicateurs aux orties, IF ou autres, surtout quand l’évaluation, qui prend un temps considérable lorsqu’elle est menée sérieusement, est si mal valorisée en tant qu’activité dans l’évaluation des chercheurs. Mais combiner évaluation quantitative et qualitative à d’autres critères tels le prix des APC, les profits et leurs usages, la durabilité numérique, la transparence des évaluations ou la reproductibilité des résultats publiés, est souhaitable.

Les comités d’évaluation des chercheurs, par exemple au niveau national le Conseil national des universités et au Comité national de la recherche scientifique, doivent se saisir de ces nouveaux critères, les expliciter et les rendre publics. Il serait aussi souhaitable qu’ils statuent sur les maisons d’édition prédatrices ou semi-prédatrices, ou à la manière de la conférence des Doyens des facultés de médecine, sur les maisons d’édition non prédatrices.

Ils doivent se saisir au plus vite de la question de l’articulation entre modèles de publication et évaluation des chercheurs, pour ne pas se faire devancer par les maisons d’édition susceptibles de proposer elles-mêmes des outils d’évaluation ou de faire changer les règles du jeu.

Dans le contexte actuel de pénurie d’évaluateurs, les périodiques à IF élevé et coûteux jouent sur le prestige supposé d’être évaluateur. Un levier permettant d’attaquer cette situation serait l’assurance que les « lignes de CV » concernant l’évaluation des manuscrits ne soient pas appréciées à l’aune du prestige de périodique coûteux par les comités d’évaluation de l’activité des chercheurs. De cette manière, un scientifique aurait a priori autant intérêt à évaluer pour tout périodique qu’il estime de qualité, et non pas prioritairement pour le peloton de tête de l’IF.

Ainsi, on tarirait l’offre en évaluateurs pour ces périodiques ; ces évaluateurs seraient alors plus disponibles pour des périodiques aussi sérieux, mais moins onéreux. De plus, un processus d’évaluation transparent (c’est-à-dire public) permettrait la valorisation des évaluations, et aux comités de jauger qualitativement l’implication des scientifiques dans ce processus.

Contre la monétarisation de la publication scientifique, il faut séparer l’impératif de l’accès libre et le système de publications en accès libre avec APC obligatoires : les scientifiques doivent rendre leurs publications accessibles, mais sans payer pour cela. L’utilisation de plates-formes de textes non évalués pour rendre accessibles les travaux est une option possible. Cela permettrait de piéger les éditeurs prédateurs au jeu de leur argument de choc (« rendre accessible une publication sans restriction »). Reste alors à imaginer des modèles alternatifs, tel que Peer Community In, proposant un système d’évaluation transparent, exigeant et gratuit à partir d’articles déposés sur des serveurs en accès libre.

Nos actions, via le choix d’un support de publication ou de notre modèle d’évaluation, s’inscrivent dans un contexte politique national et européen parfois contradictoire : certains établissements suggèrent aux chercheurs d’éviter les APC tout en prônant l’accès libre à toutes les publications sortant de leurs laboratoires. D’autres initiatives, comme la création de Open Research Europe par l’Union européenne, révèlent en creux le poids de certains lobbys puisque les projets européens pourront de ce fait publier en accès libre tous leurs résultats dans des périodiques ad hoc et financés par l’UE. L’injonction à une « science ouverte » devrait plutôt encourager à l’utilisation des plates-formes de textes non évalués. Elle ne doit pas être un argument pour justifier la publication dans des revues avec APC, souvent prédatrices. Autrement dit : ne sacrifions pas la qualité sur l’autel de l’accès libre, et les plates-formes de textes non évalués sont là pour ça.

À nous, chercheurs, de retourner le jugement d’Yves Gingras pour démontrer que nous sommes capables d’actions collectives. Avec quelques règles, de la pédagogie et un système de valorisation pluriel de la qualité des périodiques scientifiques, nous pouvons endiguer le phénomène des maisons prédatrices.

_Auteurs associés à cet article : Loïc Bollache (Université de Bourgogne), Denis Bourguet (INRAE), Antoine Branca (Université Paris-Saclay), Christopher Carcaillet (EPHE-PSL), Julie Crabot (Université Clermont-Auvergne), El Aziz Djoudi (Brandenburgische Technische Universität), Elisabeth Gross (Université de Lorraine), Philippe Jarne (CNRS & Université de Montpellier), Béatrice Lauga (Université de Pau et des Pays de l’Adour), Joël Meunier (CNRS & Université de Tours), Jérôme Moreau (Université de Bourgogne), Mathieu Sicard (Université de Montpellier), Julien Varaldi (Université Claude Bernard-Lyon 1) _

Inflation et Finances : quel impact des taux sur les actions

Inflation et Finances : quel impact des taux sur les actions

. Par Karl Eychenne, chercheur chez Oblomov & Bartleby dans la Tribune

Un article intéressant pour expliquer les variations respectives des actions et des obligations. Cependant cette réflexion fait l’impasse sur la dimension structurelle de l’inflation et donc sur l’éventualité d’un haut niveau des taux pendant encore longtemps NDLR


En sport de combat comme en finance, il suffit d’un moment de relâchement, et la contingence des évènements en profite pour vous surprendre. C’est exactement ce qui se produit aujourd’hui sous les yeux de l’investisseur, qui n’ont pas vu venir le repli des actions : -4% pour la zone euro depuis début août. À l’origine de ce trou d’air, des hausses de taux américains rapides et brutales. Cette hausse des taux est-elle justifiée, durable, inquiétante ? Non, non et non.

Mais qu’importe le mal, le stigmate est seul suffisant pour justifier une baisse des actions. Les taux d’intérêt américains montent, et c’est bien le principal motif d’angoisse des marchés d’actions. En effet, ils ne peuvent compter ni sur les bénéfices des entreprises attendus en croissance nulle sur 2023, ni sur la prime de risque exigée par les investisseurs à des niveaux déjà complaisants. Seuls les taux d’intérêt sont susceptibles de faire mal au marché d’actions américain, et c’est ce qu’ils font.

De ce point de vue, le marché euro paraissait moins vulnérable, avec des bénéfices révisés à la hausse pour 2023, et une prime de risque un « chouilla » plus conservatrice. Mais la sympathie inaliénable (sa corrélation historique) du marché euro envers le marché américain a motivé une correction plus importante encore. Le reste des mouvements observés est plutôt cohérent : la hausse des taux américains pèse davantage sur les valeurs de croissance, les valeurs cycliques, le dollar, et donc les marchés émergents.

Y aurait-il donc quelque chose que nous avons raté sur les taux, et donc sur les actions ? Non. Il se trouve juste que cette hausse des taux n’a rien à voir avec les précédentes qui étaient motivées par la perspective de voir la Banque centrale américaine (Fed) monter ses taux encore et encore. Le sens de l’histoire c’est la fin du cycle monétaire restrictif. Mais alors pourquoi les taux américains ont-ils monté, et surtout pourquoi cela ne devrait pas durer ? Trois motifs font consensus.

D’abord, il y a ce chiffre de création d’emploi américain (ADP) pour juillet bien plus fort qu’attendu, et qui présagerait d’un discours de la Fed plus musclé afin de contenir un dérapage des salaires. Bémol : les anticipations des marchés concernant la politique monétaire à venir ont à peine évolué suite à la nouvelle ; en particulier les taux d’intérêt à 2 ans sont restés sages, seuls les taux à 10 ans ont remonté. Autre bémol, ce chiffre d’emploi n’est pas le plus important, celui de vendredi (Payrolls) est beaucoup plus suivi par les marchés, car beaucoup plus fiable. Enfin dernier bémol, ce chiffre d’emploi source ADP est en contradiction avec les indicateurs avancés publiés récemment (ISM, PMI), et dont les composantes emploi témoignent plutôt d’un fléchissement.

Ensuite, il y a la décision de la Banque centrale japonaise (BOJ) d’augmenter sa cible maximale sur les taux d’intérêt à 10 ans de 0,5 à 1%. Elle seule pratique ce genre de politique, mais il faut dire que la BOJ a un rapport très particulier avec son marché obligataire dont l’encours dépasse près de 250% du PIB, la palme de l’endettement parmi les pays développés. À l’origine de cette décision de la BOJ, une accélération suspecte de l’inflation, qui était restée jusqu’alors bien sage durant toute la période d’hystérie connue partout ailleurs (hors Chine). Toutefois, la réaction du marché obligataire japonais ne semble pas à la hauteur de cette nouvelle très symbolique ; les taux à 10 ans japonais ont remonté à « seulement » 0,6%, bien loin de leur nouvelle cible maximale de 1%. Et pour cause, dans le même temps, la BOJ intervenait pour limiter toute exubérance.

Enfin, il y aurait bien cette décision d’une des trois principales agences de notations (Fitch) de dégrader d’un ton la note de la dette publique américaine de « AAA » à « AA+ ». En forçant le trait, cela pourrait être équivalent à baisser la moyenne d’un élève de 20 à 19. Toutefois, on ne plaisante pas avec la Princesse au petit pois de la finance, il se trouve que l’investisseur obligataire manifeste une sensibilité exubérante au moindre changement de température de la dette américaine. On se rappellera de l’épisode de 2011, la notation de la dette américaine fut dégradée pour la première fois de son histoire, également de « AAA » à « AA+ ». Sauf qu’à l’époque une telle nouvelle provoqua non pas une hausse des taux comme aujourd’hui, mais une chute de près de 1% pour cause de fin du monde probable.

Ainsi donc, tout concourt à penser que la hausse des taux d’intérêt en cours n’est qu’un épiphénomène. Et si les taux cessent de monter, les actions cessent de baisser. Tout devrait rentrer dans l’ordre d’ici peu, la semaine prochaine par exemple avec le retour du beau temps… Il n’en faut souvent pas davantage pour que l’investisseur trouve les meilleurs arguments justifiant son opportunisme. Et si l’on cherche davantage de finesse intellectuelle afin de justifier le rebond des actions à venir, alors peut-être se risquera-t-on à invoquer la pensée pascalienne :

Ne pouvant faire que ce qui est rationnel fit monter le marché,
On a fait en sorte que ce qui fait monter le marché fut rationnel.

Société-Violence et police : quel cadre juridique ?

Société-Violence et police : quel cadre juridique ?

Par Vincent Sizaire, Université Paris Nanterre – Université Paris Lumières dans the Conversation

La mort de Nahel M., 17 ans, abattu à Nanterre le mardi 27 juin 2023 par un policier lors d’un contrôle de son véhicule (enquête en cours) a suscité une vive émotion publique et plusieurs incidents dans de nombreuses communes des Hauts-de-Seine. Depuis une petite dizaine d’années, la question des « violences policières » s’est imposée sur le devant de la scène, portée par des collectifs constitués après le décès de certaines personnes à la suite d’une intervention policière – à l’image de l’emblématique « comité Adama » – mais aussi par les affrontements entre manifestants et forces de l’ordre ayant émaillé le mouvement des « gilets jaunes ».

Pourtant, cette présence renouvelée dans le débat public ne se traduit guère par une élévation de son niveau. Singulier paradoxe de notre temps, il semblerait au contraire que plus la discussion est nécessaire, plus elle est ensevelie sous la polémique médiatique. D’un côté, appuyés par les médias de masse et nombre de politiciennes et politiciens, les principaux syndicats de policiers réfutent l’idée même de violences policières, réduisant toute critique de la façon dont est exercée la force publique à l’expression d’une supposée « haine des flics ».

De l’autre, certains discours militants tendent à présenter les brutalités policières comme inhérentes à la fonction, développant une acception essentialiste que résume assez bien le slogan suivant lequel « la police tue » et qui est, lui aussi, repris par certains membres de la classe politicienne.

Symétriques et stéréotypées, de telles prises de position relèvent, au-delà de leur antagonisme de façade, d’un même dogmatisme. L’une comme l’autre témoigne en effet d’une réticence ou, à tout le moins, d’une indifférence à la compréhension du phénomène qui se donne à voir jusque dans l’usage des mots employés. Présenter le seul fait que « la police tue » comme une marque d’infamie est tout aussi ridicule que de feindre de s’émouvoir qu’on puisse le penser. Dans un État de droit, la fonction des forces de police et de gendarmerie est précisément d’exercer, concrètement, ce fameux monopole de la violence légitime théorisé en son temps par Max Weber. Une violence qui peut prendre la forme d’une contrainte essentiellement morale – le fait d’obéir aux injonctions du gendarme – mais peut aussi se traduire par l’infliction de blessures ou, dans les cas les plus extrêmes, de la mort.

D’un point de vue démocratique, la question n’est donc pas de savoir si les forces de l’ordre commettent ou non des violences, mais si le cadre légal dans lequel ces violences sont exercées garantit suffisamment que, sous le contrôle du juge, elles demeurent strictement nécessaires et proportionnées à la mission des autorités de police. Une mission, qui, comme le rappelle l’article 12 de la Déclaration des droits de l’homme et du citoyen, n’a – ou ne devrait – avoir d’autres fins que l’application des lois et, à travers elle, la garantie des droits et libertés des citoyens.

C’est en effet à cette condition – et à cette condition seulement – que la violence d’État pourra être regardée comme légitime.

C’est dans cette perspective qu’il faut soumettre notre système répressif à un examen critique pour apprécier sa capacité à prévenir et sanctionner efficacement ce qu’il faut désigner non comme des « violences policières » mais, bien plus précisément, comme des abus dans l’exercice de la force publique.

Répondre à cette question suppose en premier lieu de vérifier si les cas dans lesquels les services de police et de gendarmerie peuvent faire usage de leurs armes à feu sont définis de façon suffisamment stricte. L’article L.435-1 du code de la sécurité intérieure énonce de façon exhaustive et relativement précise ces hypothèses. À côté de la situation de légitime défense – caractérisée par une riposte immédiate et proportionnée à une menace réelle et imminente pour la vie ou l’intégrité physique d’une personne – les policiers peuvent ouvrir le feu s’il s’agit de l’unique moyen d’assurer la protection des individus ou des bâtiments dont ils ont la garde ou d’arrêter une personne prenant la fuite.

La loi précise en outre que le tir doit, dans tous les cas, être proportionné (par exemple, les policiers ne peuvent viser le conducteur si tirer sur les roues suffit pour immobiliser le véhicule du fuyard).

Reprenant largement les exigences de la Cour européenne des droits de l’homme, ces différentes hypothèses garantissent, a priori, la légitimité de l’exercice de la force.

Tel n’est pas le cas, en revanche, de la dernière hypothèse visée par le code de sécurité intérieure et qui permet aux forces de l’ordre de faire usage de leurs armes pour :

« empêcher la réitération, dans un temps rapproché, d’un ou de plusieurs meurtres ou tentatives de meurtre venant d’être commis, lorsqu’ils ont des raisons réelles et objectives d’estimer que cette réitération est probable ».

Promue en 2016 comme permettant de donner une base légale au tirs effectués à l’encontre des auteurs de crimes terroristes comme le massacre du Bataclan de novembre 2015 – alors même que la légitime défense en l’espèce n’est ni contestée, ni contestable – cette hypothèse est désormais d’application générale alors que le seul cas de figure où elle pourrait légitimement s’appliquer est celle d’un crime de masse comme celui du Bataclan.

Or, dans le temps de l’action, il est strictement impossible pour l’auteur d’un tir de savoir s’il est face à une tentative d’homicide ou de « simples » violences. Il s’ensuit un risque d’usage disproportionné de la force ou, inversement, de mise en cause imprévisible de la responsabilité pénale de policiers ou de gendarmes qui, de bonne foi, auront cru agir dans le cadre de la loi.

Des failles dans la mise en application
Mais c’est avant tout au niveau de la mise en application du cadre légal que notre système présente les failles les plus importantes. Lorsqu’un policier ou gendarme recourt à la force en dehors des hypothèses prévues par la loi ou de façon disproportionnée, il commet alors une infraction pénale, qu’il s’agisse du délit de violences volontaires, passible d’une peine pouvant aller jusqu’à dix ans ou, dans le pire des cas, du crime de meurtre, passible d’une peine de trente ans de réclusion criminelle.

Or la façon dont les enquêtes concernant les crimes et délits commis par les forces de l’ordre sont aujourd’hui menées en France ne garantit pas suffisamment leur impartialité. D’une part, ce sont toujours des policiers ou des gendarmes qui enquêtent sur d’autres policiers ou gendarmes – en principe, les inspections générales de police nationale ou de la gendarmerie nationale. D’autre part, les investigations sont la plupart du temps placées sous la supervision d’une autorité, le procureur de la République, qui ne bénéficie elle-même d’aucune garantie d’indépendance à l’égard du gouvernement et, partant, du ministère de l’Intérieur. Les magistrats du parquet sont en effet placés sous l’autorité directe d’un autre membre du pouvoir exécutif, le ministre de la Justice, seul compétent pour décider de leur nomination ou d’éventuelles sanctions disciplinaires.

En définitive, seules les procédures confiées à un juge d’instruction – magistrat statutairement indépendant – offrent aujourd’hui des garanties suffisantes d’impartialité. C’est la raison pour laquelle de nombreuses personnes demandent que les investigations relatives aux abus dans l’exercice de la force soient confiées à un service d’enquête complètement indépendant, comme ce qui a été mis en place chez certains de nos voisins européens, à l’image de l’Independant Office for Police Conduct britannique.

Inversement, celles et ceux qui militent aujourd’hui pour l’assouplissement du cadre légal existant revendiquent en réalité une pratique policière incompatible avec les exigences de l’État de droit démocratique. En particulier, la « présomption de légitime défense » proposée par le Rassemblement national et la plupart des syndicats policiers reviendrait à empêcher toute poursuite à l’encontre des auteurs de tirs quel que soit leur justification ou leur proportion, leur garantissant ainsi une impunité qui ne s’observe que dans les régimes autoritaires.

Mais pour s’opposer à une telle évolution, il est nécessaire de dépasser la simple condamnation morale des « violences policières » et, plus encore, de se garder de toute assimilation de telles dérives à une entière profession.

Violence et police : quel cadre juridique ?

Violence et police : quel cadre juridique ?

Par Vincent Sizaire, Université Paris Nanterre – Université Paris Lumières dans the Conversation

La mort de Nahel M., 17 ans, abattu à Nanterre le mardi 27 juin 2023 par un policier lors d’un contrôle de son véhicule (enquête en cours) a suscité une vive émotion publique et plusieurs incidents dans de nombreuses communes des Hauts-de-Seine. Depuis une petite dizaine d’années, la question des « violences policières » s’est imposée sur le devant de la scène, portée par des collectifs constitués après le décès de certaines personnes à la suite d’une intervention policière – à l’image de l’emblématique « comité Adama » – mais aussi par les affrontements entre manifestants et forces de l’ordre ayant émaillé le mouvement des « gilets jaunes ».

Pourtant, cette présence renouvelée dans le débat public ne se traduit guère par une élévation de son niveau. Singulier paradoxe de notre temps, il semblerait au contraire que plus la discussion est nécessaire, plus elle est ensevelie sous la polémique médiatique. D’un côté, appuyés par les médias de masse et nombre de politiciennes et politiciens, les principaux syndicats de policiers réfutent l’idée même de violences policières, réduisant toute critique de la façon dont est exercée la force publique à l’expression d’une supposée « haine des flics ».

De l’autre, certains discours militants tendent à présenter les brutalités policières comme inhérentes à la fonction, développant une acception essentialiste que résume assez bien le slogan suivant lequel « la police tue » et qui est, lui aussi, repris par certains membres de la classe politicienne.

Symétriques et stéréotypées, de telles prises de position relèvent, au-delà de leur antagonisme de façade, d’un même dogmatisme. L’une comme l’autre témoigne en effet d’une réticence ou, à tout le moins, d’une indifférence à la compréhension du phénomène qui se donne à voir jusque dans l’usage des mots employés. Présenter le seul fait que « la police tue » comme une marque d’infamie est tout aussi ridicule que de feindre de s’émouvoir qu’on puisse le penser. Dans un État de droit, la fonction des forces de police et de gendarmerie est précisément d’exercer, concrètement, ce fameux monopole de la violence légitime théorisé en son temps par Max Weber. Une violence qui peut prendre la forme d’une contrainte essentiellement morale – le fait d’obéir aux injonctions du gendarme – mais peut aussi se traduire par l’infliction de blessures ou, dans les cas les plus extrêmes, de la mort.

D’un point de vue démocratique, la question n’est donc pas de savoir si les forces de l’ordre commettent ou non des violences, mais si le cadre légal dans lequel ces violences sont exercées garantit suffisamment que, sous le contrôle du juge, elles demeurent strictement nécessaires et proportionnées à la mission des autorités de police. Une mission, qui, comme le rappelle l’article 12 de la Déclaration des droits de l’homme et du citoyen, n’a – ou ne devrait – avoir d’autres fins que l’application des lois et, à travers elle, la garantie des droits et libertés des citoyens.

C’est en effet à cette condition – et à cette condition seulement – que la violence d’État pourra être regardée comme légitime.

C’est dans cette perspective qu’il faut soumettre notre système répressif à un examen critique pour apprécier sa capacité à prévenir et sanctionner efficacement ce qu’il faut désigner non comme des « violences policières » mais, bien plus précisément, comme des abus dans l’exercice de la force publique.

Répondre à cette question suppose en premier lieu de vérifier si les cas dans lesquels les services de police et de gendarmerie peuvent faire usage de leurs armes à feu sont définis de façon suffisamment stricte. L’article L.435-1 du code de la sécurité intérieure énonce de façon exhaustive et relativement précise ces hypothèses. À côté de la situation de légitime défense – caractérisée par une riposte immédiate et proportionnée à une menace réelle et imminente pour la vie ou l’intégrité physique d’une personne – les policiers peuvent ouvrir le feu s’il s’agit de l’unique moyen d’assurer la protection des individus ou des bâtiments dont ils ont la garde ou d’arrêter une personne prenant la fuite.

La loi précise en outre que le tir doit, dans tous les cas, être proportionné (par exemple, les policiers ne peuvent viser le conducteur si tirer sur les roues suffit pour immobiliser le véhicule du fuyard).

Reprenant largement les exigences de la Cour européenne des droits de l’homme, ces différentes hypothèses garantissent, a priori, la légitimité de l’exercice de la force.

Tel n’est pas le cas, en revanche, de la dernière hypothèse visée par le code de sécurité intérieure et qui permet aux forces de l’ordre de faire usage de leurs armes pour :

« empêcher la réitération, dans un temps rapproché, d’un ou de plusieurs meurtres ou tentatives de meurtre venant d’être commis, lorsqu’ils ont des raisons réelles et objectives d’estimer que cette réitération est probable ».

Promue en 2016 comme permettant de donner une base légale au tirs effectués à l’encontre des auteurs de crimes terroristes comme le massacre du Bataclan de novembre 2015 – alors même que la légitime défense en l’espèce n’est ni contestée, ni contestable – cette hypothèse est désormais d’application générale alors que le seul cas de figure où elle pourrait légitimement s’appliquer est celle d’un crime de masse comme celui du Bataclan.

Or, dans le temps de l’action, il est strictement impossible pour l’auteur d’un tir de savoir s’il est face à une tentative d’homicide ou de « simples » violences. Il s’ensuit un risque d’usage disproportionné de la force ou, inversement, de mise en cause imprévisible de la responsabilité pénale de policiers ou de gendarmes qui, de bonne foi, auront cru agir dans le cadre de la loi.

Des failles dans la mise en application
Mais c’est avant tout au niveau de la mise en application du cadre légal que notre système présente les failles les plus importantes. Lorsqu’un policier ou gendarme recourt à la force en dehors des hypothèses prévues par la loi ou de façon disproportionnée, il commet alors une infraction pénale, qu’il s’agisse du délit de violences volontaires, passible d’une peine pouvant aller jusqu’à dix ans ou, dans le pire des cas, du crime de meurtre, passible d’une peine de trente ans de réclusion criminelle.

Or la façon dont les enquêtes concernant les crimes et délits commis par les forces de l’ordre sont aujourd’hui menées en France ne garantit pas suffisamment leur impartialité. D’une part, ce sont toujours des policiers ou des gendarmes qui enquêtent sur d’autres policiers ou gendarmes – en principe, les inspections générales de police nationale ou de la gendarmerie nationale. D’autre part, les investigations sont la plupart du temps placées sous la supervision d’une autorité, le procureur de la République, qui ne bénéficie elle-même d’aucune garantie d’indépendance à l’égard du gouvernement et, partant, du ministère de l’Intérieur. Les magistrats du parquet sont en effet placés sous l’autorité directe d’un autre membre du pouvoir exécutif, le ministre de la Justice, seul compétent pour décider de leur nomination ou d’éventuelles sanctions disciplinaires.

En définitive, seules les procédures confiées à un juge d’instruction – magistrat statutairement indépendant – offrent aujourd’hui des garanties suffisantes d’impartialité. C’est la raison pour laquelle de nombreuses personnes demandent que les investigations relatives aux abus dans l’exercice de la force soient confiées à un service d’enquête complètement indépendant, comme ce qui a été mis en place chez certains de nos voisins européens, à l’image de l’Independant Office for Police Conduct britannique.

Inversement, celles et ceux qui militent aujourd’hui pour l’assouplissement du cadre légal existant revendiquent en réalité une pratique policière incompatible avec les exigences de l’État de droit démocratique. En particulier, la « présomption de légitime défense » proposée par le Rassemblement national et la plupart des syndicats policiers reviendrait à empêcher toute poursuite à l’encontre des auteurs de tirs quel que soit leur justification ou leur proportion, leur garantissant ainsi une impunité qui ne s’observe que dans les régimes autoritaires.

Mais pour s’opposer à une telle évolution, il est nécessaire de dépasser la simple condamnation morale des « violences policières » et, plus encore, de se garder de toute assimilation de telles dérives à une entière profession.

Quel impact des feux de forêt canadiens en Europe ?

Quel impact des feux de forêt canadiens en Europe ?

La fumée de plus d’une centaine de feux de forêt au Canada s’est répandue jusque dans les villes nord-américaines, pourtant situées loin des foyers. Le 7 juin 2023, New York et Detroit ont ainsi été classées parmi les cinq villes les plus polluées du monde à cause de ces lointains incendies. La fumée de ces mégafeux traverse maintenant l’Atlantique vers l’Europe – avec un pic attendu en France mercredi ou jeudi.

Chris Migliaccio, toxicologue à l’université du Montana, étudie l’impact de la fumée des incendies de forêt sur la santé humaine. Quels sont les risques auxquels on peut être confrontés, même à des centaines de kilomètres de distance ? dans The Conversation

Lorsque nous parlons de la qualité de l’air, nous parlons souvent des « PM2,5 ». Il s’agit de particules en suspension dans l’air d’un diamètre de 2,5 microns ou moins, suffisamment petites pour pénétrer profondément dans les poumons.

L’exposition aux PM2,5 provenant de la fumée, ou d’autres pollutions atmosphériques telles que les émissions des véhicules, peut exacerber des problèmes de santé tels que l’asthme et réduire la fonction pulmonaire. Ce qui peut aggraver les problèmes respiratoires existants de même que certaines maladies cardiaques.

Mais le terme PM2,5 ne renseigne que sur la taille : pas sur la composition – ce qui brûle dans l’incendie qui les libère peut faire une différence significative dans la chimie.

Dans le nord des Rocheuses, la plupart des incendies sont alimentés par la végétation, mais toutes les végétations ne sont pas identiques.

De plus, si l’incendie se situe dans les zones périurbaines, à la jonction entre ville et nature, les combustibles manufacturés provenant des habitations et des véhicules peuvent également brûler, ce qui va créer une autre chimie toxique. On peut mentionner les composés organiques volatils (COV), le monoxyde de carbone (CO) et les hydrocarbures aromatiques polycycliques (HAP) produits lors de la combustion qui sont susceptibles de nuire à la santé humaine.

Si vous avez déjà été près d’un feu de camp et que vous avez reçu un panache de fumée au visage, vous avez probablement ressenti une certaine gêne… L’exposition à la fumée des feux de forêt entraîne en effet une irritation du nez et de la gorge, voire une inflammation locale. Si vous êtes en bonne santé, votre corps sera bien sûr largement capable de le supporter.

Comme pour beaucoup de choses, c’est la dose qui fait le poison – presque tout peut être nocif à une certaine dose…

En général, les cellules immunitaires situées dans nos poumons, les macrophages, y ramassent les particules étrangères et les éliminent – jusqu’à une certaine dose, donc. C’est lorsque le système est débordé qu’il peut y avoir un problème.

Illustration d’une petite section de poumons montrant les alvéoles et, à l’intérieur des alvéoles, des macrophages
C’est au niveau des alvéoles pulmonaires que se font les échanges gazeux de la respiration. S’y trouvent également des cellules du système immunitaire : des macrophages. P. Brieux, Anatomy and Physiology, CC BY-SA
L’une des préoccupations est que la fumée peut neutraliser l’action des macrophages, ou tout du moins la modifier suffisamment pour que vous deveniez plus sensible aux infections respiratoires.

Une étude sur le temps de latence dans l’effet de l’exposition à la fumée des feux de forêt a montré une augmentation des cas de grippe après une mauvaise saison d’incendies. D’autres, menées dans les pays en développement, ont de la même façon révélé une augmentation des infections respiratoires chez les personnes qui cuisinent sur des feux ouverts dans les maisons.

Le stress d’une réaction inflammatoire peut également exacerber des problèmes de santé existants. Le fait d’être exposé à la fumée de bois ne provoquera pas en soi une crise cardiaque… mais si une personne présente des facteurs de prédisposition sous-jacents, tels qu’une accumulation importante de plaques d’athérome en cas de cholestérol, le stress supplémentaire peut augmenter le risque.

Les chercheurs étudient aussi les effets potentiels sur le cerveau et le système nerveux des particules inhalées.

Lorsque la fumée se propage sur de longues distances, sa toxicité change-t-elle ?
Nous savons que la chimie de la fumée des incendies de forêt change. Plus elle reste longtemps dans l’atmosphère, plus elle sera altérée par la lumière ultraviolette. Nous avons encore toutefois beaucoup à apprendre sur le sujet.

Les chercheurs ont tout de même constaté qu’il semble y avoir un niveau d’oxydation plus élevé : plus la fumée reste longtemps dans l’air, plus des oxydants et des radicaux libres sont générés. Si les effets spécifiques sur la santé ne sont pas encore clairs, il semble qu’une plus grande exposition entraîne des effets plus importants.

L’hypothèse est que plus la fumée est exposée aux rayons UV, plus il y a de radicaux libres formés, et plus le risque d’effets nocifs est élevé. Là encore, il s’agit en grande partie d’une question de dose.

Denver a été classée parmi les villes les plus polluées au monde le 19 mai 2023, en grande partie à cause de la fumée des incendies de forêt en provenance de l’Alberta, au Canada. Colorado Air Pollution Control Division
Si vous êtes en bonne santé, il est plus que probable qu’une promenade à vélo ou une randonnée dans une fumée légère ne soit pas un problème pour vous : votre corps sera parfaitement capable de récupérer.

En revanche… si vous faites cela tous les jours pendant un mois dans la fumée d’un incendie, cela soulève d’autres questions.

J’ai ainsi participé à des études avec des habitants de Seeley Lake, dans le Montana, qui ont été exposés à des niveaux dangereux de PM2,5 provenant de la fumée des incendies de forêt pendant 49 jours en 2017. Un an plus tard, nous constations toujours une diminution de leur fonction pulmonaire. Personne n’a dû être placé sous oxygène, mais il y avait une baisse significative.

Il s’agit d’un domaine de recherche relativement nouveau, et nous avons encore beaucoup à apprendre, en particulier avec l’augmentation de l’activité des feux de forêt à mesure que la planète se réchauffe.

S’il y a de la fumée dans l’air, la seule chose à faire est d’essayer de réduire votre exposition.

Peut-on éviter la fumée ? Non, à moins d’être dans une maison hermétiquement fermée ou que vous disposiez d’un très bon système de chauffage, ventilation et climatisation, disposant par exemple de filtres MERV 15 ou supérieurs.

Les niveaux de particules ne sont en effet généralement pas très différents à l’intérieur et à l’extérieur. Mais le fait d’être à l’intérieur diminue votre activité : votre rythme respiratoire est donc plus lent et la quantité de fumée que vous inhalez est probablement plus faible.

Au Canada et au nord des États-Unis, le grand public a ressorti les masques pour se protéger des fumées. lev radin/Shutterstock
Nous avons également tendance à conseiller aux personnes potentiellement plus vulnérables, comme les asthmatiques, de créer un espace sûr à la maison et au bureau avec un système de filtration d’air autonome de haut niveau pour créer un espace où l’air est plus pur.

Certains masques peuvent aider. Un masque FFP2 (bien connu depuis le Covid) ne fait pas de mal par exemple. Par contre, un simple masque en tissu ne sera pas d’une grande utilité.

La plupart des États, dont la France, disposent de moniteurs de qualité de l’air qui peuvent vous donner une idée de la qualité de l’air, alors vérifiez ces sites et agissez en conséquence.

Quel avenir pour le syndicalisme ?

Quel avenir pour le syndicalisme ?

Par
Dominique Andolfatto
Professeur des universités en science politique, Université de Bourgogne – UBFC dans The Conversation

Le 15 juin, l’intersyndicale – qui a animé les mobilisations contre la réforme des retraites – s’est résolue à tourner la page de ce mouvement. Le 21 juin Marylise Léon succédera à Laurent Berger à la tête de la CFDT. Ce dernier vient de publier un livre sur ces événements, son rôle et, plus largement, les tensions que connaît le monde du travail. Cela ouvre une nouvelle période pour l’action syndicale. Quel bilan tirer de cette longue séquence qui a polarisé l’actualité sociale – voire politique – en France depuis plusieurs mois et comment envisager l’avenir de l’action collective ?

En 2019, une étude européenne – passée inaperçue en France – s’interrogeait sur le devenir du syndicalisme et, compte tenu des mutations à l’œuvre depuis un demi-siècle, traçait quatre scénarios d’évolution :

l’extinction du syndicalisme (liée à une désaffection sociale progressive et massive) ;

le repli (l’action collective ne serait plus que le fait d’« insiders » – bien intégrés dans des emplois correctement rémunérés – ou détriment des « outsiders », confrontés à de nouvelle formes d’emploi, non régulées et précaires) ;

le remplacement (soit l’émergence de nouvelles formes d’expression collective, portées par les pouvoirs publics, les employeurs ou issues du terrain) ;

la reconquête (tirant les leçons de leur déclin, les syndicats seraient capables de renouvellement afin de retrouver toute leur place dans le monde du travail et la société démocratique).

Après le semestre « chaud » que la France vient de connaître autour de la réforme des retraites, quel scénario se dessinerait concernant le syndicalisme dans l’hexagone ?

L’image des syndicats se serait redressée. C’est ce que montre, en particulier, un sondage Elabe, pour l’Institut Montaigne, publié le 6 avril 2023. Une majorité de Français (52 %) les perçoivent comme « un élément de dialogue de la société française », chiffre en progression de 12 points par rapport à une enquête comparable en 2020. Inversement, ils sont moins vus comme « un élément de blocage » de cette même société (46 %, pourcentage en recul de 13 points). Bref, le syndicat serait davantage perçu comme « modérateur » dans la société, un « médiateur » et, à l’encontre d’idées reçues, moins comme un vecteur par définition de contestation. Cela étant, le « baromètre de la confiance politique » (Sciences Po-Cevipof) ne traduit pas de remontée sensible de l’image des syndicats. Certes la dernière mesure de ce baromètre est intervenue début février 2023 (soit au début du mouvement social).

Mais deux journées de manifestations, rassemblant plus d’un million de personnes chacune (selon les chiffres du ministère du travail), était déjà intervenues. D’après ce même baromètre, la confiance des Français dans les syndicats est surtout remontée entre 2020 et 2022, passant alors de 27 % à 38 % avant de refluer légèrement (36 %) en 2023.

Plusieurs syndicats ont souligné aussi que le mouvement social du premier semestre 2023 avait relancé la syndicalisation, la CGT déclarant avoir gagné 30 000 adhérents les trois premiers mois de 2023 et la CFDT affichant un gain « exceptionnel » de 43 000 adhérents en cinq mois. Pour prendre la mesure de ces gains, il faut les rapporter aux effectifs officiels des deux organisations : environ 600 000 adhérents. La CGT et la CFDT aurait donc vu s’accroître leurs effectifs de quelque 5 à 7 % en quelques mois.

Au total, ces données – nuancées – ne traduisent pas une mutation mais bien d’un infléchissement, donnant raison au scénario d’une reconquête qui serait en marche. Toutefois, il faut rester prudent. Le baromètre du Cevipof indique que le militantisme syndical reste modeste : seuls 7 % des Français estiment que celui-ci peut influencer les décisions.

Le même baromètre révèle aussi un bond en faveur des manifestations et, plus encore, de la grève pour peser sur ces mêmes décisions. Dans cet objectif, la grève est jugée efficace pour 30 % des Français. Cependant, le mouvement social – piloté par l’intersyndicale (composées de 8 organisations syndicales et 5 organisations étudiantes ou lycéennes) – a privilégié la stratégie de la rue à celle de la grève, trouvant là une limite qui explique sans doute l’échec à obtenir le retrait de la réforme des retraites.

Cela mérite certes une étude plus approfondie mais, au contraire du mouvement social de 1995 (face à un précédent projet de réforme des retraites et, plus largement, de la Sécurité sociale), les manifestations de 2023 n’ont été que marginalement conjuguées avec des grèves et celles-ci n’étaient pas le fait de l’intersyndicale.

En outre, au contraire de contextes antérieurs – de nouveau en 1995 ou encore en 2006 (face au projet de « contrat première embauche », qui avaient vu la rue gagner face au pouvoir, celui-ci est resté uni et ferme sur ses positions. Le fait que la cible ait été manqué en 2023 nuance finalement le scénario de reconquête syndicale et on ne peut complètement évacuer des éléments des autres scénarios.

Celui de l’extinction est évidemment excessif mais le taux de syndicalisation en France – 10,3 % des salariés et seulement 7,8 % dans le secteur privé selon la dernière estimation du ministère du Travail – demeure structurellement faible et officiellement en « repli ».

En outre, ce taux apparaît surévalué consécutivement à un changement de mode de calcul. Il est aussi le plus faible des pays européens comparables.

La nouvelle secrétaire générale de la CGT, Sophie Binet, explique d’ailleurs la difficulté de recourir à la grève en raison de cette faiblesse.

Ce qui peut davantage inquiéter encore – malgré le succès des manifestations – c’est le recul de la présence syndicale sur le lieu de travail que montre le dépouillement du big data des dernières élections professionnelles : de 2013 à 2020 (dernière donnée disponible), cette présence par établissement a reculé de 11 % toute organisation confondue. Bien sûr, on peut faire l’hypothèse d’une inversion de cette tendance après le semestre des manifestations anti-retraite. Cependant, le secteur privé s’est montré assez peu présent dans celles-ci. Et une nouvelle mesure de cette présence syndicale par le ministère du Travail n’interviendra pas avant 2025.

Le scénario du remplacement ne peut pas non plus être complètement écarté. À sa manière, et partiellement, le mouvement des « gilets jaunes » l’a incarné et, en décembre dernier, la grève qui a touché les contrôleurs de la SNCF, en dehors des organisations syndicales habituelles, a traduit aussi une critique implicite de ces derniers, sans doute dans des logiques trop bureaucratiques, qui ne leur permettent pas toujours de porter les demandes de groupes qui s’estiment mal intégrés ou lésés.

De nouveaux mouvements sociaux, comme les Soulèvements de la Terre, ont également émergé ces dernières années, alliant lutte écologique et justice sociale.
Bref, l’action à la base, voire la « gilet-jaunisation » demeurent en embuscade. Sans parler de la réforme de la représentation du personnel dans les entreprises – consécutives aux ordonnances Macron de 2017 – qui, sous couvert de simplification, a complexifié en fait les relations professionnelles, exigeant des représentants une montée en expertise – voire en prise de responsabilité – qui les éloigne en fait des salariés sinon dénature leur rôle.

Reste le scénario du repli, celui d’un syndicalisme qui deviendrait d’abord une affaire d’« insiders » et, s’agissant de l’organisation, de « professionnels » du militantisme comme le sont les actuels leaders syndicaux.

Les manifestations, avec une présence relativement faible du secteur privé, les réticences à la grève – pour des raisons complexes, à la fois culturelles et économiques – traduisent bien ce dualisme de l’action syndicale. Le fait également que l’un des dirigeants du mouvement, sinon celui qui lui donnait son visage pour bien des médias et l’opinion, Laurent Berger, ait décidé brutalement d’annoncer sa démission mi-avril n’a pu qu’étonner.

Pourquoi partir alors que le mouvement battait son plein, même si gagner la bataille des retraites s’annonçait difficile ? On découvre alors que les agendas internes aux organisations ont primé sur le mouvement : Laurent Berger a obtenu en 2022 un nouveau mandat à la tête de la CFDT pour pouvoir conserver son mandat de président de la Confédération européenne des syndicats… mais il était programmé qu’il le perdrait en mai 2023, ce qui l’a conduit à annoncer aussi son départ de la CFDT en avril. Bref un double agenda personnel et organisationnel a préempté celui du mouvement social…

Parallèlement, l’intersyndicale a acté « n’avoir pas réussi à faire reculer le gouvernement » sur la réforme des retraites et les organisations syndicales annoncé de nouvelles priorités. Parmi ces dernières, discuter du rapport au travail en pleine mutation après la crise du Covid-19 et ce qui serait une « épidémie » de démissions silencieuses ; le pouvoir d’achat et la revalorisation des salaires ; le partage de la valeur (ou des profits engrangés par certaines entreprises depuis le retour de l’inflation) ; la question de l’environnement que le dernier communiqué de l’intersyndicale ne mentionne encore que trop rapidement alors que c’est un enjeu fondamental pour les années à venir…

Ces priorités seront-elles suffisantes pour susciter l’adhésion de tous, clé du succès comme l’écrivait Upton Sinclair à propos des travailleurs de Chicago, au début du XXe siècle, dans [La jungle](https://fr.wikipedia.org/wiki/La_Jungle_(roman) ?

12345...11



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol