Archive pour le Tag 'évaluer'

Comment évaluer l’impact écologique des aliments ?

Comment évaluer l’impact écologique des aliments ?


Dès le 1er janvier 2024, un score environnemental devrait apparaître sur les produits alimentaires (et textiles), sorte de « Nutriscore » de l’écologie. Or, depuis plusieurs mois, la bataille des méthodologies fait rage. Plusieurs parties prenantes reprochent ainsi à l’Ecoscore, qui devrait inspirer le futur outil gouvernemental, de se borner à procéder à l’analyse du cycle de vie du produit. Ils mettent en avant que l’analyse de cycle de vie rend mal compte de l’impact des produits sur la biodiversité. Les défenseurs du Planet score reprochaient notamment au score environnemental retenu par les autorités, inspiré de l’Ecoscore, de donner de moins bonnes notes aux produits issus de l’agriculture biologique.

par Valentin Bellasen
Directeur de recherche, Inrae
dans The conversation.

Mais les produits issus de l’agriculture biologique impactent-ils moins l’environnement ? J’ai précisément été auditionné sur ce point par le conseil scientifique de l’expérimentation ADEME en 2020, et les conclusions de ma communication sont reprises dans son rapport final. Il s’avère que si l’agriculture biologique mérite d’être subventionnée par les agences de l’eau pour la protection des points de captage, elle ne mérite pas forcément la meilleure note dans le cadre de l’affichage environnemental. Voyons pourquoi.

Le principe de l’évaluation multicritères fait consensus dans le monde scientifique, en particulier dans la démarche de l’analyse de cycle de vie. Il permet de ne pas favoriser un produit qui apporte un bénéfice infime sur un aspect au prix d’une dégradation forte sur un autre aspect. Mais cela ne signifie pas pour autant que tous les critères se valent et qu’un score environnemental puisse se résumer à une moyenne non pondérée des impacts sur différentes composantes.

Le Product Environmental Footprint, la méthode qui fait foi à l’échelle européenne, accorde ainsi le poids le plus fort au changement climatique. C’est à mon avis justifié, pour plusieurs raisons.

D’abord parce que l’enjeu climatique est le plus urgent des enjeux environnementaux. Le temps de retour à l’équilibre de la plupart des composantes de la qualité environnementale (qualité et quantité de l’eau, qualité de l’air, qualité des sols…) est de l’ordre de la décennie ou du siècle. Par comparaison, il est de l’ordre du million d’années pour le climat (irréversibilité).

De plus, le changement climatique est lui-même l’une des causes principales de dégradation de la biodiversité (autre enjeu partiellement irréversible), mais la réciproque est globalement fausse.

Enfin, les impacts d’un changement climatique non contenu seraient encore plus dramatiques que ceux des autres enjeux environnementaux. Pour ne citer qu’un exemple du dernier rapport du GIEC, la bande intertropicale, qui abrite 40 % de la population mondiale, deviendrait largement inhabitable à l’horizon 2080.

Dans le domaine de l’alimentation, l’impact sur le climat est par ailleurs corrélé à la plupart des impacts environnementaux. Notamment pour l’eutrophisation, via l’utilisation d’engrais et les déjections animales, pour les pollutions liées à la production d’énergie, notamment via les combustibles fossiles, ou encore pour les atteintes à la biodiversité via le stockage de carbone des prairies et des forêts. Ainsi, l’amélioration de l’empreinte carbone s’accompagne le plus souvent d’une amélioration de la plupart des autres impacts environnementaux. Concentrons-nous donc pour commencer sur l’empreinte carbone comparée des produits biologiques et conventionnels.

Parmi les différents critères environnementaux à prendre en compte pour la production alimentaire, le critère climatique est celui qui domine.

L’évaluation des impacts environnementaux de l’agriculture est très sensible à l’unité fonctionnelle retenue pour l’analyse. Dans le cas des produits alimentaires certifiés, deux unités fonctionnelles sont souvent discutées : la quantité de produit (par exemple, un litre de lait, une tonne de blé…) ou l’hectare de terre.

Les deux visions ont leurs points forts et leurs limites : d’un point de vue économique, normaliser par la quantité de produit revient à considérer que la demande est totalement inélastique. C’est une bonne approximation pour des produits de base comme le pain ou le riz, mais ça devient discutable pour les consommations « plaisir », notamment la viande. À l’opposé, utiliser l’hectare comme unité fonctionnelle revient à considérer une demande qui diminuera ou augmentera proportionnellement au rendement, ce qui est irréaliste dans la plupart des cas.

Une manière sans doute plus didactique de savoir quelle unité fonctionnelle est pertinente est de s’interroger sur l’objectif de l’utilisateur. Dans le cas de l’affichage environnemental, le consommateur cherche à réduire l’impact de ses achats. Comme il achète des quantités de produits et non des hectares, la quantité de produit est l’unité fonctionnelle la plus pertinente.

La métrique « par hectare » reste toutefois utile dans certains cas et surtout pour certains publics, par exemple pour une collectivité qui chercherait à protéger un captage d’eau potable. Dans ce cas, la collectivité cherche en effet à limiter la pollution par unité de surface qui entoure le captage, et la quantité d’aliments produite par ces surfaces n’est pour elle que très secondaire. Comme l’agriculture biologique pollue moins l’eau par unité de surface (on explique pourquoi un peu plus bas dans ce texte), la collectivité a donc tout intérêt à ce que les exploitations agricoles alentour se convertissent à l’agriculture biologique, et à subventionner une telle transition, comme le font les agences de l’eau.

La recherche sur l’empreinte carbone du bio est foisonnante depuis les années 2010. Plusieurs méta-analyses convergent pour dire qu’il n’y a pas de différence marquée entre bio et conventionnel sur l’empreinte carbone. Si l’absence d’engrais minéraux diminue fortement les émissions des fermes biologiques, cette baisse est compensée par leur moindre productivité, et notamment l’allongement de la durée de vie des animaux pour atteindre un poids donné.

Les productions végétales bio pourraient toutefois tirer leur épingle du jeu avec une empreinte carbone plus faible d’une dizaine de pour cent, mais ces résultats restent à confirmer.

La prise en compte du stockage de carbone en fonction des types d’agriculture reste un front de recherche, mais qui ne semble pas bouleverser ces résultats jusqu’à présent.

En termes de consommation d’eau, principalement pour l’irrigation, les produits certifiés sont plus sobres, d’environ 30 % par hectare et 15 % par tonne. Pour ce qui est de la pollution de l’eau aux nitrates, l’agriculture biologique emploie de 30 % à 60 % de moins d’azote par hectare. Mais ramenée à la tonne de produit, la différence n’est plus significative. En effet, malgré l’absence d’azote minéral, les fermes biologiques restent consommatrices d’azote organique et ont par ailleurs des rendements inférieurs.

Si l’on s’intéresse à l’impact des systèmes alimentaires sur la biodiversité, la situation est plus complexe encore. Grâce à l’interdiction des pesticides, les surfaces cultivées en agriculture biologique présentent des niveaux d’abondance et de richesse spécifique de 20 % à 50 % supérieure à leurs équivalents conventionnels.

Toutefois, leur impact global sur la biodiversité reste une question complexe.

D’abord du fait des moindres rendements, qui peuvent être à l’origine de déforestation sur place ou à l’étranger. En effet, les forêts feuillues sont le type d’habitat avec le plus de biodiversité, quelle que soit la zone géographique considérée.

Ensuite parce qu’à la différence des autres composantes environnementales, il n’y a pas d’indicateur synthétique et consensuel de la biodiversité, ce qui complique les choses. Une expertise scientifique collective Inrae/Ifrener est en cours pour démêler le sujet.

Et si, avec cette comparaison du score environnemental du conventionnel à celle du bio, on se trompait de débat ? La littérature scientifique montre en effet que l’amélioration des pratiques agricoles n’est finalement qu’un levier de second ordre, après la modification du régime alimentaire. À l’échelle mondiale, 61 % des émissions liées à l’alimentation sont dues aux produits animaux – et le chiffre pourrait atteindre 80 % en Europe.

La réduction du cheptel et de la consommation de protéines animales, qui permettrait de réduire les émissions alimentaires de l’ordre de 30 % à 60 %, est donc la condition nécessaire pour atteindre les objectifs d’atténuation climatique européens et français. Ce qui a des conséquences directes en termes d’affichage environnemental sur les produits alimentaires : l’affichage doit avant tout inciter les consommateurs à éviter les produits animaux les plus émetteurs, plutôt que de distinguer bio et conventionnel qui ont un impact par kilo très proche.

Mais il y a d’autres bonnes raisons de manger bio : un principe de précaution sanitaire vis-à-vis des pesticides, et une meilleure performance économique et sociale. En fin de compte, peut-être est-ce la principale contribution du bio à la préservation de l’environnement : aider les producteurs et les consommateurs à réduire la production et consommation de viande en compensant la baisse des quantités par une augmentation de la qualité des produits, qui satisfera les consommateurs, et une augmentation du prix, qui satisfera les producteurs. Plusieurs études montrent d’ailleurs que les consommateurs de produits biologiques vont dans ce sens, compensant le surcoût unitaire du bio par une sobriété sur le poste alimentaire le plus coûteux : la viande.

Gaz: Mieux évaluer le potentiel de la biomasse

Gaz: Mieux évaluer le potentiel de la biomasse

Jules Nyssen, le président du syndicat des énergies renouvelables (SER), plaide pour qu’un travail transparent sur l’évaluation du potentiel d’énergie issue de la biomasse, c’est-à-dire des matières organiques comme le bois ou les résidus agricoles. À noter aussi que le président du syndicat des énergies renouvelables mais la pédale douce sur les éoliennes de plus en plus contestées. (dans la Tribune)

L’étude au Parlement de la première loi de programmation sur l’énergie et le climat (LPEC), qui était initialement prévue à l’été, puis à l’automne, pourrait une nouvelle fois être décalée en janvier 2024. Ce glissement de calendrier vous inquiète-t-il ?

JULES NYSSEN. Depuis la rentrée, une petite musique tourne sur le fait qu’il n’y aurait pas de place dans l’agenda parlementaire d’ici à la fin de l’année. S’y ajoute une discussion plus politique sur la capacité du gouvernement à trouver une majorité pour faire voter le texte. Nous avons trois craintes par rapport à cela : d’une part que les ambitions de la loi soient revues à la baisse, d’autre part que la loi soit décalée trop loin dans l’agenda et, enfin, qu’elle soit carrément supprimée ou vidée de sa substance.

Nous estimons, que le volet production, au moins, doit faire l’objet d’une programmation législative, car il s’agit de choix qui engagent la structuration de notre système de production énergétique pour des décennies, bien au-delà de l’échéance 2030-2035. Par ailleurs, ce sont des sujets sur lesquels de gros investissements en capital doivent être mobilisés, ce qui nécessite de la visibilité dans la durée. Enfin, il faut que les industriels qui développent des projets de gigafactories [notamment de panneaux photovoltaïques, ndlr] aient, eux aussi, de la visibilité et qu’ils puissent mesurer l’ambition que se donne la France.

Davantage d’éléments de cette programmation pourraient passer par voie réglementaire…

On dit qu’une loi se fait et se défait, mais un règlement est encore plus facile à défaire ! Par ailleurs, il est important d’engager le Parlement sur ces sujets. Avec une version réglementaire, on restera dans un régime d’instabilité. Une loi a d’autant plus de sens que nous avons besoin d’adhésion dans un pays où développer des énergies renouvelables n’est pas facile sur le plan de l’acceptabilité. Si les outils de programmation étaient pris par voie réglementaire, ce sera facile de dire ensuite qu’ils ne reposent pas sur un consensus.

Concrètement, qu’attendez-vous du texte en termes de contenu ?

D’abord, la planification écologique doit se décliner à travers deux dimensions : la partie production, et la partie consommation. Pour l’instant, j’ai l’impression que les débats les plus attendus portent sur la consommation, car celle-ci renvoie à la question de l’accompagnement social, c’est-à-dire aux mesures qui devront permettre à chacun de supporter le coût individuel de cette transition.

Même si je ne sous-estime pas l’importance et la complexité de ce volet, j’espère qu’il n’effacera pas l’attention que nous devons aussi porter à la partie production, avec des objectifs concrets en termes de décarbonation de notre mix énergétique. C’est nécessaire, car 60% de nos besoins énergétiques reposent encore sur les combustibles fossiles ! L’enjeu, c’est donc de s’en débarrasser absolument.

Pour les nouvelles chaudières à gaz, le gouvernement a évoqué l’interdiction dès 2026 avant de faire marche arrière ?

Je ne dis pas qu’il faut le sauver à tout prix, mais je dis juste que, avant de prendre des décisions radicales, on a besoin de faire cette évaluation. Autrement dit, ne sacrifions pas le réseau de gaz avant d’évaluer le potentiel de biomasse. Il y a un sujet autour du gaz renouvelable [le biométhane issu de la fermentation de matières organiques, comme les résidus de culture ou les effluents, ndlr] à injecter dans les réseaux. Je crois que le gouvernement n’en fait pas mystère : son souhait, c’est d’accélérer le remplacement des chaudières au gaz, en faisant semblant que celles-ci ne fonctionnent qu’au gaz fossile. Ce qui le conduit sans doute à essayer de modérer les ardeurs de production de biométhane injectée dans les réseaux.

Mieux évaluer l’accessibilité aux soins

Mieux évaluer l’accessibilité aux soins


Les initiatives locales ou nationales destinées à l’améliorer sont nombreuses. Encore très récemment, une proposition de loi contre les déserts médicaux déposée à l’Assemblée nationale suggérait par exemple de contraindre l’installation des médecins dans des territoires sous dotés : cette dernière serait soumise, pour les médecins et les chirurgiens-dentistes, à une autorisation délivrée par les Agences régionales de santé (ARS). L’accessibilité aux soins est, de manière générale, évaluée par l’adéquation spatiale entre l’offre et la demande de soins. Mais si, pour mesurer cette adéquation, l’offre de soins dans les territoires est relativement bien connue (notamment grâce à une bonne connaissance de la densité de médecins généralistes ou spécialistes et des temps d’accès des patients à ces praticiens), la demande de soins est souvent simplement estimée d’après le nombre potentiel de patients d’un territoire et leur âge. Or ces deux données préjugent assez peu de leurs besoins effectifs de soins ou de leurs contraintes de déplacement (logistiques, familiales, professionnelles…). Dès lors, dans des territoires qualifiés de « sous dotés », l’accès aux soins est très variable : il n’est pas systématiquement difficile… tout comme dans des territoires suffisamment dotés, il n’est pas automatiquement plus aisé.

Il convient donc de dépasser une lecture simplificatrice liant uniquement densité des ressources médicales et accessibilité.

par Laurent Mériade
Professeur des Universités en sciences de gestion – Titulaire de la chaire de recherche « santé et territoires » – IAE, Université Clermont Auvergne (UCA)

Corinne Rochette
Professeure des universités en management public et de la santé HDR, Titulaire de la chaire de recherche Santé et territoires, IAE- Université Clermont Auvergne, Université Clermont Auvergne (UCA)

Éric Langlois
Ingénieur d’études en géomatique, docteur en géographie, UMR Territoires, Université Clermont Auvergne, Université Clermont Auvergne (UCA)

Milhan Chaze
Ingénieur de recherche en géographie dans the Conversation

Pour rendre compte des difficultés réelles d’accès aux soins, une lecture véritablement centrée sur le patient est préférable. C’est ce que permet l’étude du parcours de soins, qui renvoie aux soins (soins hospitaliers et de ville) et aux services de santé connexes (pharmacie, radiologie, laboratoire) nécessaires à la prise en charge d’une pathologie. Il a l’avantage de fournir une description détaillée des besoins en soins, de questionner leur articulation et d’inclure la dimension spatiale indissociable de la notion de parcours.

L’Accessibilité potentielle localisée (APL), un indicateur incontournable

Les principales mesures des difficultés d’accès aux soins utilisées en France reposent essentiellement sur des indicateurs de densité médicale et de temps d’accès au professionnel de santé le plus proche.

Ces mesures ont l’avantage de fournir une information synthétique et claire. Cependant, elle présente des limites importantes : les données de densité fournissent un chiffre global, pour le territoire dans son ensemble, mais elles ne restituent pas la variabilité de l’accès aux soins sur ce territoire. En effet, le fait qu’un patient se trouve à moins de 10 minutes d’un médecin généraliste ne préjuge pas de sa capacité et possibilité réelle à accéder à cette ressource médicale.

Pour dépasser ces limites, la DREES (Direction de la recherche, des études, de l’évaluation et des statistiques) et l’IRDES (Institut de recherche et documentation en économie de la santé) ont développé l’indicateur d’accessibilité aux soins : l’accessibilité potentielle localisée (APL).

Cet indicateur prend en considération la disponibilité des médecins généralistes libéraux sur un « bassin de vie », défini par l’Insee comme le plus petit territoire au sein duquel les habitants ont accès aux équipements et services les plus courants. La France métropolitaine est ainsi constituée de 2 739 bassins de vie comprenant chacun en moyenne 23 300 habitants.

L’APL intègre une estimation de l’activité des médecins ainsi que des besoins en matière de santé définis notamment en fonction de l’âge de la population locale. Il est donc plus précis que les indicateurs de densité médicale ou de temps d’accès au médecin le plus proche. L’APL est exprimée en nombre d’ETP (équivalents temps plein) de médecins présents sur un bassin de vie, et peut être convertie en un temps moyen d’accès à ces médecins (exprimé en minutes).

L’APL a été au départ principalement calculée pour les médecins généralistes libéraux, elle est maintenant également déterminée pour chacun des autres professionnels de santé de premier recours : infirmiers, masseurs-kinésithérapeutes, chirurgiens-dentistes, gynécologues, ophtalmologues, pédiatres, psychiatres et sages-femmes.

Les « déserts médicaux » constituent sans doute l’expression la plus visible, dans le débat public, des différents modes de calcul de l’APL. L’APL permet en effet de calculer, pour chaque bassin de vie, un nombre moyen de consultations annuelles accessibles (potentielles) pour chaque habitant en tenant compte notamment du nombre d’ETP de médecins présents sur le bassin de vie, du temps moyen d’accès et du recours moyen au service de ces médecins par les patients.

Pour qu’un bassin de vie soit qualifié de désert médical (ou « territoire sous dense » en offre de santé), la DREES retient un seuil minimum de 2,5 consultations accessibles par an et par habitant.

Selon une estimation récente de la DREES, 9 % de la population française réside dans des territoires « sous denses », soit environ 6 millions de personnes. Mais il existe des disparités importantes selon les régions : 29 % de la population de la Guyane ou 25 % de celle de la Martinique vivent dans un désert médical, 16 % des habitants du Val-de-Loire, 15 % de la population corse contre seulement 4 % des habitants de Hauts-de-France et 3 % de ceux de la Provence-Alpes-Côte d’Azur.

Mesurer l’accessibilité aux soins à partir des ETP de professionnels de santé ou du temps d’accès à ces professionnels renseigne de manière assez exhaustive sur l’offre de soins présente sur un bassin de vie. En revanche, cela nous informe assez peu sur la demande de soins qui, elle, dépend des besoins réels des patients.

Dans deux articles récents, nous démontrons qu’aux côtés du calcul de l’APL, l’analyse fine des parcours de soins des patients contribue à mieux appréhender la demande réelle de soins. Nos travaux nuancent alors le découpage assez binaire de la carte de France en territoires « sous denses » d’un côté et « suffisamment denses » de l’autre.

L’analyse des parcours de soins : la clef pour accéder aux difficultés réelles des patients
Dans un premier article de recherche, nous avons identifié le rôle du parcours de soins en montrant en quoi il peut être révélateur de l’accentuation ou de la réduction des difficultés d’accès aux soins en proposant une lecture territorialisée de ce parcours et une première catégorisation des situations.

Les principales caractéristiques de ce parcours (types de soins, localisation des professionnels de santé, nombre de déplacements à effectuer, modes de déplacements accessibles) nous renseignent sur des contraintes complémentaires d’accessibilité aux soins auxquelles sont confrontés les patients.

Dans un deuxième article de recherche, à partir d’une méthodologie de cartographie géographique, nous avons croisé les données mobilisées pour le calcul de l’APL (densité médicale, activité des médecins et temps d’accès à ces professionnels) avec les données relatives aux parcours de soins d’une cohorte de 1800 patientes prises en charge pour un cancer du sein dans un établissement spécialisé de l’ex-région Auvergne.

Cette approche dynamise et enrichit l’analyse de l’accessibilité aux soins en démontrant notamment que les difficultés d’accès ne sont pas systématiquement concentrées dans des déserts médicaux plutôt situés en zones excentrées ou rurales.

Elle permet d’identifier quatre principales catégories de parcours de soins, pouvant apparaître dans des territoires « sous denses » en offre de santé comme dans des bassins de vie suffisamment « denses » :

Les parcours de soins aisés : dans les aires urbaines des grandes agglomérations et des petites villes proches, marquées par un accès aisé à l’ensemble des services de soins (classe 2).

L’accessibilité aux hôpitaux : dans les aires urbaines des villes moyennes qui abritent un centre hospitalier pouvant prendre ponctuellement le relais de l’établissement spécialisé de la région (classe 1).

L’accessibilité aux professionnels de santé : dans les territoires ruraux où la distance et/ou la fréquence des déplacements rendent malaisée l’accessibilité aux services hospitaliers, mais où l’accès aux services de proximité est bon (classe 3).

Les parcours éloignés : dans les territoires ruraux ou périurbains où, selon les cas, la distance, la fréquence des déplacements ou la faiblesse des moyens de déplacement peuvent rendre malaisée l’accessibilité à l’ensemble des services de soins (classe 4).

Quelles perspectives pour l’amélioration de la prise en charge ?

En intégrant les difficultés vécues par les patients, le croisement de données spatiales sur l’offre de soins avec celles provenant du parcours de soins permet une lecture plus dynamique de leur accès effectif aux soins.

Il en résulte une modification de la réalité de terrain au sein des territoires. Ainsi, dans l’exemple auvergnat étudié, l’accessibilité aux services de soins dans les Combrailles ou le Livradois peut être malaisée malgré la relative proximité de Clermont-Ferrand.

Cela pousse à nuancer l’efficacité de certaines solutions mises en œuvre pour réduire ces difficultés : aides financières ou contraintes à l’installation de médecins, exercice en maisons de santé, contrats de praticien territorial de médecine générale, télémédecine, téléconsultation… Ces solutions devraient intégrer une lecture du parcours du patient.

En effet, d’une part, les quatre catégories de parcours de soins identifiés dans notre étude montrent combien l’accessibilité peut être diffuse dans les territoires qu’ils soient « denses » ou « sous denses », et combien celle-ci est dépendante de caractéristiques médicales et socio-économiques des patients.

Cette constatation renforce l’idée que les territoires de santé ne peuvent pas être appréhendés d’une manière principalement comptable, trop abstraite. Il est nécessaire de les aborder comme des espaces vécus où besoins et offre de soins s’agencent à partir des caractéristiques du territoire et de sa patientèle.

D’autre part, ces résultats suggèrent d’associer aux nombreuses mesures politiques ou managériales appliquées la gestion des parcours de soins. Ce qui est déjà réalisé, de manière très étendue, dans de nombreux pays développés. Ce sont par exemple le cas avec les infirmières pivots au Canada ou les case managers – gestionnaires de cas – aux États-Unis, en Suisse ou encore au Royaume-Uni.

Pour cela, en France, il y a probablement à penser la place que peuvent occuper certains professionnels de santé, situés au plus près de ces parcours, tels que les infirmier·e·s en pratiques avancées exerçant en maisons de santé, hôpitaux ou établissements médico-sociaux.

Pour mieux évaluer les politiques , il faut des progrès méthodologiques (Jean Pisani-Ferry)

Pour mieux évaluer les politiques , il faut des progrès méthodologiques (Jean Pisani-Ferry)

Professeur d’économie à Sciences Po (Paris), à Institut Bruegel, (Bruxelles) et au Peterson Institute for International Economics (Washington)

Les tentatives de remplacer le sacro-saint PIB par d’autres indicateurs prenant en compte les impacts environnementaux se heurtent à une difficulté d’efficacité comptable, regrette l’économiste dans sa chronique au Monde .

« La marée qui monte soulève tous les bateaux. » Pendant des décennies, cette phrase de John Fitzgerald Kennedy a exprimé le consensus autour de la croissance économique. Dans la France de l’après-guerre, syndicats et patronat s’écharpaient sur tout, sauf sur l’impérieuse nécessité de faire grossir le gâteau.

C’est dans les années 1970, avec le rapport du Club de Rome (1972), titré « Les limites à la croissance », que ce consensus a commencé d’être mis en cause et qu’est apparu le thème de la décroissance. Mais il a fallu attendre la première décennie de ce siècle pour que la critique s’affirme. En 2009 paraissent coup sur coup le livre de Tim Jackson Prospérité sans croissance (De Boeck, 2017) et le rapport Stiglitz-Sen-Fitoussi sur la mesure des performances économiques et du progrès social. Le premier mettait en cause l’objectif d’une croissance indéfinie de la production matérielle, le second la nature des indicateurs à l’aune desquels apprécier la réussite d’une économie.

D’un questionnement, pour légitime qu’il soit, ne naît cependant pas nécessairement une alternative. Depuis plusieurs années maintenant, les statisticiens s’attachent à définir une mesure plus adéquate de la valeur de l’activité économique. Mais en dépit de leur entêtement, ces efforts n’ont pas débouché sur un substitut satisfaisant au produit intérieur brut (PIB). Les tableaux de bord fondés sur une multiplicité d’indicateurs ne suscitent guère que l’indifférence, même lorsqu’ils sont, comme en France, l’objet d’une définition législative. L’indicateur de développement humain publié par les Nations unies a l’avantage d’illustrer de manière saisissante que prospérité partagée et croissance ne se confondent pas, mais sa définition est empreinte d’un inévitable arbitraire.

Surtout, ces alternatives n’offrent pas un système comptable susceptible de servir de cadre à des mesures sectorielles ou à des comptabilités d’entreprises et de ménages. La grande faiblesse du PIB est de porter la trace du contexte historique dans lequel il a été conçu, mais sa grande force est d’être la clé de voûte d’un système cohérent de comptabilisation économique.

Ces sujets, qui pouvaient apparaître sans enjeu immédiat, ont pris un relief nouveau dans la perspective de la transition climatique. Faute de bonnes mesures de la performance, observait le rapport Stiglitz-Sen-Fitoussi, les décideurs sont en effet « comme des pilotes qui chercheraient à maintenir un cap sans avoir de boussole fiable ».

Assemblée Nationale: mieux évaluer les lois

Assemblée Nationale:  mieux évaluer les lois

La future Assemblée nationale pourrait aboutir à un rééquilibrage des pouvoirs entre le parlement et le gouvernement et donner un rôle central aux parlementaires dans l’évaluation des lois. Par Benjamin Monnery, Université Paris Nanterre – Université Paris Lumières et Bertrand du Marais, Université Paris-Est Créteil Val de Marne (UPEC).

 

La future Assemblée nationale pourrait aboutir à un rééquilibrage des pouvoirs entre le parlement et le gouvernement. Qu’il s’agisse des élus de l’opposition (qui siégeront en plus grand nombre) ou de ceux de la majorité (plus expérimentés qu’il y a cinq ans), nombreux sont les parlementaires qui pourraient vouloir se saisir pleinement de l’enjeu de l’évaluation des lois durant cette XVIe législature.

Jusqu’à présent, les tentatives parlementaires en matière d’évaluation, avant mise en œuvre de la loi ou dans les années suivantes, sont restées assez limitées, mais la composition de la nouvelle Assemblée pourrait rebattre les cartes et permettre des évolutions.

Depuis la révision constitutionnelle de 2008, les parlementaires ont explicitement pour mission de contrôler l’action du Gouvernement et d’évaluer les politiques publiques (article 24 de la Constitution). Pour cela, une loi organique de 2009 oblige désormais le gouvernement à produire une étude d’impact accompagnant tous les projets de loi qu’il soumet au parlement. À chaque projet de réforme, les cabinets ministériels et les administrations centrales s’activent donc pour produire une étude d’impact en plus du projet de loi, sous la responsabilité du ministre porteur du projet.

Cette étude d’impact doit renseigner toute une série de critères pour chaque article du projet : l’objectif poursuivi, l’option politique retenue parmi les différents choix possibles, les implications juridiques de la réforme, mais aussi ses conséquences attendues en termes d’impacts économiques, budgétaires, sociaux ou encore environnementaux.

Ainsi l’étude d’impact sur la réforme des retraites début 2020 avait créé de nombreux remous.

Dans l’esprit du constituant, cette obligation d’étude d’impact devait permettre d’améliorer la qualité de la loi et d’atteindre une plus grande efficience des politiques publiques. Les études d’impact avaient aussi vocation à enclencher une cercle vertueux de l’évaluation des lois, où une première étude ex-ante servirait ensuite de base pour des contrôles in itinere (pendant la mise en œuvre de la réforme) puis pour une évaluation ex-post complète de la réforme. On pouvait aussi s’attendre à ce qu’elles élèvent le niveau du débat public.

Des études d’impact de qualité insuffisante

Malheureusement, près de quinze ans après l’introduction de ces études d’impact dans la Constitution, leurs objectifs ne sont pas atteints. Le Conseil économique, social et environnemental et le Conseil d’État ont réalisé des travaux récents sur le sujet. Le Conseil d’État émet un avis sur l’étude en même temps que sur le projet de loi avant le dépôt du texte ; la Cour des comptes a un rôle constitutionnel d’évaluation des politiques publiques. Ces deux organismes semblent partager le constat de la Cour des comptes selon lequel les études d’impact sont « hétérogènes dans leur contenu et globalement peu éclairantes ».

Pire, elles sont souvent vues comme un moyen pour le gouvernement de « justifier techniquement une décision politique déjà prise », selon un rapport sénatorial de 2018.

C’est ce constat que nous avons voulu étayer dans le cadre d’un travail académique) qui évalue, sur la période 2017-2020, une trentaine d’études d’impact produites sous le gouvernement Philippe (soit environ la moitié de la production législative sur la période).

Aidés par nos étudiants de Master sur plusieurs années successives, nous avons établi un barème de notation de chaque étude d’impact, article par article, sur l’ensemble des 18 critères d’évaluation indiqués dans la loi organique. Ces critères sont ensuite notés entre 0 et 20/20 et regroupés en trois grandes catégories : les aspects politiques de la loi (score politique), ses implications juridiques (score juridique), et ses conséquences en matière économique, sociale ou encore environnementale (score d’impact).

 

Les résultats, publiés dans la Revue d’Économie politique et synthétisés dans les graphiques ci-dessus, montrent que la plupart des études d’impact que nous avons auditées sont satisfaisantes sur les aspects politiques (note médiane de 13/20), passables sur les aspects juridiques (8/20), et très insuffisantes sur les impacts (5/20).

En clair, les études d’impact produites par le gouvernement sont souvent trop rapides et imprécises sur les impacts que l’on peut anticiper de la réforme pour les différents acteurs touchés, les comptes publics ou l’environnement, que ces impacts soient directs ou indirects. Ce fut par exemple le cas avec la réforme Dupond-Moretti sur les réductions de peine.

Notre étude montre aussi que les parlementaires, à l’Assemblée comme au Sénat, mobilisent très peu les études d’impact dans leurs travaux. En moyenne mensuelle, les études d’impact ne sont citées que dans une intervention orale sur 270 et dans moins de 2 % des amendements déposés.

Sur la XVe législature, ce sont d’ailleurs surtout les députés de l’opposition de gauche qui mentionnaient les études d’impact alors qu’ils représentaient à peine plus de 10 % des sièges à l’Assemblée, ils cumulaient plus de 40 % des mentions aux études d’impact entre 2017 et 2020. À l’inverse, les élus de la majorité avaient une forte tendance à les ignorer.

Ce relatif désintérêt est-il la cause de la qualité médiocre des études d’impact, ou sa conséquence ? Probablement les deux. En effet, notre étude montre que lorsque les études d’impact sont mieux documentées, elles sont ensuite plus mobilisées par les parlementaires dans leurs travaux. En parallèle, le gouvernement tend à fournir plus d’efforts sur l’étude quand celle-ci concerne un projet politiquement plus sensible comme la loi bioéthique, par exemple.

Une étude d’impact très documentée peut lui permettre de se prémunir contre des critiques et de fournir des éléments utiles à la défense du projet par le ministre, le rapporteur du texte ou les élus de la majorité.

Depuis son introduction, le dispositif des études d’impact semble donc bloqué dans un cercle vicieux : souvent préparées dans l’urgence et de faible qualité, les études sont peu mobilisées par les parlementaires, ce qui n’incite pas le gouvernement à changer d’attitude. De plus, les contrôles institutionnels de ces études d’impact, par le Conseil Constitutionnel ou le Conseil d’État, sont limités, voire inefficaces. Dans ce contexte, la recomposition en cours de l’Assemblée nationale lors de ces élections législatives pourrait permettre des évolutions positives en termes d’évaluation des lois.

D’abord, une perte de majorité absolue pour la coalition « Ensemble » se traduirait par un changement des équilibres politiques à la Conférence des Présidents de l’Assemblée nationale. Celle-ci pourrait alors refuser d’examiner un texte dont l’étude d’impact serait insatisfaisante, une arme très dissuasive qui n’a été utilisée qu’une seule fois, au Sénat en 2014 concernant le projet de loi relatif à la délimitation des régions, aux élections régionales et départementales et modifiant le calendrier électoral.

Ensuite, au moment de l’examen d’un projet de loi en commission, l’absence d’hégémonie d’un groupe parlementaire sur les autres l’obligerait à rassembler des coalitions sur chaque texte, en s’appuyant pour partie sur des éléments de l’étude d’impact, qui retrouverait de son intérêt. Les oppositions pourraient également imposer des débats portant spécifiquement sur l’étude d’impact, qui serait plus exposée à la critique politique et médiatique.

Dans ce domaine, un Parlement équilibré aurait tout intérêt à beaucoup plus s’appuyer sur les capacités de contre-expertise venues de la société civile et des chercheurs, pour évaluer la crédibilité des impacts annoncés par l’exécutif et discuter d’effets indésirables que l’étude d’impact passe sous silence.

Une autre bonne pratique pour cette XVIe législature pourrait également consister à demander au ministère porteur d’une réforme de s’engager sur des objectifs chiffrés et des indicateurs pertinents pour évaluer les effets au cours du temps, et financer systématiquement une évaluation scientifique indépendante des réformes.

_________

Par Benjamin Monnery, Maître de conférences en économie, Université Paris Nanterre – Université Paris Lumières et Bertrand du Marais, Chargé d’enseignement de droit, Université Paris-Est Créteil Val de Marne (UPEC)

Nous tenons à remercier nos étudiants de Master 2 à l’Université Paris Nanterre (« Préparation aux concours de la fonction publique » et « Droit de l’économie ») qui, au fil des années, ont permis de collecter des données de qualité sur les différentes études d’impact du Gouvernement.

L’étude complète est à retrouver auprès de la Revue d’Économie politique.

Comment évaluer l’école ?

 Comment évaluer l’école ?

Le nouveau Conseil d’évaluation de l’école, installé en juin, vise le développement d’une « culture de l’évaluation » à l’école. Roger-François Gauthier, ancien inspecteur général, et Stéphane Foin, professeur agrégé, réfléchissent à des indicateurs pertinents.

Tribune.

Le Conseil d’évaluation de l’école, installé à la fin du mois de juin, vise, après tant d’autres institutions qui en avaient fait leur objectif, le développement d’une « culture de l’évaluation » à l’école. Si la formule est loin non seulement de faire l’unanimité mais aussi de retenir l’attention de la plupart des acteurs de terrain, le nouveau conseil va s’attaquer à un problème qui a été décrit depuis plus de quinze ans comme une spécificité française : la France est encore l’un des rares pays, ou peut-être le seul, où les écoles, collèges et lycées ne sont pas évalués dans leur globalité.

C’est-à-dire qu’on ne demande pas, de façon systématique, régulière, homogène mais surtout publique, aux établissements scolaires où ils en sont ni comment ils progressent. Et on ne met surtout pas ces informations à disposition des parents.

En France, on inspecte des personnes individuellement, alors que, dans la plupart des pays, on préfère approcher l’ensemble des conditions qui font qu’un établissement scolaire réussit, ou non, au service de ses élèves. On a bien des séries statistiques de réussite au brevet, au bac, des tests français ou internationaux qui se multiplient pour tenter de mesurer les connaissances acquises par les élèves, mais ce n’est pas la seule chose qu’on attend. Les parents, notamment. Ils attendent, au fond, même si le mot n’est pas souvent prononcé en matière d’éducation, quelque chose comme une « qualité » pour l’école de leurs enfants. Mais comment vraiment la mesurer ?

Certes, nous devons reconnaître, comme nous l’avons développé dans le dernier numéro de la Revue internationale d’éducation de Sèvres, que définir la « qualité » d’une école ou d’un système n’est pas simple, pas plus qu’il n’est simple de définir le « développement » ou le « bonheur ».

Comme l’indice de développement humain (IDH) a mis en cause la prise en compte des seuls chiffres du PIB (fondé uniquement sur la croissance) pour évaluer les progrès d’une économie, on comprend qu’en matière d’éducation on ne puisse définir la qualité à partir des seuls résultats bruts aux examens. A la fois parce que les examens et les savoirs enseignés méritent d’être eux-mêmes interrogés quant à leur qualité. Mais aussi parce que l’équité semble une pierre de touche indépassable, de même que tout ce qui relève du climat scolaire, élément essentiel non seulement du bien-être mais aussi du développement des apprentissages.

 

.

Comment évaluer la transformation de la biodiversité

Comment évaluer la transformation  de  la  biodiversité

Le  Club des entreprises pour une biodiversité positive (Club B4B+), appellent dans la Tribune à la mise en place de métriques quantitatives de la biodiversité, d’outils d’évaluation de l’empreinte biodiversité et d’objectifs scientifiques mesurables à tous niveaux pour faire face au déclin alarmant de la biodiversité.

 

La décennie qui s’achève se sera malheureusement soldée par l’échec tragique de la plupart des Objectifs d’Aichi pour la période 2011-2020 [adoptés par les parties à la Convention sur la diversité biologique en octobre 2010, Ndlr] et le constat sans appel de l’Evaluation mondiale de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services éco systémiques (IPBES), qui révélait en mai 2019 que le déclin de la nature se poursuit à un rythme sans précédent dans l’histoire de l’humanité. Le Congrès mondial de la Nature, organisé par l’Union internationale pour la conservation de la nature (UICN) à Marseille, puis la COP15 de la Convention sur la diversité biologique (CDB) en Chine -tous deux reportés au premier trimestre 2021-doivent nous permettre d’entrer dans le temps de la biodiversité.

Nous sommes persuadés que le secteur privé peut et doit jouer un rôle clé dans la concrétisation à la fois de la vision 2050 de la CBD pour « vivre en harmonie avec la nature », et des Objectifs de développement durable (ODD) – en particulier des ODD 14 et 15 concernant la biodiversité. Pour ce faire, et afin qu’advienne le « New Deal » pour la nature et les hommes, il est essentiel que nous mesurions notre impact sur la biodiversité et que nos objectifs en matière de biodiversité soient en capacité de rejoindre les scénarios proposés par la communauté scientifique et retenus par la communauté internationale.

La tonne équivalent CO2 a joué un rôle déterminant dans la prise de conscience des enjeux liés au changement climatique. Cette métrique a constitué un levier incontestable dans la mise en œuvre d’actions d’atténuation du changement climatique. Des métriques comparables, autrement dit des métriques quantitatives décrivant l’état de la biodiversité, largement utilisées et accessibles à tous, consensuelles sur le plan scientifique et pouvant être agrégées ou désagrégées à de multiples niveaux de granularité, sont nécessaires pour répondre efficacement à l’enjeu de la perte de biodiversité. Associées à des analyses qualitatives, de telles métriques sont indispensables aux États, aux entreprises et aux institutions financières désirant évaluer leurs impacts, démontrer des gains de biodiversité et piloter leur action opérationnelle.

Système scolaire : inaptitude de l’Etat à évaluer (Cour des comptes)

Système scolaire : inaptitude de l’Etat  à évaluer  (Cour des comptes)

La France est complètement inapte pour évaluer son système scolaire, ce qui explique en partie le désastre de l’enseignement français dans les classements internationaux ; Un jugement sans nuance du président de la cour des comptes. Lequel met aussi en cause les résultats du bac auquel on a fixé des taux de réussite artificiel. Le principal reproche concerne l’indigence du système dévaluation. “Cela explique que la France ne puisse exposer le résultat de ses propres évaluations face aux conclusions des enquêtes internationales qui qualifient avec netteté la performance de chaque système d‘enseignement”, a-t-il poursuivi. La Cour des comptes souligne le manque de moyens humains et financiers pour réaliser ces évaluations. De 2000 à 2017, les crédits dédiés à cet objectif ont toujours été inférieurs à cinq millions d‘euros par an, dans un budget global de 70 milliards d‘euros en 2018. Didier Migaud estime que l’évaluation des acquis par des examens comme le baccalauréat ne suffit plus pour juger de l‘efficacité du système français, en raison de “la fixation d‘objectifs de taux de réussite”. Il pointe des “freins culturels et administratifs” face au recueil de données sur les résultats des élèves par crainte que ces informations ne nourrissent les évaluations des enseignants et établissements. Il émet onze recommandations parmi lesquelles la mise en place d‘une “nouvelle architecture administrative” qui distingue les “rôles des gestionnaires et évaluateurs”. Il appelle à “mesurer systématiquement le niveau des élèves durant la scolarité” et à publier de façon régulière un rapport sur la performance du système scolaire, “sorte de Pisa (Programme international de suivi des acquis des élèves) à la française”.

Évaluer les fonctionnaires et moduler les primes : un crime contre le service public !

Évaluer les fonctionnaires et  moduler les primes : un crime contre le service public !
On pourrait en rire si le sujet n’était pas aussi sérieux. On sait en effet que le poids de l’administration française plombe la compétitivité du pays. Pour deux raisons du fait d’abord du poids des fonctionnaires qui absorbent à peu près la moitié des budgets surtout aussi du fait de la bureaucratie que cela engendre ; et qui tue dynamisme et créativité. Mais envisager d’évaluer et de modifier les primes en fonction des résultats apparaît aux yeux de certains extraterrestres comme une atteinte inadmissible au service public. Non seulement il faudrait accepter ces sureffectifs à l’origine d’une grande partie d’une fiscalité écrasante mais il ne faudrait pas s’interroger sur leur productivité et la qualité de leurs services. Il s’agit évidemment de la vision de la gauche qui confond service public, administration et statut du personnel. Un amalgame douteux qui permet ainsi de légitimer tous les abus même les plus indéfendables (l’absentéisme par exemple, le double du privé !). L’Iran a l’intention d’acheter des Airbus, a annoncé mercredi le président Hassan Rohani avant sa visite prévue la semaine prochaine en France. Dans une interview accordée à Europe 1 et France 2, il confirme que, comme l’a annoncé l’Elysée mardi, des accords commerciaux seront signés lors de cette visite prévue le 17 novembre. A la question de savoir si un contrat d’achat d’Airbus était prévu, Hassan Rohani, dont les propos étaient traduits, a répondu : «Nous avons aujourd’hui même des Airbus, il y a d’autres compagnies aussi qui nous vendent des avions. Ces grandes compagnies, notamment Airbus sont présentes en Iran. Nous achèterons c’est vrai de ces grandes compagnies, notamment Airbus ». Il a rappelé que des délégations françaises s’étaient rendues à Téhéran ces derniers mois pour des négociations dans le domaine des transports, de l’agriculture et de l’industrie, notamment

Immobilier: commenet évaluer le bon prix ?

Immobilier: commenet évaluer le bon prix ?

L’erreur la plus flagrante est la surestimation d’un bien immobilier  qui contribue actuellement au blocage du marché . Comment mieux évaluer cette valeur c’est ce qu’expliquent avec beaucoup de pertinence  Crédit Market et l’un de ses responsables Sébastien Hodencq ( France Info)

Attention, il n’est pas question d’appliquer un prix au mètre carré, contrairement à ce que l’on fait souvent. Si à Paris, dans le 17ème, vous appliquez le prix moyen à un appartement que vous vendez sur le Parc Monceau, vous ne le vendrez pas assez cher. Si au contraire, il se situe porte de Clichy, il sera largement surévalué. Pour évaluer le prix d’un bien immobilier, lorsque l’on est acheteur, on commence, sans le savoir, par appliquer l’une des trois méthodes utilisées par les experts immobiliers, la méthode dite par comparaison. Comme son nom l’indique, elle consiste à comparer le bien à vendre aux autres biens du quartier, à condition qu’ils soient similaires ou comparables. Comme il est rare que deux appartements ou deux maisons soient exactement similaires, on applique quelques correctifs, pour compenser par exemple les différences d’étage, d’état ou d’exposition. Mais attention, cette méthode, à elle seule ne suffit pas et peut-être complétée par d’autres méthodes.

Et quelles sont les autres méthodes ?

Une autre méthode, couramment employée, s’appelle la méthode par capitalisation. Au lieu d’évaluer le prix de vente, vous évaluez le prix auquel vous pourriez louer le bien. Cette méthode est pratique quand il y a peu de biens similaires qui se sont vendus. C’est souvent le cas des parkings, ou de murs commerciaux, par exemple. Une fois que l’on a évalué le loyer, on évalue le taux de rentabilité.

Et comment on évalue ce taux de rentabilité ?

Cela dépend du secteur et de la demande en stationnement. Si par exemple, on s’aperçoit que l’on peut louer un parking 150 euros par mois, et que le taux de rentabilité d’un parking est de l’ordre de 6 %, il suffit de diviser : 150 euros par mois, ça fait 1.800 euros par an, et si je divise 1.500 euros par 6%, j’arrive à un prix de vente de 30.000 euros. Quand on applique cette méthode à un appartement. Il faut simplement prendre conscience que plus il est cher, moins son taux de rentabilité est important : un studio, dans un quartier très populaire peut rapporter jusqu’à 10 %, alors que le même studio, dans un quartier très chic ne rapportera que 4%, voire un peu moins. Un quatre pièces rapporte rarement plus de 2%. Si vous rapprochez ce résultat du prix que vous avez trouvé, en appliquant la première méthode par comparaison, vous allez déterminer une fourchette qui, déjà, vous fixera les idées.

Et la troisième méthode ?

Celle-ci est plus compliquée à mettre en œuvre, on l’appelle la méthode par les composants. Les Domaines utilisent souvent cette méthode. Elle consiste à décomposer le bien et à évaluer chacun des composants. Pour une maison, par exemple, on évaluera le terrain, comme s’il s’agissait d’un terrain à bâtir, et ensuite le prix de la construction auquel on applique, bien sûr, un coefficient de vétusté puisque la construction a un certain âge. Cette méthode a le défaut de ne pas prendre en compte les éléments de marché. Si par exemple, j’ai fait construire il y a dix ans, dans une campagne de la Creuse, une maison très clinquante avec du marbre partout, un jacuzzi, une piscine, et que sais-je encore, je risque d’arriver à un prix dépassant le million d’euros. Or, dans cette région, je ne trouverais jamais d’acquéreur à ce prix pour ce type de bien, et je finirais par le vendre un quart de cette valeur !

Et les sites Internet qui évaluent votre bien en ligne ?

Ils peuvent être utiles pour fixer un ordre d’idée, mais jamais pour fixer un prix précis. Donc, il ne faut pas leur faire une confiance aveugle ! Disons que ces modèles fonctionnent à peu près correctement pour des biens standards situés dans les zones où il y a beaucoup de transactions.

BCE : un sulfureux cabinet américain choisi pour évaluer les banques européennes

BCE : un sulfureux cabinet américain choisi  pour évaluer les banques européennes

la BCE dévoilera, mercredi 23 octobre, toutes les modalités de la supervision bancaire pour les tests, dits « stress tests », auxquels les banques européennes vont être soumises. Les marchés attendent beaucoup de ces tests, considérés comme une véritable épreuve de vérité sur la santé de ces banques. Et voilà que la BCE délègue sa mission à un cabinet privé, qui plus est américain ! Le choix a de quoi surprendre: mais pourquoi la BCE ne s’appuie-t-elle pas sur ses propres équipes? « Quand il y a des stress-tests aux Etats-Unis, c’est la FED qui s’en charge », souligne un analyste. D’autant plus que le cabinet qu’elle a choisi, lui aussi, est contestable. Ce cabinet est Oliver Wyman, spécialisé non pas dans l’audit mais dans le conseil. Un cabinet qui traîne quelques casseroles. C’est lui qui, en 2006, avait décerné la palme de la banque la plus performante à l’Anglo Irish Bank. Trois ans après, la banque irlandaise s’effondrait. Autant dire que ce choix n’est pas vraiment de nature à rassurer




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol