Archive pour le Tag 'question'

Mercosur : La France toujours opposée à l’accord « en l’état »

 Mercosur : La France toujours opposée à l’accord « en l’état »

 les négociations avec les pays du Mercosur (Brésil, Argentine, Paraguay, Uruguay et Bolivie) ont repris ces derniers mois sous l’impulsion de pays européens dont l’Allemagne ou l’Espagne. Mais la ministre de l’agriculture Annie Genevard a rappelé l’opposition de la France à la signature de cet accord « en l’état ».

« C’est un mauvais accord (qui) va faire déferler sur notre pays une quantité de productions qui vont venir concurrencer directement nos producteurs: 99.000 tonnes de boeuf, 180.000 tonnes de sucre, autant de (viande de) volailles. En plus, cela se fait au prix de la déforestation et de normes environnementales », a-t-elle dit.

Reste que la France pourrait faire évoluer sa position si le texte de l’accord Mercosur pouvait évoluer dans le sens des intérêts nationaux. La question est jusqu’à quel point. ?

 

 

Climat et Cop29 : la question récurrente du financement

Climat et Cop29 : la question récurrente du financement

Les tensions géopolitiques ne doivent pas faire perdre de vue les réformes financières mondiales nécessaires à la lutte contre le réchauffement, plaident cinq experts et acteurs internationaux de la négociation climatique dans une tribune au « Monde ».

On oublie souvent que la Convention climat, en 1992, fut une initiative du G7 où les pays en voie de développement furent invités. A l’agenda du Nord, celui du climat et de la sécurité énergétique, le Sud répondit en imposant de lier climat et développement soutenable et de faire de la lutte contre la pauvreté une « priorité absolue ».

Cela ouvrit des décennies de malentendus, dont les questions de financement sont le symbole. A Kyoto (1997), on concéda au Sud un « mécanisme de développement propre », par lequel il pourrait tirer d’investissement du Nord faits au Sud des crédits d’émission échangeables sur des marchés carbone. La COP15, à Copenhague (2009), se centra sur l’objectif des 2 °C, sans préciser les modalités d’un transfert Nord-Sud annoncé de 100 milliards de dollars (92 milliards d’euros) par an. Il fallut attendre un quart de siècle pour qu’on en parlât sérieusement dans l’accord de Paris (COP21, 2015). Après la COP21, on proclama des objectifs globaux de plus en plus ambitieux mais sans progrès équivalent sur les moyens de les tenir : c’est le constat qui a été fait à la COP28, c’est le sujet majeur qui sera abordé à la COP29 de Bakou, du 11 au 22 novembre.

La COP28 a entériné la nécessité de changer de problématique d’ensemble pour être à la hauteur des enjeux, avec, comme priorité une « évolution des mécanismes fondamentaux de l’économie mondiale » de façon « non conflictuelle et non punitive ».

Dénouer le nœud gordien
Les discours centrés sur le seul affichage d’objectifs climatiques sous-estiment la nature paradoxale de l’urgence climat. Les dommages d’ici à 2100 dépendent en effet plus du stock existant de gaz à effet de serre que de la température atteinte. L’objectif à + 1,5 °C implique une neutralité carbone en 2050 peu tenable pour fournir de l’énergie non carbonée à des prix abordables aux 3,8 milliards d’êtres humains vivant avec moins de 6,85 dollars par jour. L’urgence est plutôt de lever les obstacles au développement si on veut les embarquer dans une lutte commune. De même, c’est aux causes structurelles du besoin de migrer qu’on doit s’attaquer pour réduire le nombre de réfugiés climatiques.

La question de la véritable inflation

La question de la véritable inflation

La question de la véritable inflation constitue un enjeu économique, financier mais aussi surtout social. Par exemple en 2024officiellement l’inflation paraît maîtrisée par rapport au passé avec une progression qui serait de 2,3 % sur un an en juillet. Dans le même temps , on espère une augmentation des salaires de l’ordre de 4% surtout en raison des difficultés de recrutement lié au manque de qualification et aux modifications du rapport au travail.

Nombres d’experts vont donc conclure qu’en moyenne le pouvoir d’achat des ménages aura augmenté. C’est évidement faire d’économie d’une analyse un peu approfondir de ce qu’est réellement l’inflation. Si on devait faire la démonstration que l’inflation est sous-estimée il suffirait de se référer à la baisse de consommation notamment concernant les produits alimentaires mais encore le budget moyen consacré par les Français à leurs vacances.

La vérité c’est que tout augmente et bien davantage que ce qui est mesuré par l’INSEE qui produit toujours un indicateur obsolète qui ne rend pas compte de la modification structurelle des dépenses des ménages. Dans ces dépenses ,il faut prendre en compte le fait que le logement représente près de 25 %, à peu près autant que l’alimentaire. Reste en outre le transport qui représente 15 % comme les biens et services, en forte hausse également à 15 %. En gros, pour 80 % des ménages les dépenses sont déjà affectées. Et pour les moins favorisés les dépenses ajustables sont négligeables voire nulles.

L’inflation ne porte préjudice réellement que lorsqu’on est amené à effectuer des dépenses ce qui est le cas pour les ménages peu défavorisés qui ne peuvent épargner. L’inflation affecte donc en totalité les revenus dans ce cas. Il en va différemment pour les ménages plus aisés pour lesquels les dépenses de consommation courante ne sont finalement que marginales.

En moyenne en France, les ménages comprennent deux personnes pour un revenu toujours en moyenne de 2000 €. Par l’inflation est vraisemblablement égale au double de celle qui est mesurée depuis plusieurs années. Surtout si on prend mieux en compte l’évolution considérable du prix des services et autres abonnements qui pèsent de plus en plus dans les budgets. La vérité c’est que l’inflation constitue un véritable phénomène anti redistributif qui plombe le pouvoir d’achat des moins aisés au profit de ce qui peuvent faire des placements financiers dont la rentabilité s’est envolée à la hausse ces dernières années.

Hydrogène vert : mise en question

Hydrogène vert : mise en question

Présentée souvent comme la solution miracle, l’hydrogène vert patine sérieusement pour se développer en raison notamment de sa faisabilité et de son coût actuel. Le vaporeformage est le procédé le plus économique actuel pour produire l’hydrogène industriel. Évalué à 1,5 €/kg, son coût au kg reste cependant le triple de celui du gaz naturel hors taxe carbone (donc en ne tenant pas compte de sa lourde empreinte environnementale)Sans parler de son appellation offerte qui peut être discutée.« Irréaliste ». C’est avec ce mot fort que la Cour des comptes de l’UE qualifie la stratégie hydrogène vert des 27. Pour la haute instance, qui publie un rapport sur le sujet ce jeudi. 

« La Commission a fixé des objectifs trop ambitieux concernant la production et l’importation d’hydrogène renouvelable, censées atteindre chacune 10 millions de tonnes d’ici à 2030 », conclut donc le rapport.

 

Fort de ce constat, la Cour des comptes bruxelloise enjoint la Commission de « mettre à jour sa stratégie de l’hydrogène sur la base d’une évaluation minutieuse ». Et de planter le clou en disant que les objectifs initiaux « étaient dictés par une volonté politique, sans reposer sur une analyse rigoureuse ».

Dans la même veine, Stef Blok, membre de la Cour et responsable de l’audit, cité dans le communiqué, explique : « La politique industrielle de l’UE en matière d’hydrogène renouvelable doit faire l’objet d’une vérification à l’épreuve de la réalité. »

Autre fait dénoncé par l’étude de la Cour des comptes de l’UE : « les ambitions divergentes des États membres » ne sont pas « toujours alignées sur les objectifs ». Par ailleurs, les financements de l’UE (18,8 milliards d’euros pour la période 2021-2027) sont éparpillés sur plusieurs programmes, compliquant le choix pour les entreprises.

« Notre travail est loin d’être terminé », a réagi le porte-parole de la Commission européenne, dans la foulée de ce rapport. « Nous devons désormais accélérer le déploiement et l’adoption de l’hydrogène renouvelable et à faible émission de carbone en Europe, et développer davantage ce marché émergent ».

Pour mémoire, Bruxelles a publié sa stratégie hydrogène à la mi-2020, puis l’a complétée en 2022 avec encore plus d’ambition via le plan REPowerEU, soit une feuille de route visant à mettre fin à la dépendance du continent aux énergies fossiles russes, d’ici 2030.

 

L’hydrogène peut être produit soit à partir de gaz (par réformage), soit à partir d’eau avec un apport d’électricité (par électrolyse). La Commission a fait du déploiement d’hydrogène vert, c’est-à-dire produit à partir d’électricité renouvelable, un levier crucial pour verdir les industries lourdes les plus difficiles à décarboner (engrais, pétrochimie, sidérurgie, ciment).

 

Chine: L’économie administrée en question

Chine: L’économie administrée en question

La politique économique de la Chine est en  question du fait du net ralentissement de la croissance et notamment de la consommation interne. De plus en plus en cause, l’efficacité de la mainmise du parti communiste et du président sur une économie  qui manque sérieusement de flexibilité et d’innovation. Comme d’habitude la Chine privilégie toujours les grands plans  d’infrastructures alors que son commerce extérieur est menacé par le protectionnisme des pays importateurs et que la dynamique de la consommation interne ne reprend pas. L’économie chinoise sous la chape de plomb du parti communiste est menacée par les lourdeurs traditionnelles et notamment par la tutelle du parti communiste sur les dirigeants d’entreprise

Les dirigeants chinois ont donc  ouvert, ce lundi, le troisième plénum, un rendez-vous clé autour du président Xi Jinping, qui doit définir les grandes orientations économiques du pays pour les cinq prochaines années. Pour autant, aucune réforme radicale n’est attendue. Et ce, alors que la publication de chiffres décevants suggère une croissance qui ralentit et une consommation toujours en berne.

Le Troisième Plénum, qui s’achèvera jeudi, organisé à huis clos par le Parti communiste chinois (PCC), s’ouvre en effet au moment où tombent des indicateurs tous aussi préoccupants les uns que les autres.
« Les bases d’une reprise et d’une croissance économiques saines doivent être consolidées », a ainsi admis le Bureau national des statistiques (BNS).

Et pour cause, les ventes de détail, principal indicateur des dépenses des ménages, sont décevantes, à +2% sur un an en juin, soit leur rythme le plus faible depuis décembre 2022, tandis que la production industrielle marque également le pas, à +5,3% en juin contre +5,6% un mois plus tôt.

La seconde économie mondiale, selon le BNS, a vu sa croissance se tasser au deuxième trimestre à 4,7% sur un an, à un rythme bien inférieur aux attentes des analystes. Le rythme du PIB est aussi inférieur à celui du premier trimestre (5,3%).

Par rapport au premier trimestre, comparaison plus fidèle de la conjoncture, le PIB a plus fortement ralenti (+0,7%). Pékin s’est fixé cette année un objectif « d’environ 5% », loin des progressions à deux chiffres des dernières décennies. Un an et demi après la levée des restrictions sanitaires qui pénalisaient l’activité, la reprise post-Covid tant espérée a été brève et moins robuste qu’escomptée. « Les bases d’une reprise et d’une croissance économiques saines doivent être consolidées », a d’ailleurs admis le BNS.

 

Elle est surtout disparate, avec des secteurs qui en bénéficient, comme par exemple les services, portés par le retour des clients dans les restaurants, les transports et les lieux touristiques. D’autres restent à la peine, notamment l’immobilier, qui a longtemps représenté au sens large plus du quart du PIB de la Chine et constituait un important vivier d’emplois. Les principales villes du géant asiatique ont d’ailleurs de nouveau enregistré en juin une baisse des prix de l’immobilier sur un an. Les autorités souhaitent depuis plusieurs années baser la croissance sur l’innovation, les hautes technologies et la consommation intérieure, et non plus sur les grands investissements étatiques dans les infrastructures. Mais les dirigeants chinois sont sur une ligne de crête car « des changements majeurs de politique pourraient être vus comme un aveu d’échec » des mesures actuelles, mettent en garde les analystes de Moody’s Analytics.

La question des polluants éternels dans l’eau

La question des polluants éternels dans l’eau

On les appelle « polluants éternels ». La pollution aux PFAS (substances per – et polyfluoroalkylées, dont certaines sont considérées comme cancérogènes) présente aujourd’hui de réels enjeux sanitaires et environnementaux. Début avril, l’Assemblée nationale a adopté une proposition de loi visant à mieux protéger la population contre ces substances. Le Sénat doit encore examiner ce texte le 30 mai.Au-delà de l’enjeu réglementaire, il subsiste un certain nombre de verrous scientifiques, technologiques et industriels à lever avant de pouvoir apporter des solutions durables au problème. À commencer par l’inventaire exhaustif des PFAS produits et leurs usages, mais également la dégradation de ces composés dans l’environnement qui peut conduire à la formation de nouveaux PFAS… Ainsi, il ne s’agit pas seulement de surveiller une poignée de composés connus, mais potentiellement jusqu’à plusieurs millions de molécules différentes.

par , Qualité des eaux souterraines, BRGM  Environmental Monitoring Project manager, BRGM dans The Conversation 

Commençons par les définitions : de quoi parle-t-on lorsqu’on parle de PFAS ? Il s’agit de molécules de synthèse dotées de liaisons très résistantes entre des atomes de carbone et de fluor, et possédant un ou plusieurs groupes fonctionnels.

Concrètement, il s’agit de molécules répondant à des besoins très divers et ayant une définition chimique très large, comme le rappelait l’OCDE en 2021. On décompte plusieurs milliers de molécules PFAS, dont des polymères comme le polytétrafluoroéthylène (PTFE) ou le polyfluorure de vinylidène (PVDF), qui ont la particularité d’être de très grosses molécules.

Avant d’être des polluants éternels, les PFAS sont surtout des polluants omniprésents. Des travaux de recherche ont permis de constater que les PFAS sont présents partout dans l’environnement : les sols, les sédiments, l’air et les eaux, aussi bien les eaux de surface que les eaux souterraines et même la pluie. La faune terrestre et aquatique, la flore et la population humaine sont également impactées.

De nombreuses zones du globe sont concernées. Selon les estimations de l’Agence européenne des produits chimiques (ECHA), entre 117 000 tonnes et 442 000 tonnes de PFAS ont été mis sur le marché européen en 2020.

Leur production, jadis localisée aux États-Unis, en Europe de l’Ouest et au Japon, se déplace ces dernières années vers l’Asie, notamment vers la Chine qui est aujourd’hui le principal pays producteur et l’Inde.

Cette délocalisation s’explique par les réglementations successives mises en œuvre aux États-Unis et en Europe. Selon l’ONG ChemSec, 12 compagnies seraient responsables à elles seules de la majorité de la production mondiale de PFAS.
Cette ubiquité s’explique par la diversité des sources de PFAS et de leurs voies de dissémination. Ils sont introduits dans les sols et les milieux aquatiques par des pollutions industrielles liées à leur production et leur utilisation dans de nombreux procédés industriels, produits manufacturés et le recours à certaines mousses anti-incendie. Enfin, l’usage de produits du quotidien contenant des PFAS conduit à les retrouver dans les eaux usées et les déchets.

Jusqu’à présent, les stations de traitements des eaux usées « classiques » n’ont pas été dimensionnées pour traiter ces composés de manière spécifique. Elles peuvent ainsi être une source indirecte de contamination, via le rejet des eaux usées après traitement, mais également lors de l’épandage des boues d’épuration, qui sont utilisées comme amendement des sols agricoles.

Les sites de stockage de déchets, quand ils ne sont pas maîtrisés, peuvent conduire à l’infiltration et au ruissellement de lixiviats – c’est-à-dire les liquides résiduels après lessivage par la pluie – contaminés par les PFAS. De même, les usines d’incinération des déchets peuvent contribuer à une dispersion de PFAS vers l’atmosphère, notamment en cas de combustion incomplète.

Comment les PFAS polluent les nappes phréatiques et les écosystèmes lointains
Une fois celles-ci dispersées dans l’environnement, le comportement des molécules va varier en fonction de la longueur de leur chaîne carbonée (selon le nombre d’atome de carbone qu’elles contiennent) et de la nature chimique de leur groupe fonctionnel.
Par exemple, l’acide perfluorobutanoïque (PFBA), qui contient une chaîne de quatre atomes de carbones, est plus mobile que l’acide perfluorononanoïque (PFNA), qui a une chaîne de neuf atome de carbone.
Mais certains groupes chimiques influencent aussi la mobilité de la molécule. Ainsi l’acide perfluorooctanoïque (PFOA) est plus mobile que l’acide perfluorooctane sulfonique (PFOS) alors qu’ils contiennent tous deux huit atomes de carbone. Ils diffèrent en réalité par leurs groupes fonctionnels, le premier ayant un groupe carboxylique et le second sulfonique.
Les molécules les moins mobiles vont alors s’accumuler dans le sol et les sédiments, qui vont constituer des stocks secondaires de PFAS qui seront progressivement relargués dans l’environnement à plus ou moins long terme.

Les molécules les plus mobiles, de leur côté, vont s’infiltrer rapidement vers les eaux souterraines ou ruisseler vers les eaux de surface. Elles peuvent migrer sur de longues distances et in fine s’accumuler dans les aquifères, les lacs et les océans et contaminer tous les écosystèmes, même les plus lointains.

Plusieurs études ont ainsi démontré la contamination de la faune sauvage (tels que les ours polaires et les oiseaux marins) via la contamination de la chaîne alimentaire – c’est-à-dire, en se nourrissant d’autres espèces déjà polluées.
Devant ce constat, on comprend pourquoi il est si complexe de légiférer pour mettre en œuvre les mesures préventives et correctives visant à réduire les risques pour la santé humaine et l’environnement.

La situation est d’autant plus délicate qu’il subsiste encore des inconnues scientifiques entourant la toxicité à court ou long terme de certains PFAS. En plus de leur toxicité, la mobilité et la persistance de ces molécules dans l’environnement est un véritable problème notamment pour l’eau potable.

En conséquence, la communauté scientifique n’hésite pas à monter au créneau. Dès 2015, des scientifiques ont appelé à bannir les PFAS. Par la suite, plusieurs pays européens ont déposé, le 13 janvier 2023, une proposition visant à restreindre ou à interdire la plupart des usages des PFAS, à moins qu’il ne soit prouvé un usage essentiel pour la société. Celle-ci couvre environ 10 000 PFAS, dont les polymères.

En attendant que cette démarche au niveau de l’Union européenne aboutisse, la France a elle aussi entamé un processus législatif en proposant d’interdire les vêtements, cosmétiques et farts (revêtement sous les skis) contenant des PFAS à partir de 2026. Le 4 avril 2024, l’Assemblée nationale a voté à l’unanimité [cette proposition de loi]. Elle doit désormais être examinée par le Sénat le 30 mai.

Les récents débats autour de cette proposition de loi montrent qu’obtenir un consensus sur l’interdiction totale des PFAS sera un processus long. Quelle que soit l’issue du processus législatif, des émissions de PFAS restent en cours dans l’environnement. Il faut donc protéger les ressources en eau d’une part, et mieux caractériser les contaminations d’autre part pour protéger la santé humaine et l’environnement.
Les réglementations actuelles prévoient aujourd’hui plusieurs programmes de surveillance pour appréhender à grande échelle la contamination des ressources en eau en France. Ces données nationales sont librement accessibles au grand public sur les sites de l’ADES et de NAIADES.

Il existe plusieurs listes de paramètres à mesurer régulièrement. D’abord dans les eaux de surface :

L’acide perfluorooctane sulfonique(PFOS) est suivi dans les eaux de surface depuis 2013.

Ce suivi a été complété en 2022 par quatre autres composés : l’acide perfluoro-octanoïque (PFOA), l’acide perfluorohexanoïque (PFHxA), l’acide perfluoro-decanoïque (PFDA) et l’acide perfluorohexane sulfonique (PFHxS).

Et dans les eaux souterraines :

Depuis 2015, il est obligatoire de mesurer six composés. Outre les PFOS, PFOA, PFHxA et PFHxS également suivis dans les eaux de surface, sont également suivis l’acide perfluoroheptanoïque (PFHpA) et l’acide perfluorodécane sulfonique (PFDS).

Depuis 2022, la liste a été complétée et contient désormais 20 composés PFAS. Ce sont les mêmes que ceux que l’on suit pour l’eau potable, destinée à la consommation humaine.
La difficulté est de faire l’inventaire exhaustif des PFAS utilisés ou rejetés par chaque industriel. C’est l’un des principaux écueils dans la définition et l’exploitation des données de surveillance, tant pour les eaux potables que pour la surveillance des eaux douces ou des rejets.
Le PTFE (ou Téflon) utilisé comme revêtement dans les poêles anti-adhésives est source de pollution aux PFAS. JPC24M / Flickr, CC BY-SA
Dans ce contexte, en juin 2023, La France a publié un arrêté ministériel relatif à l’analyse des PFAS dans les rejets aqueux de certaines installations classées pour la protection de l’environnement (ICPE). Au-delà de la liste des 20 PFAS à suivre, déjà surveillés dans les eaux destinées à la consommation humaine, les industriels doivent désormais également rechercher les molécules spécifiques à leurs procédés.

Par ailleurs, entre les étapes de synthèse des PFAS et leurs utilisations dans procédés industriels, il y a transformation des molécules, et potentiellement formation de nouveaux produits, parfois inconnus. A partir des PFAS émis dans l’environnement, des produits de dégradation peuvent également se former, dont les PFAS les plus persistants, dits polluants éternels. Selon la littérature scientifique, jusqu’à plusieurs millions de composés PFAS pourraient exister.
Ainsi, la mise en place de ces réglementations implique que les organismes en charge de cette surveillance et les industriels soient en mesure de lister les composés et de réaliser les analyses. Il faut également que toute la chaîne soit opérationnelle, du prélèvement à l’analyse.

La surveillance des PFAS dépend donc directement de l’existence – ou non – de méthodes d’analyse adaptées. Bien que les méthodes analytiques pour les PFAS soient en constant développement, nous sommes, à l’heure actuelle, bien loin de pouvoir tous les analyser. A ce jour, on évalue à seulement une centaine le nombre de molécules pouvant être analysées, et pas dans tous les laboratoires.

Devant la quantité de molécules à surveiller, les chercheurs se tournent de plus en plus vers de nouvelles méthodes dites « globales », qui ont l’ambition d’évaluer la teneur totale en molécules fluorées, de façon non spécifique. Cependant, par rapport aux approches conventionnelles, elles ne permettent pas de quantifier individuellement chaque PFAS.

Malgré les évolutions encore nécessaires, ces données permettent de commencer à étudier le comportement, le devenir et l’impact des PFAS dans l’environnement. Mais les difficultés restent nombreuses, à commencer par la multiplicité des molécules de la famille des PFAS et des différences de comportements qu’elles peuvent présenter.

Des approches expérimentales sont donc nécessaires, sans qu’il soit possible, d’évaluer, de manière exhaustive, l’ensemble des molécules. C’est pourquoi aujourd’hui, des recherches – comme le projet PROMISCES coordonné par le BRGM – sont menées avec l’apport d’approches numériques (in silico) qui ont pour objectif de prédire les propriétés physico-chimiques et toxicologiques des PFAS.

La quantité de travaux scientifiques menés sur les PFAS augmente : plus de 350 publications en 2023 contre une dizaine en 2010. De quoi mieux comprendre leur comportement dans l’environnement et leurs propriétés toxicologiques. Le plan interministériel PFAS vise justement à soutenir l’acquisition de données dans tous les milieux potentiellement impactés et à accompagner l’évolution à venir des différentes réglementations.

Risque de l’IA : Une question de méthode et de démocratisation

Risque de l’IA : Une question de méthode et de démocratisation 

.L’intelligence artificielle a imposé le lexique de la peur. On parle d’invasion de robots venus remplacer les travailleuses et les travailleurs, de rupture technologique et de saut dans l’inconnu. En réalité, la création de la valeur reste absolument identique dans sa méthode depuis Socrate : il faut résoudre des problèmes ! Par Hadj Khelil, fondateur d’Hyko.ai* ( dans  » La Tribune)

Pour y parvenir, il faut d’abord connaître ses problèmes. Savoir les identifier nécessite de construire un pont, un lien entre l’énoncé et le vrai problème, le besoin non pourvu. Cette qualité de problématisation rend possible l’accès à une boite à outils dont la taille varie en fonction des âges. Si l’IA est une révolution de la caisse à outils, elle ne le sera jamais pour ce qui est du talent de problématisation.

Edgar Morin nous a montré la voie, la seconde vague de l’esprit français de Descartes : il nous faut avoir plus de méthode. Comme disait Einstein, il faut rester plus de temps avec les problèmes. Il avait prédit qu’un jour les machines répondraient à toutes les questions, mais nous prévenait déjà qu’elles ne pourraient jamais poser les meilleures questions.

Cette méthode de problématisation, cette gymnastique intellectuelle, c’est un monopole humain, un bastion qu’il faut encourager, former, valoriser. C’est sur celle-ci que nous devons nous appuyer pour dompter l’IA et la mettre au service du plus grand nombre à travers la résolution des grands problèmes de l’humanité. L’ordinateur quantique tant attendu, combiné à la magie de l’IA, pourraient être déterminants dans la réalisation des objectifs de développement durable, plutôt que servir la grande course à la profitabilité et compromettre les souverainetés des humains qui n’auraient pas livré les bons combats.

Le paradoxe veut que l’IA fasse son entrée fracassante dans un monde où les citoyens vont de plus en plus mal. C’est l’aboutissement de la prise de pouvoir des machines, accélérée par la compétition devenue mondialisée et omniprésente, après une phase, aujourd’hui révolue, de croissance effrénée où chacun a vu son temps libre, sa richesse, sa santé et ses libertés croitre.

Le prix à payer pour cette croissance inédite de richesses fut la spécialisation des tâches, censées répondre à des problèmes que l’on a fini par oublier avec la vague d’industrialisation, de normalisation, de standardisation, au nom de l’obsession à la productivité. Ne demeure que la hiérarchie sociale qui en découle, les dividendes sans cesse plus importants (un domaine où notre pays excelle encore) et finalement la conversion des travailleurs en robots. Ils ne comprennent plus à quel problème correspond les tâches qu’ils répètent. Savez-vous quel problème vous réglez dans la vie, et dans le monde ? Même des grands patrons et des dirigeants politiques ne le savent plus vraiment.

Ce n’est pas qu’ils soient stupides mais ils ne sont juste plus habitués à penser en termes de problèmes à résoudre et ont poussé une armée de cadres condamnés aux bullshit jobs à lubrifier les humains robotisés en leur parlant de devoir, puis de sens et enfin de mission. Mais après avoir délocalisé les emplois, le rêve du grand capital est de remplacer l’Homme par une machine sans état d’âme, dans une destruction créatrice qui laisserait des milliards d’entre nous sur le carreau (ces fameux cadres en premier lieu).

Je pense que la solution réside dans le problème, comme toujours. Si l’IA était démocratisée au maximum, elle pourrait répondre à la quête de sens et d’impact des citoyens du monde. S’ils peuvent (encore) répondre aux défis de l’époque et améliorer le monde pour les générations futures, car l’IA va pouvoir accélérer la transition environnementale, la démocratie participative et tout le reste, sans exception.

Puisque personne ne peut arrêter le progrès, il est de notre devoir de protéger les citoyens des tsunamis technologiques qui se profilent en leur offrant des outils pour en tirer profit. Cet outil surpuissant présente de multiples dangers, oui, mais il peut être un outil de libération, d’émancipation et de créativité qui redistribuera les cartes d’un monde devenu trop injuste pour tenir debout et pour vivre ensemble.

C’est pour cela que nous avons développé un outil de prototypage d’applications d’IA sur-mesure, en quelques minutes et sans connaissance informatique. La majeure partie de la valeur, du temps et de l’impact perdus se jouent dans cette phase de prototypage où l’IA permet des économies et un partage des connaissances, des possibles qui progressent à une vitesse délirante.

Cette révolution peut cesser de donner le pouvoir aux tenants de la technologie et le rendre à ceux qui détiennent légitimement le savoir et le savoir-faire, ceux qui connaissent les vrais problèmes et veulent les résoudre pour le bien de tous. Pour cela, il ne tient qu’à nous de la démocratiser en y prenant part, en en profitant pour réactiver ce qu’il y a de plus précieux, commun et humain en nous et dont l’épuisement menace les institutions et les organisations partout dans le monde : notre capacité à raisonner.

La délicieuse ironie de la vie a opéré un formidable retournement, dont elle a le secret, propulsant ainsi les fortunés d’autrefois dans l’enfer des autres. À nous maintenant de travailler au prochain retournement en faisant en sorte qu’il aboutisse à la situation la plus juste possible. Nous croyons fermement que l’IA, à la condition que nous réussissions à embarquer le plus d’humains possible dans l’arche, est une véritable opportunité d’imaginer et de concevoir un monde plus juste articulé sur les savoirs, les compétences, les intuitions de citoyens qui auront dompté l’IA.

_______

(*) Hadj Khelil a fondé le data lab BIG mama en 2014. il a lancé en 2024 Hyko.ai.

Violences scolaires : question prioritaire

Violences scolaires : question  prioritaire

Trois agressions d’élèves très choquantes, dont l’une tout à fait tragique puisqu’elle a engendré la mort d’un collégien de 15 ans, se sont produites en ce début avril à la sortie d’établissements scolaires, suscitant une grande émotion. Vendredi 5 avril, quatre mineurs et un adulte ont été placés en garde à vue dans le cadre de l’enquête ouverte pour « assassinat et violences en réunion aux abords d’un établissement scolaire », en l’occurrence le collège des Sablons à Viry-Châtillon (Essonne). Trois jours auparavant, une collégienne de 13 ans a été rouée de coups – au point d’être momentanément dans le coma – à sa sortie d’un collège de Montpellier par deux mineurs de 14 et 15 ans et une mineure de 15 ans, élèves dans le même établissement. Mercredi 3 avril, à Tours, cinq jeunes filles âgées de 11 à 15 ans ont passé à tabac une collégienne de 14 ans en filmant la scène avec un iPhone. Le motif serait un conflit amoureux. La victime a eu le nez cassé. Ce n’est pas la première fois que des jeunes scolarisés se trouvent impliqués dans des affaires d’une telle violence. Longtemps, les agressions de ce type ont été traitées dans les médias comme de simples faits divers. En 1979, alors même pourtant qu’une enquête d’ampleur était alors menée pour la première fois dans l’Éducation nationale à propos des violences à l’école, on pouvait lire dans Le Monde les titres suivants : « Un collégien de 12 ans tue un camarade dans une bagarre à Aubervillers »« Un lycéen grenoblois de 17 ans blessé à coups de ciseaux en tentant de s’opposer à une tentative de racket ». Mais il faut attendre le début des années 1990 pour que les « violences à l’école » deviennent un thème en soi, récurrent et médiatisé.

 

par 

Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Cité

dans the Conversation

On peut certes citer encore quelques drames qui viennent sur la place publique. Cependant, dans les années 1990, le regard et la réponse institutionnelle portés sur ces drames changent. Le 28 juin 1992, un lycéen âgé de 18 ans s’écroule dans un couloir du lycée technique de Châteauroux après une bagarre avec un autre élève de sa classe de première, inculpé de « coups et blessures volontaires ayant entraîné la mort sans intention de la donner ». Dans la cour du lycée d’Alembert de Saint-Etienne, un lycéen de 19 ans est blessé à mort par un couteau de chasse alors qu’il tentait de défendre l’un de ses camarades pris à partie par quelques jeunes. A la sortie du lycée Amiral-Ronarc’h à Brest, un lycéen de 16 ans est tué d’un coup de feu à l’issue d’une dispute par un lycéen de 16 ans.

Le premier « plan » d’envergure contre la violence à l’école date de 1992. La circulaire du 27 mai 1992 signée par Jack Lang (alors ministre de l’Éducation nationale) et par Paul Quilès (alors ministre de l’Intérieur) met en place pour la première fois dans l’histoire de l’école française une coopération entre Éducation et Police. Des groupes de suivi départementaux sont créés « autour du préfet et de l’inspecteur d’académie avec des représentants des services de la justice, de la police et de la gendarmerie ». Ces groupes départementaux doivent trouver des relais dans des groupes locaux de sécurité (GLAS) et des groupes opérationnels d’établissement (GOP). Ils ont pour ambition – dans le cadre de leur secteur territorial – « d’assurer la sécurité dans les établissements et leurs abords par la réalisation d’un diagnostic de sécurité et d’un plan d’action concret ».

Pour François Bayrou, le successeur de Jack Lang au ministère de l’Éducation l’école doit redevenir un « sanctuaire » comme il le proclame dès le début de l’année 1996 à l’Assemblée nationale :« La violence à l’école n’est pas la violence de l’école ; elle est le reflet de la société. Pendant des décennies, on a plaidé pour une école ouverte qui ne soit plus un sanctuaire, pour que la cité pénètre à l’école. Il faut prendre une position inverse, travailler à resanctuariser l’école ».

Et le soir même de ce discours du 5 février 1996, il préconise sur TF1 l’installation de clôtures autour des établissements. Mais au printemps 1997 Jacques Chirac dissout l’Assemblée nationale, un nouveau Premier ministre, Lionel Jospin, est nommé et s’appuie sur une majorité de gauche « plurielle ». Dans sa Déclaration de politique générale à l’Assemblée nationale du 20 juin 1997, la violence à l’école figure en bonne place :

« La sécurité, garante de la liberté, est un droit fondamental de la personne humaine. L’insécurité menace d’abord les plus faibles et les plus démunis d’entre nous. Nous devons tout particulièrement la sécurité à nos enfants, notamment dans les établissements scolaires. Un plan spécial contre la violence sera mis en place dès la rentrée prochaine ».

Effectivement, un nouveau plan est annoncé le 5 novembre 1997 – le troisième en trois ans. Il diffère des précédents sur deux points :

  • il concentre les efforts sur neuf zones expérimentales pour en finir, est-il dit, avec « le saupoudrage des moyens qui a montré ses limites » ;
  • il change d’échelle quantitative en passant de quelque deux mille appelés (comme dans le plan Bayrou de 1996) à plus de 25000 emplois nouveaux (pour l’essentiel des emplois-jeunes du ministère de l’Éducation), auxquels doivent s’ajouter ceux du ministère de l’Intérieur, soit plus de 8000 « adjoints de sécurité » qui doivent être recrutés avant la fin de l’année.

La fonction de ces adjoints de sécurité est « d’apporter une aide à la sortie des établissements », selon le partage des tâches évoqué par Claude Allègre, ministre de l’Éducation nationale : « Je me charge du problème de la violence à l’intérieur de l’école et Jean-Pierre Chevènement, ministre de l’Intérieur, de l’extérieur ».

En quinze ans, de 1992 à 2006, pas moins de huit plans ou dispositifs ministériels de lutte contre les violences scolaires vont être annoncés. Quand on sait quel peut être le tempo des évolutions réelles dans le système scolaire, cela laisse dubitatif quant à une articulation possible avec le tempo ultrarapide des successions ininterrompues de ces « plans » ministériels, et très sceptique quant à la possibilité de leurs mises en place réelles, d’autant que leur continuité est loin d’être évidente.

Par ailleurs, en 2006, le phénomène du « happy slapping » fait irruption sur la scène scolaire et médiatique. Très à la mode chez certains adolescents en Angleterre, ce « jeu » consiste à gifler ou à boxer quelqu’un au hasard dans un lieu public sans aucune raison ; la scène (qui dure quelques secondes) est filmée à l’aide d’un portable, puis mise en ligne sur Internet et diffusée dans les heures qui suivent l’agression.

Le « Happy slapping » est apparu en France depuis quelques mois, et des dizaines d’adolescents en ont été victimes lorsque, le 24 avril 2006, il atteint pour la première fois une enseignante, professeure au lycée professionnel Lavoisier de Porcheville. L’un de ses élèves lui lance une chaise à la figure, l’accable de coups de poing et continue de la frapper au sol. La scène est filmée par un camarade de classe et diffusée quelques heures plus tard sur les portables de leurs relations.

Le ministre de l’Éducation nationale, Gilles de Robien, prend la mesure de l’émotion du monde enseignant devant ces nouveaux « risques du métier » et les dangers encourus par les élèves. Dans le « guide pratique » envoyé à chaque enseignant par le ministère à la rentrée scolaire 2006 (« Réagir face aux violences en milieu scolaire »), un passage est dûment consacré aux blogs, qui « apparaissent aujourd’hui dans les établissements scolaires comme le moyen de diffuser des images et des messages violents à caractère diffamatoire, raciste, antisémite, pornographique » et un autre au « happy slapping » :

« Le “happy slapping” est un phénomène de plus en plus répandu, et banalisé par les élèves dans les établissements scolaires. Face à ces actes, le personnel doit rappeler à ceux qui filment comme à ceux qui regardent qu’il s’agit de non-assistance à personne en danger ; que les auteurs, les agresseurs et les personnes qui ont filmé risquent des condamnations pénales. »

Malgré cette succession de plans, le problème des violences à l’école n’est pas en voie de résolution, tant s’en faut. À la suite de la réunion interministérielle qui s’est déroulée le 4 avril dernier en présence de Gérald Darmanin, ministre de l’Intérieur, Nicole Belloubet, ministre de l’Éducation nationale, et Eric Dupont-Moretti, ministre de la Justice, et qui a rassemblé recteurs, préfets et procureurs généraux, plusieurs nouvelles dispositions ont été annoncées.

Des « services de défense et de sécurité académique rassemblant l’ensemble des missions académiques liées à la sécurisation de l’espace scolaire », seront créés d’ici septembre 2024 « afin de répondre à l’objectif de renforcement de la prise en compte des enjeux de sécurité par l’institution ». Une « équipe mobile de sécurité nationale » composée d’une vingtaine d’agents expérimentés sera disposée à « intervenir sur tout le territoire en moins de 48 h en cas de crise aiguë autour d’une école ou d’un établissement ».

Un « réseau d’appui éducatif » permettant de déployer « une unité mobile d’assistants d’éducation pour protéger plusieurs enceintes scolaires avec des moyens supplémentaires afin d’apaiser le climat scolaire dans et autour des enceintes » sera expérimenté. Cette dernière mesure qui vise à répondre notamment à la sécurisation aux abords des établissements est montée au premier plan en raison des trois agressions dramatiques et fortement médiatisées de la semaine dernière. Elle est loin de faire l’unanimité car il peut apparaître que ce serait un dévoiement du rôle des agents prévus pour les composer (les AED, assistants d’éducation), qui ne sont pas formés pour être des « agents de sécurité ».

Pesticides : La question de l’évaluation

 

 

….En tant que membres du Comité Scientifique et Technique du plan Ecophyto, comité indépendant des pilotes du plan, nous avons notamment pour mission de guider le choix des indicateurs. Dans ce texte, nous souhaitons préciser la nature de ces derniers et en clarifier les enjeux. ( dans The Conversation)

La mise en œuvre, le suivi et l’évaluation des politiques publiques nécessitent la définition d’indicateurs quantitatifs. Mais pour construire des indicateurs pertinents, il faut faire des choix quant à la nature de ce que l’on mesure, et à la façon dont on le définit.

Du fait de ces choix, les indicateurs, y compris agro-environnementaux, sont par nature imparfaits. Une quantification des ventes décrira imparfaitement la toxicité et l’écotoxicité des produits, mais même un indicateur spécifique de la toxicité pose le problème de la définition des écosystèmes et espèces touchées : humains, insectes, faune du sol ou des cours d’eau… tous sont différents par leur exposition, mais surtout par leur sensibilité aux différentes substances actives.

Face à cette complexité, il est utile de se rappeler qu’un indicateur doit éclairer une décision. Il faut trouver un compromis entre pertinence et accessibilité des données mobilisées pour le calculer.

Devant la difficulté de connaître l’utilisation de produits dans les champs, il a été choisi, aux niveaux français comme européen, de mesurer les ventes au niveau des distributeurs, par année civile.

Il faut garder à l’esprit que la quantification des ventes ne permet pas de suivre les pratiques agricoles en temps réel, puisque les produits sont achetés à l’avance et que les agriculteurs adaptent leur utilisation au statut agronomique de leurs parcelles (mauvaises herbes, maladies, infestations par des insectes…).

En France, le suivi des ventes a été rendu possible par la création de la redevance pour pollutions diffuses (RPD) en 2008, qui est une taxe payée par les utilisateurs de produits phytopharmaceutiques. Sa mise en œuvre a permis l’enregistrement de toutes les ventes de produits phytopharmaceutiques en France dans une base de données (BNVD).

À partir des données de vente, plusieurs indicateurs ont été proposés dans le débat public. Nous les présentons brièvement ci-après.

La QSA correspond à la masse totale de substances actives dans les produits vendus au cours d’une année civile. Sa simplicité d’utilisation apparente voile un travers majeur : elle cumule des substances ayant des doses d’application par hectare très différentes, ce qui revient à additionner des choux et des carottes.

Par analogie, c’est comme si l’industrie pharmaceutique additionnait les masses de médicaments ayant des posologies radicalement différentes. Or, pour les traitements phytopharmaceutiques, les « posologies » varient fréquemment d’un facteur 1 à 100. Des substances potentiellement très toxiques, mais actives à beaucoup plus faible dose peuvent ainsi se retrouver « masquées » par d’autres substances.

Par exemple, les insecticides sont généralement efficaces à très faibles doses. Par conséquent, ces derniers ne représentent que 1,8 % de la QSA moyenne annuelle sur la période 2012-2022, alors qu’ils représentent environ 15 % des traitements.

Par ailleurs, l’industrie phytopharmaceutique tend à produire des substances de plus en plus légères pour une efficacité donnée. Par conséquent, la QSA peut baisser au cours du temps sans que cela soit lié à une diminution du nombre de traitements, ou à une baisse de toxicité des substances utilisées.

Par exemple, un herbicide en cours d’homologation serait efficace à un gramme par hectare, soit plus de 1000 fois moins que le glyphosate, efficace à plus d’un kilogramme à l’hectare. Si cette substance venait à remplacer les herbicides actuels, et notamment le glyphosate, la QSA pourrait baisser soudainement d’un tiers, sans que les pratiques ni leur toxicité potentielle n’aient changé.

Le NoDU agricole est l’indicateur de référence du plan Ecophyto depuis sa création en 2008. Historiquement, il a été construit par des scientifiques d’INRAE en lien avec les pouvoirs publics pour pallier les faiblesses de la QSA.

Sans rentrer dans les détails, on peut dire qu’il corrige le problème de la grande diversité des doses auxquelles sont utilisées les substances actives, en divisant chaque quantité de substance commercialisée par une dose de référence à l’hectare, appelée « dose unité » (DU).

Le NoDU correspond ainsi au cumul des surfaces (en hectares) qui seraient traitées à ces doses de référence. Cette surface théorique est supérieure à la surface agricole française, puisque les cultures sont généralement traitées plusieurs fois.

Le calcul de la dose unité, complexe et détaillé au paragraphe suivant, s’appuie sur les doses maximales autorisées lors d’un traitement (doses homologuées). Ces doses sont validées par l’Anses sur la base de l’efficacité et de la toxicité et écotoxicité de chaque produit.

Dans le NoDU, les substances appliquées à une dose inférieure à 100 g par hectare sont bien prises en compte : elles représentent la large majorité du NoDU. Dans la QSA au contraire, les quelques substances appliquées à plus de 100 g par hectare représentent la grande majorité de la QSA et invisibilisent les autres substances.

Bien que les indications données par le NoDU permettent de caractériser l’évolution du recours aux produits phytopharmaceutiques, il pose néanmoins des problèmes, liés notamment à la complexité du calcul des doses unités.

Commençons par préciser que lorsqu’une substance est présente dans plusieurs produits commercialisés, chaque produit va être homologué sur plusieurs cultures et pour différents usages, potentiellement à différentes doses.

La dose unité est définie, de manière complexe mais précise, comme la moyenne des maxima, par culture, des doses homologuées pour une substance une année civile donnée. Cette moyenne est pondérée par la surface relative de chaque culture en France.

Chaque année, le NoDU est calculé avec les doses unités de l’année et les NoDU des années précédentes sont recalculés avec ces doses unités pour éviter que les changements réglementaires affectent les tendances observées.

Le calcul des doses unités, tout à fait justifié du point de vue conceptuel, entraîne en pratique d’importantes difficultés :

  • la définition est difficile à comprendre, ce qui en soi est un problème pour un indicateur aussi important ;
  • l’utilisation des surfaces de culture implique d’attendre la publication de ces valeurs, ce qui retarde d’autant le calcul du NoDU. Pourtant, tenir compte des surfaces cultivées n’a qu’un impact très faible sur le résultat obtenu au niveau national. C’est également un frein à la généralisation du calcul à d’autres échelles géographiques ;
  • l’utilisation des maxima des doses homologuées augmente la sensibilité du calcul aux évolutions réglementaires, ainsi qu’aux erreurs potentiellement présentes dans les bases de données.

Cependant, et malgré les évolutions de surfaces de culture et de réglementation d’une année à l’autre, l’utilisation des doses unités d’une année ou d’une autre ne font varier la valeur du NoDU que de quelques pourcents au niveau national.

Pour faciliter la compréhension et le calcul du NoDU, tant au niveau régional qu’européen, nous recommandons de définir la dose unité d’une substance comme la médiane de toutes ses doses homologuées – plutôt que la moyenne des maxima des doses homologuées par culture, pondérée par la surface relative de chaque culture.

Cette modification ne remettrait pas en cause le principe général du NoDU pour caractériser les ventes des produits phytopharmaceutiques en tenant compte des doses homologuées.

Enfin, les variations du NoDU en fonction l’année de calcul des doses unités deviendraient indétectables. De plus, nous avons montré que l’indicateur résultant est extrêmement corrélé au NoDU actuel. De sorte que même si les valeurs absolues sont différentes, les évolutions restent identiques.

Depuis 2009, première année de collecte des données de vente, le NoDU a augmenté de 15 à 20 % jusqu’en 2014, puis s’est stabilisé jusqu’en 2017. S’en est suivi deux années exceptionnelles d’augmentation (stockage en 2018) puis de diminution (déstockage en 2019) liées à l’annonce, en 2018, de l’augmentation de la RPD au 1er janvier 2019. Depuis 2020, la valeur du NoDU s’est alors stabilisée à nouveau à un niveau proche de celui de 2009-2012.

Cette dernière baisse pourrait être liée à l’augmentation de la RPD en 2019 mais aussi à des conditions climatiques globalement défavorables aux pathogènes et aux ravageurs ces trois dernières années.

La relative stabilité du NoDU pour l’ensemble des substances entre 2009 et 2022 peut donner une impression d’immobilisme. Cependant, le plan Ecophyto prévoit aussi le calcul du NoDU sur la base plus restreinte des substances identifiées dans le code du travail comme cancérogènes, mutagènes ou toxiques pour la reproduction (CMR) aux effets avérés ou supposés (CMR1) ou suspectés (CMR2). Ces substances particulièrement toxiques doivent en effet être éliminées en priorité.

Or, le NoDU pour les CMR1, les plus dangereuses, a baissé de 88 % entre 2009 et 2020 (voir graphe ci-dessous), avant d’approcher 0 % en 2022. Les CMR dans leur ensemble ont vu leur NoDU diminuer de 40 % entre 2009 et 2020. Cette baisse met en évidence les changements importants permis par l’évolution réglementaire d’une part, et par l’adaptation des agriculteurs à ces évolutions d’autre part

Autrement dit, oui, le NoDU a été utile pour quantifier la limitation de l’usage des produits phytopharmaceutiques dangereux. De plus, et contrairement à ce qui aurait pu arriver, cette élimination des produits les plus dangereux, et potentiellement les plus efficaces, n’a pas entraîné une augmentation des traitements dans leur ensemble.

C’est d’autant plus remarquable que l’interdiction de traitements de semences (par exemple néonicotinoïdes sur colza), non inclus dans le NoDU, a sans doute entraîné l’utilisation de traitements en végétation (par exemple contre les altises à l’automne) qui eux sont comptabilisés dans le NoDU. Il faudrait donc profiter de la réflexion actuelle sur les indicateurs pour intégrer l’ensemble des substances actives utilisées pour les traitements de semences dans le calcul.

Au niveau européen, d’autres indicateurs ont été proposés : les HRI-1 et 2 (Harmonized Risk Indicator, prévu par la directive n°2009/128) et les F2F-1 et 2 (Farm to Fork, prévu dans la stratégie de la Ferme à la Table).

Les indicateurs HRI-1 et F2F-1 sont jumeaux, puisqu’ils ne diffèrent que par l’éventail des substances prises en compte et par les périodes de référence considérées. Tous deux prennent en compte la masse de substances actives, comme le fait la QSA, mais en les pondérant en fonction de leur appartenance à des groupes de « risque » : 1 pour les substances de faible risque, 8 pour les substances autorisées, 16 pour les substances dont l’interdiction est envisagée, et enfin 64 pour les substances interdites.

Ces indicateurs européens sont problématiques pour plusieurs raisons :

  • tout d’abord les masses ne sont pas rapportées à des doses d’usage ;
  • de surcroît, en France, environ 80 % des substances vendues sont par défaut classées dans le second groupe (substances « autorisées »), ce classement est donc peu discriminant ;
  • enfin, les valeurs de pondération utilisées pour le calcul de ces indicateurs sont arbitraires et ne sont étayées par aucun résultat scientifique.

Le NoDU n’est aujourd’hui utilisé qu’en France mais il suffirait de simplifier son calcul, tel que nous le proposons, pour le rendre utilisable à l’échelle européenne.

Les doses maximales autorisées par application peuvent varier entre pays européens, la dose unité pourrait donc correspondre à la médiane de toutes les doses homologuées en Europe. Le calcul serait simple, pertinent et applicable partout en Europe. Cette méthode pourrait aussi être utilisée pour calculer l’évolution des ventes pour chaque groupe de « risque » défini actuellement au niveau européen.

Une autre option acceptable pourrait être que les indicateurs européens soient modifiés pour utiliser, au sein de chaque groupe, un équivalent au NoDU et non une masse totale de substance. C’est fondamentalement ce que l’agence environnementale allemande propose bien qu’elle critique aussi les coefficients de pondération du HRI-1.

Par ailleurs, il apparaît difficile d’embrasser la complexité de la question de l’utilisation des produits phytopharmaceutiques avec un unique indicateur. Idéalement, il faudrait que le plan Ecophyto se dote d’un panel d’indicateurs complémentaires permettant de décrire :

  • l’intensité de l’utilisation des produits phytopharmaceutiques ;
  • les services agronomiques rendus par les produits phytopharmaceutiques ;
  • les risques pour la santé humaine ;
  • les risques pour la biodiversité.

Quelles que soient les options choisies, le comité alerte sur la nécessité de conserver un indicateur prenant en compte les doses d’usage, tel que le NoDU. Cet indicateur doit continuer d’une part d’être appliqué à l’ensemble des ventes pour caractériser la quantité totale de traitement et d’autre part d’être appliqué aux substances les plus préoccupantes pour quantifier l’effort d’arrêt des substances les plus dangereuses.


Pour citer cet article : Barbu Corentin, Aulagnier Alexis, Gallien Marc, Gouy-Boussada Véronique, Labeyrie Baptiste, Le Bellec Fabrice, Maugin Emilie, Ozier-Lafontaine Harry, Richard Freddie-Jeanne, Walker Anne-Sophie, Humbert Laura, Garnault Maxime, Omnès François, Aubertot JN. « Plan Ecophyto : tout comprendre aux annonces du gouvernement », The Conversation, 21 février 2024.

La technoscience remet en question de la valeur du temps 

La technoscience remet en question de la valeur du temps 

Le chercheur en finance Karl Eychenne s’interroge, dans une tribune au « Monde », sur les effets des promesses de « l’homme augmenté » sur l’« homo economicus ».

Le temps n’est pas un bien ordinaire. Sa valeur dépend du « reste à vivre », c’est-à-dire de la durée qui nous sépare du trépas. Plus cette durée est faible, plus le temps nous est précieux. Inversement, plus cette durée est grande, et plus nous jetons le temps par les fenêtres. Alors quand la technoscience nous promet de repousser toujours plus loin les frontières du vivant, nous imaginons le cours du temps s’effondrer. Vieillir pour ne pas mourir, voilà le projet.

La technoscience nous propose la vieillesse durable augmentée comme horizon existentiel. Mais il y a un prix à payer : la faillite de l’instant. La technoscience est une espèce de sacrilège, pour parler comme le philosophe de La Mort, Vladimir Jankélévitch (1903-1985) : elle confisque à l’homme le goût de l’instant.

Terrible nouvelle pour l’Homo economicus. En effet, il a toujours cru qu’« un tiens vaut mieux que deux tu l’auras ». Le prix du présent est prohibitif, et les prix d’après sont au rabais, affirme la théorie économique. Mais que devient cette nuance si la technoscience dessaisit l’instant présent de son temps d’avance sur les autres ? La théorie dispose de bons outils, mais s’épuise à creuser au mauvais endroit.

Elle imagine un Homo economicus dont le summum bonum serait de constituer le maximum de bien-être jusqu’à son dernier souffle. Comment optimiser le « reste à vivre » ? Comment allouer au mieux le temps disponible ? Telles seraient les questions existentielles que se pose l’agent économique. Mais les rapports ambigus que l’homme entretient avec le trépas ne peuvent se résumer à un tel modèle formel.

Certes, la recherche académique fait preuve d’imagination, dépliant son concept de préférence pour le présent en de subtiles variations (« La valeur psychologique du temps : une synthèse de la littérature », Hubert de La Bruslerie et Florent Pratlong, L’Actualité économique, n° 88/3, 2012) : l’aversion pour le risque, la préférence intertemporelle, le degré d’impatience, ou le sympathique altruisme pour le « moi futur ».

Ce dernier effet mérite d’ailleurs le détour. En effet, rien n’assure que le moi de demain sera le même moi qu’aujourd’hui. Dans ce cas, pourquoi se montrer si charitable envers celui qui ne sera peut-être pas moi ? La théorie économique n’est pas naïve, elle est juste fautive. A l’absurdité de la vie, elle ajoute la sécheresse d’une…

La question du redoublement à l’école, un débat trop politique ?

La question du redoublement à l’école, un débat trop politique ?

Le ministre de l’Éducation nationale Gabriel Attal vient de déclarer au congrès des maires de France qu’« il faut revoir la question du tabou du redoublement : un élève qui entre en sixième sans savoir ni lire ni compter, c’est quasiment de la maltraitance ». Un « tabou » qui est loin d’être évident si l’on prend en compte qu’il y a 30 ans la moitié des élèves de troisième avaient redoublé au moins une fois, et le quart il y a 10 ans. Nombre de Français doivent donc penser par « expérience » que le redoublement fait partie de la « normalité », en dépit des études de suivi en la matière qui concluent au caractère inutile, voire néfaste, de la plupart des types de redoublement.

Enseignant-chercheur en histoire de l’éducation, professeur honoraire à Paris-Descartes, Université Paris Cité dans The Conversation

Ce n’est pas la première fois que la question du redoublement, qu’on aurait pu croire réglée, revient sur le devant de la scène. Un autre ministre de l’Éducation nationale, Jean-Michel Blanquer, avait déjà déclaré dans un entretien au Parisien en juin 2017 qu’« il n’est pas normal d’interdire le redoublement : il y a quelque chose d’absurde à laisser passer de classe en classe des élèves accumulant les retards ».

On peut noter la similitude de la mise en cause des deux ministres à six ans d’intervalle, d’autant plus que Jean-Michel Blanquer a pris effectivement un décret en ce sens dès 2018 : « À titre exceptionnel, dans le cas où le dispositif d’accompagnement pédagogique mis en place n’a pas permis de pallier les difficultés d’apprentissage rencontrées par l’élève, un redoublement peut être proposé par le conseil de classe »

Ce décret succédait à un décret pris en 2014 par la ministre de l’Éducation nationale qui l’avait précédé, Najat-Vallaud Belkacem. Ce décret pris en application de la loi de refondation de l’école de juillet 2013 qui prônait son « caractère exceptionnel » limitait le redoublement aux seuls cas de « ruptures des apprentissages » (une longue absence pour maladie par exemple) et aux situations dans lesquelles un élève n’obtiendrait pas l’orientation souhaitée en fin de troisième ou de seconde si les parents en faisaient la demande.

Ces dispositions réglementaires n’étaient pas survenues par hasard. Elles s’inscrivaient dans une longue évolution de la baisse des taux de redoublements plus ou moins encouragée par ses prédécesseurs et dans le contexte des conclusions de l’enquête internationale PISA rendues publiques fin décembre 2012 sur le sujet.

« En France, 28 % des élèves de 15 ans ont indiqué avoir redoublé au moins une fois, contre 12 % en moyenne dans les pays de l’OCDE […] Les résultats de l’enquête PISA 2012 montrent que, dans les systèmes qui pratiquent le redoublement, l’impact du milieu socio-économique des élèves sur leur performance est plus élevé […]. Les établissements qui ont une forte proportion d’élèves de 15 ans ayant redoublé au moins une fois obtiennent de moins bons résultats que ceux où cette proportion est moins importante. De même, en règle générale, les pays où le redoublement est une pratique courante pour gérer la difficulté scolaire ont de moins bons résultats que les autres pays. »

Ces résultats sont sans doute de l’ordre du contre-intuitif dans un pays où le redoublement a été longtemps pratiqué à haute dose et peut donc apparaître comme de l’ordre du « bon sens » pour nombre d’enseignants et de parents d’élèves, encore maintenant. C’est sans doute aussi ce qui explique la prudence de certains décideurs, voire des allers et retours en la matière parfois surprenants, aussi bien dans les décisions que dans la sphère politico-médiatique. Car le débat à ce sujet est récurrent et ne date pas d’hier.

Par exemple, si l’on en juge par une enquête menée en 2004 par la Sofres, la moitié des parents d’élèves dont l’enfant avait redoublé une ou plusieurs fois à l’école élémentaire considéraient que cela avait été une très bonne chose ; même si, parmi les parents d’élèves dont il avait été seulement envisagé que leur enfant redouble dans le primaire sans que cela se fasse, les trois quarts considéraient que c’était mieux que leur enfant n’ait pas redoublé et un quart qu’il aurait mieux valu qu’ils redoublent.

En cette même année 2004, le ministre de l’Éducation nationale François Fillon se prononce pour faciliter la pratique du redoublement (alors encore pourtant fortement répandue) en accusant la loi d’orientation de 1989 d’avoir « conduit à enlever aux enseignants leur pouvoir de décision en matière de redoublement ; or aucune étude ne démontre que passer automatiquement dans la classe supérieure soit un gage de réussite ».

La loi d’orientation du 25 avril 2005, dite loi Fillon, légitime la pratique du redoublement avec toutefois une condition à l’école primaire : « lorsqu’un redoublement est décidé et afin d’en assurer l’efficacité pédagogique, un programme personnalisé de réussite éducative est mis en place » selon le décret d’application sur les dispositifs d’aide et de soutien à l’école.

Le décret de 2018 pris par Jean-Michel Blanquer est toujours en vigueur. Par rapport à 2017, que constate-t-on dans les évolutions des taux de redoublements par niveau ? Au CP, il a doublé, passant de 1 % en 2017 à 2 % en 2022. Et aussi au CE1, où il est passé de 0,7 % à 1,4 %. Une évolution significative donc au niveau des deux classes particulièrement cruciales de l’élémentaire. Le taux de redoublement est en revanche resté quasiment stable au collège, passant de 0,6 % à 0,5 % en classe de cinquième et quatrième, et de 2,4 % à 2,2 % en troisième.

Que veut exactement Gabriel Attal ? S’agit-il seulement d’un « effet d’annonce » ou bien d’autre chose. Mais quoi exactement et pour quoi ?

Environnement: la question des ressources

Environnement: la question des ressources

Les ressources a priori n’existent pas. Une ressource, en effet, ce n’est pas une qualité substantielle que certaines choses auraient alors que d’autres non. C’est plutôt une relation d’usage, un rapport de moyen à fin. Toute chose peut tenir lieu de ressource, mais le monde n’est pas composé de ressources a priori. Ainsi le pétrole ne se donne pas comme ressource dans l’environnement, il faut un travail considérable pour qu’il puisse finalement servir à la locomotion. L’eau s’offre parfois de façon plus spontanée. Mais pour devenir ressource et servir à l’agriculture — ou à la continuité physiologique des êtres vivants — elle doit en général être découverte, stockée (dans le creux d’une main aussi bien que dans un réservoir), canalisée, traitée et/ou transportée.

par Léo Mariani, Muséum national d’histoire naturelle (MNHN) dans the Conversation

Ce qui qualifie une ressource, c’est donc un caractère de disponibilité, conséquence d’un travail plus ou moins important de mise à disposition. Bien sûr, toutes les sociétés humaines ont été dans ce type de rapport avec certaines choses, y compris les sociétés de chasseurs-cueilleurs : tous les humains sont pris dans des rapports de moyen à fin.

Toutes n’ont cependant pas voulu systématiser et/ou naturaliser cette forme utilitariste de rapport. Les travaux d’anthropologues comme Anna Tsing, James C. Scott ou du sociologue Hartmut Rosa suggèrent même que c’est précisément là ce qui singularise les sociétés capitalistes contemporaines.

La première citée s’appuie ainsi sur le modèle de la plantation de canne à sucre pour incarner l’épistémologie de la modernité. Dans ce modèle, le caractère de disponibilité se décline dans les forces de travail (esclaves et/ou travailleurs pauvres) jusque dans les végétaux (variétés sélectionnées à dessein) et les écologies, « appauvries » parce qu’elles sont entièrement subordonnées à des objectifs de production.

Dans des mondes qui se sont ainsi construits sur le principe de l’accessibilité des ressources, les injonctions à les préserver posent donc au moins deux problèmes, dont il convient plus que jamais d’avoir conscience.

D’abord parce qu’elles tendent à faire oublier ce qu’il en coûte de produire des ressources : la disponibilité invisibilise le travail de mise à disposition.

Elle écrase les perspectives temporelles et spatiales, comme si avoir accès à l’eau courante et pouvoir la « consommer » de façon responsable (ou non) allait de soi. En contribuant à la naturalisation du caractère acquis de ressource, elle aplatit le monde.

L’invitation à préserver les ressources forme par ailleurs un oxymore aux implications délétères : elle définit des choses (du pétrole, de l’eau, des plantes, etc.) par leur destination (leur vocation de consommables), mais elle demande de ne pas les y réduire.

Parce qu’elle favorise l’usage, la mise en ressource du monde augmente enfin mécaniquement l’impératif de son contrôle : rendez l’eau ou le chocolat disponibles à tout moment et vous augmenterez sûrement la tentation… En même temps, par conséquent, que le besoin de la refréner.

Avec l’abondance de la ressource, peut émerger un sentiment de culpabilité.

D’où l’inflation contemporaine de normes expressément promues pour amoindrir la disponibilité qu’on a paradoxalement faite acquérir aux choses. D’où peut-être, aussi, l’émergence et la diffusion d’un sentiment de culpabilité, l’impression légitime de ne pas pouvoir être à la hauteur d’une exigence de modération qui est exactement proportionnelle à la facilité d’accès.

Enjoindre à préserver les ressources c’est, en somme, concentrer l’attention sur l’usure — enjoindre à préserver, économiser, gérer — sans contester l’usage, le caractère de disponibilité. On fait ainsi peser toute la responsabilité de la modération sur le public, comme si le problème n’était pas aussi celui de la mise en ressource, et de celles et ceux qui l’exacerbent.

Préserver les ressources est peut-être nécessaire, mais changer de rapports au vivant et/ou à la biodiversité ou à la terre implique beaucoup plus. Il faut changer de rapport, justement, ne pas se contenter de le faire varier en degré (d’économiser, de gérer, de préserver) mais changer sa nature.

Nous ne pouvons plus nous contenter de réduire la pression sur les ressources, de réaliser des économies ou d’être plus respectueux. Ce ne sont là que des normes humaines, en effet, des choix dont on peut discuter les vertus, mais qui prennent le rapport à la ressource pour donné.

Pour penser autrement, on pourrait commencer par suivre le sociologue Hartmut Rosa et chercher à « rendre le monde indisponible », moins disponible a minima. Cela implique, éventuellement, de mieux accepter les moments — en réalité, nombreux — où il ne l’est pas, en rendant par exemple leur saisonnalité aux tomates ou aux fraises, en nous forçant ainsi à dépendre davantage de notre environnement et de ses temporalités.

On irait alors à rebours de la modernité, qui s’est précisément construite autour d’un idéal d’autonomisation, contre cette hétéronomie (étymologiquement, « autre norme », soit le fait de vivre selon des règles imposées par autrui ou autre chose), en refusant que l’humanité soit normée de l’extérieur et dépendante d’une variabilité qu’elle n’aurait pas tout à fait choisie.

C’est même ainsi qu’elle a conçu la liberté, dans cet élan émancipateur, portée par son extraordinaire capacité à ne dépendre que d’elle-même. Finalement, le concept de ressource exprime l’impasse dans laquelle ce fantasme d’autonomie conduit. Réfléchir à l’indisponibilité des choses et à l’hétéronomie des rapports au monde est une façon de remettre la question de la dépendance au cœur des pensées du futur.

Cela implique, évidemment, de ne plus toujours l’envisager comme une contrainte et une aliénation, mais aussi de la considérer comme une opportunité :

pour le vivant d’abord, dans la mesure où dépendre de l’environnement, ne plus l’avoir indéfiniment comme ressource, est une façon de favoriser son déploiement au-delà de tout contrôle anthropique.

Pour les humains ensuite, parce que la dépendance est une reconnaissance de l’altérité. Elle demande de « faire avec ». À ce titre elle est susceptible de les contraindre parfois, mais aussi de les étonner et de les enrichir, de les sortir en tous cas du narcissisme dans lequel les plonge la projection sans cesse renouvelée de leur volonté sur le monde, et cela qu’elle soit « bonne » ou « mauvaise ».

En tout cas, c’est ce que suggèrent les travaux que j’ai déjà réalisés en la matière, ainsi que d’autres travaux en cours ou qui ont été produits par quelques étudiants.

Ils montrent aussi que les sciences humaines et sociales ont beaucoup à apporter en ce sens, en particulier lorsque, comme l’anthropologie et l’archéologie, elles s’intéressent à des groupes humains qui ont choisi d’accueillir et d’explorer leurs dépendances. Elles offrent ainsi de puissants outils pour penser un avenir moins univoque que celui de la modernité.

Fret ferroviaire Lyon–Turin : pas seulement une question d’ infrastructure

Fret ferroviaire Lyon–Turin : pas seulement une question d’ infrastructure

Par
Pierre-Louis Rémy

Ancien membre du Conseil d’administration de la SNCF, représentant de l’Etat

Le tunnel ferroviaire entre Lyon et Turin doit apporter de la souplesse et de la fiabilité aux transporteurs et aux affréteurs, sans quoi il ne pourra concurrencer la route, explique l’ancien haut fonctionnaire Pierre-Louis Rémy, dans une tribune au « Monde ».

Habitant la Maurienne depuis plus de trente ans, j’ai entendu les arguments des partisans et des adversaires du tunnel ferroviaire Lyon-Turin. Tous s’affirment comme partisans du transfert modal de la route vers le rail. Cela n’est pas surprenant, puisque environ 800 000 poids lourds traversent, chaque année, notre vallée ; mais pour les uns ce projet est inutile, coûteux et porteur de nuisances, pour les autres il est indispensable.

Le débat s’est ainsi focalisé sur l’opportunité du tunnel de base. Il est sans issue : qui peut juger de la pertinence d’une infrastructure dont la durée de vie dépassera probablement cent cinquante ans (l’actuel tunnel du Mont-Cenis date de 1871), même si on reconnaît que les conditions économiques et de trafic ne sont plus celles qu’on envisageait dans les années 1990, quand ont été lancés les projets de grands tunnels alpins, Gothard, Lötschberg, Brenner… Et les livres d’histoire nous rappellent les manifestations contre l’installation des premières voies ferrées au XIXe siècle.

Les possibilités d’accroître le trafic sous le tunnel existant sont réelles, mais minimes pour les uns, importantes pour les autres, selon notamment l’interprétation faite des règles de sécurité. Force, en tout cas, est de constater que, malgré les travaux de modernisation importants réalisés sur le tunnel actuel entre 2003 et 2011, le trafic ferroviaire de marchandises n’a pas augmenté, mais plutôt diminué. Et, depuis une quinzaine d’années, en France, la route a absorbé l’essentiel de l’augmentation du trafic de marchandises.

C’est que le développement du transport de fret ferroviaire ne dépend pas seulement des infrastructures. Bien sûr, celles-ci sont indispensables. Mais elles ne peuvent se limiter aux quelques dizaines de kilomètres du tunnel de base. La rentabilité et la pertinence environnementale du transfert modal sont d’autant plus fortes qu’elles portent sur des trajets longs. Et ce qui est légitimement mis en avant par les partisans du nouveau tunnel, ce sont les trajets de l’Espagne ou du nord de la France et de l’Europe vers l’Italie et au-delà. C’est pourquoi la question de l’organisation des accès est primordiale ; accès proche d’abord depuis la région lyonnaise.

Aujourd’hui, on parle d’une échéance 2045, voire au-delà, alors que le tunnel doit ouvrir en 2032 et que le dérèglement climatique n’attend pas. Les tergiversations, les retards dans les décisions relatives aux accès minent la crédibilité de l’Etat dans sa volonté de favoriser le transfert modal ; d’autant plus que, si le tunnel central est très largement financé par des fonds européens, les accès relèvent principalement de la responsabilité de chaque Etat national. Le tunnel sans accès, c’est un transfert modal limité et des nuisances supplémentaires liées à l’accroissement du trafic marchandises qu’on peut cependant envisager, ainsi qu’une détérioration accrue du trafic voyageurs.

Il vous reste 44.55% de cet article à lire. La suite est réservée aux abonnés.

Contenus sponsorisés

La suite est réservée à nos abonnés.
Déjà abon

La question de l’accessibilité aux soins

La question de l’accessibilité aux soins


Les initiatives locales ou nationales destinées à l’améliorer sont nombreuses. Encore très récemment, une proposition de loi contre les déserts médicaux déposée à l’Assemblée nationale suggérait par exemple de contraindre l’installation des médecins dans des territoires sous dotés : cette dernière serait soumise, pour les médecins et les chirurgiens-dentistes, à une autorisation délivrée par les Agences régionales de santé (ARS). L’accessibilité aux soins est, de manière générale, évaluée par l’adéquation spatiale entre l’offre et la demande de soins. Mais si, pour mesurer cette adéquation, l’offre de soins dans les territoires est relativement bien connue (notamment grâce à une bonne connaissance de la densité de médecins généralistes ou spécialistes et des temps d’accès des patients à ces praticiens), la demande de soins est souvent simplement estimée d’après le nombre potentiel de patients d’un territoire et leur âge. Or ces deux données préjugent assez peu de leurs besoins effectifs de soins ou de leurs contraintes de déplacement (logistiques, familiales, professionnelles…). Dès lors, dans des territoires qualifiés de « sous dotés », l’accès aux soins est très variable : il n’est pas systématiquement difficile… tout comme dans des territoires suffisamment dotés, il n’est pas automatiquement plus aisé.

Il convient donc de dépasser une lecture simplificatrice liant uniquement densité des ressources médicales et accessibilité.

par Laurent Mériade
Professeur des Universités en sciences de gestion – Titulaire de la chaire de recherche « santé et territoires » – IAE, Université Clermont Auvergne (UCA)

Corinne Rochette
Professeure des universités en management public et de la santé HDR, Titulaire de la chaire de recherche Santé et territoires, IAE- Université Clermont Auvergne, Université Clermont Auvergne (UCA)

Éric Langlois
Ingénieur d’études en géomatique, docteur en géographie, UMR Territoires, Université Clermont Auvergne, Université Clermont Auvergne (UCA)

Milhan Chaze
Ingénieur de recherche en géographie dans the Conversation

Pour rendre compte des difficultés réelles d’accès aux soins, une lecture véritablement centrée sur le patient est préférable. C’est ce que permet l’étude du parcours de soins, qui renvoie aux soins (soins hospitaliers et de ville) et aux services de santé connexes (pharmacie, radiologie, laboratoire) nécessaires à la prise en charge d’une pathologie. Il a l’avantage de fournir une description détaillée des besoins en soins, de questionner leur articulation et d’inclure la dimension spatiale indissociable de la notion de parcours.

L’Accessibilité potentielle localisée (APL), un indicateur incontournable

Les principales mesures des difficultés d’accès aux soins utilisées en France reposent essentiellement sur des indicateurs de densité médicale et de temps d’accès au professionnel de santé le plus proche.

Ces mesures ont l’avantage de fournir une information synthétique et claire. Cependant, elle présente des limites importantes : les données de densité fournissent un chiffre global, pour le territoire dans son ensemble, mais elles ne restituent pas la variabilité de l’accès aux soins sur ce territoire. En effet, le fait qu’un patient se trouve à moins de 10 minutes d’un médecin généraliste ne préjuge pas de sa capacité et possibilité réelle à accéder à cette ressource médicale.

Pour dépasser ces limites, la DREES (Direction de la recherche, des études, de l’évaluation et des statistiques) et l’IRDES (Institut de recherche et documentation en économie de la santé) ont développé l’indicateur d’accessibilité aux soins : l’accessibilité potentielle localisée (APL).

Cet indicateur prend en considération la disponibilité des médecins généralistes libéraux sur un « bassin de vie », défini par l’Insee comme le plus petit territoire au sein duquel les habitants ont accès aux équipements et services les plus courants. La France métropolitaine est ainsi constituée de 2 739 bassins de vie comprenant chacun en moyenne 23 300 habitants.

L’APL intègre une estimation de l’activité des médecins ainsi que des besoins en matière de santé définis notamment en fonction de l’âge de la population locale. Il est donc plus précis que les indicateurs de densité médicale ou de temps d’accès au médecin le plus proche. L’APL est exprimée en nombre d’ETP (équivalents temps plein) de médecins présents sur un bassin de vie, et peut être convertie en un temps moyen d’accès à ces médecins (exprimé en minutes).

L’APL a été au départ principalement calculée pour les médecins généralistes libéraux, elle est maintenant également déterminée pour chacun des autres professionnels de santé de premier recours : infirmiers, masseurs-kinésithérapeutes, chirurgiens-dentistes, gynécologues, ophtalmologues, pédiatres, psychiatres et sages-femmes.

Les « déserts médicaux » constituent sans doute l’expression la plus visible, dans le débat public, des différents modes de calcul de l’APL. L’APL permet en effet de calculer, pour chaque bassin de vie, un nombre moyen de consultations annuelles accessibles (potentielles) pour chaque habitant en tenant compte notamment du nombre d’ETP de médecins présents sur le bassin de vie, du temps moyen d’accès et du recours moyen au service de ces médecins par les patients.

Pour qu’un bassin de vie soit qualifié de désert médical (ou « territoire sous dense » en offre de santé), la DREES retient un seuil minimum de 2,5 consultations accessibles par an et par habitant.

Selon une estimation récente de la DREES, 9 % de la population française réside dans des territoires « sous denses », soit environ 6 millions de personnes. Mais il existe des disparités importantes selon les régions : 29 % de la population de la Guyane ou 25 % de celle de la Martinique vivent dans un désert médical, 16 % des habitants du Val-de-Loire, 15 % de la population corse contre seulement 4 % des habitants de Hauts-de-France et 3 % de ceux de la Provence-Alpes-Côte d’Azur.

Mesurer l’accessibilité aux soins à partir des ETP de professionnels de santé ou du temps d’accès à ces professionnels renseigne de manière assez exhaustive sur l’offre de soins présente sur un bassin de vie. En revanche, cela nous informe assez peu sur la demande de soins qui, elle, dépend des besoins réels des patients.

Dans deux articles récents, nous démontrons qu’aux côtés du calcul de l’APL, l’analyse fine des parcours de soins des patients contribue à mieux appréhender la demande réelle de soins. Nos travaux nuancent alors le découpage assez binaire de la carte de France en territoires « sous denses » d’un côté et « suffisamment denses » de l’autre.

L’analyse des parcours de soins : la clef pour accéder aux difficultés réelles des patients
Dans un premier article de recherche, nous avons identifié le rôle du parcours de soins en montrant en quoi il peut être révélateur de l’accentuation ou de la réduction des difficultés d’accès aux soins en proposant une lecture territorialisée de ce parcours et une première catégorisation des situations.

Les principales caractéristiques de ce parcours (types de soins, localisation des professionnels de santé, nombre de déplacements à effectuer, modes de déplacements accessibles) nous renseignent sur des contraintes complémentaires d’accessibilité aux soins auxquelles sont confrontés les patients.

Dans un deuxième article de recherche, à partir d’une méthodologie de cartographie géographique, nous avons croisé les données mobilisées pour le calcul de l’APL (densité médicale, activité des médecins et temps d’accès à ces professionnels) avec les données relatives aux parcours de soins d’une cohorte de 1800 patientes prises en charge pour un cancer du sein dans un établissement spécialisé de l’ex-région Auvergne.

Cette approche dynamise et enrichit l’analyse de l’accessibilité aux soins en démontrant notamment que les difficultés d’accès ne sont pas systématiquement concentrées dans des déserts médicaux plutôt situés en zones excentrées ou rurales.

Elle permet d’identifier quatre principales catégories de parcours de soins, pouvant apparaître dans des territoires « sous denses » en offre de santé comme dans des bassins de vie suffisamment « denses » :

Les parcours de soins aisés : dans les aires urbaines des grandes agglomérations et des petites villes proches, marquées par un accès aisé à l’ensemble des services de soins (classe 2).

L’accessibilité aux hôpitaux : dans les aires urbaines des villes moyennes qui abritent un centre hospitalier pouvant prendre ponctuellement le relais de l’établissement spécialisé de la région (classe 1).

L’accessibilité aux professionnels de santé : dans les territoires ruraux où la distance et/ou la fréquence des déplacements rendent malaisée l’accessibilité aux services hospitaliers, mais où l’accès aux services de proximité est bon (classe 3).

Les parcours éloignés : dans les territoires ruraux ou périurbains où, selon les cas, la distance, la fréquence des déplacements ou la faiblesse des moyens de déplacement peuvent rendre malaisée l’accessibilité à l’ensemble des services de soins (classe 4).

Quelles perspectives pour l’amélioration de la prise en charge ?

En intégrant les difficultés vécues par les patients, le croisement de données spatiales sur l’offre de soins avec celles provenant du parcours de soins permet une lecture plus dynamique de leur accès effectif aux soins.

Il en résulte une modification de la réalité de terrain au sein des territoires. Ainsi, dans l’exemple auvergnat étudié, l’accessibilité aux services de soins dans les Combrailles ou le Livradois peut être malaisée malgré la relative proximité de Clermont-Ferrand.

Cela pousse à nuancer l’efficacité de certaines solutions mises en œuvre pour réduire ces difficultés : aides financières ou contraintes à l’installation de médecins, exercice en maisons de santé, contrats de praticien territorial de médecine générale, télémédecine, téléconsultation… Ces solutions devraient intégrer une lecture du parcours du patient.

En effet, d’une part, les quatre catégories de parcours de soins identifiés dans notre étude montrent combien l’accessibilité peut être diffuse dans les territoires qu’ils soient « denses » ou « sous denses », et combien celle-ci est dépendante de caractéristiques médicales et socio-économiques des patients.

Cette constatation renforce l’idée que les territoires de santé ne peuvent pas être appréhendés d’une manière principalement comptable, trop abstraite. Il est nécessaire de les aborder comme des espaces vécus où besoins et offre de soins s’agencent à partir des caractéristiques du territoire et de sa patientèle.

D’autre part, ces résultats suggèrent d’associer aux nombreuses mesures politiques ou managériales appliquées la gestion des parcours de soins. Ce qui est déjà réalisé, de manière très étendue, dans de nombreux pays développés. Ce sont par exemple le cas avec les infirmières pivots au Canada ou les case managers – gestionnaires de cas – aux États-Unis, en Suisse ou encore au Royaume-Uni.

Pour cela, en France, il y a probablement à penser la place que peuvent occuper certains professionnels de santé, situés au plus près de ces parcours, tels que les infirmier·e·s en pratiques avancées exerçant en maisons de santé, hôpitaux ou établissements médico-sociaux.

Docimologie: l’évaluation en question

Docimologie: l’évaluation en question

Science des examens et des concours, la docimologie, de « dokimè » (épreuve) et « logos » (science) trouve son origine dans les travaux sur la validité des systèmes de notation du psychologue français Henri Piéron. C’est en 1922 qu’il propose le concept et lance des recherches autour des résultats du certificat d’études primaires. Celles-ci seront popularisées par son ouvrage Examens et docimologie publié en 1963, suivi en 1971 par le Précis de docimologie de Gilbert Landsheere. Ces travaux fondateurs évoquent, de manière originale, le comportement « des examinés et des examinateurs » afin de nous faire prendre conscience des biais et des incertitudes qui pèsent sur les notations et les évaluations. La préoccupation est pourtant loin d’être nouvelle. L’invention même de la note est le fruit d’une longue histoire. Alors que les États-Unis se dirigent dès 1910 vers l’évaluation via les QCM, en France on préfère conserver l’évaluation classique des examens avec des réponses rédigées.

par Nadir Altinok
Maître de conférences, IUT de Metz, UMR BETA, Université de Lorraine

Claude Diebolt
Directeur de Recherche au CNRS, UMR BETA, Université de Strasbourg dans The Conversation

Comment fait-on pour juger une copie d’examen ? Qu’en est-il de la pertinence des notes en cas de répétition de l’examen ou de changement d’examinateurs ? Répondre à ces questions renvoie précisément aux travaux fondateurs de la docimologie. Ils montrent, à partir d’une analyse de la variance, que la part de l’explication d’une note serait liée, à hauteur de 40 %, aux compétences de l’élève. En corollaire, 60 % résulteraient de l’identité de l’examinateur.

Si la méthode utilisée par ces travaux précurseurs est critiquable, ils soulignent néanmoins toute l’ambiguïté entourant la justification d’une note. Henri Piéron ira même jusqu’à dire que « pour prédire la note d’un candidat, il vaut mieux connaître son examinateur que lui-même ! »

Quant aux psychologues Laugier et Weinberg, ils tenteront de déterminer le nombre de corrections nécessaires pour aboutir à une note qui soit « juste ». Ce faisant, mobilisant la formule de Spearman-Brown, ils aboutiront au constat, qu’en philosophie par exemple, il faudrait 127 correcteurs pour aboutir à une note équitable.

Cette polémique sur la difficile notation des copies se retrouve régulièrement en première ligne lors des corrections du baccalauréat. Une recherche de 2008 ira même jusqu’à évoquer une sorte de loterie des notes au bac.

En fait, au-delà des polémiques, la docimologie soulève une question majeure. Les notes d’une classe doivent-elles, comme il est très souvent le cas, correspondre à une distribution de Gauss, c’est-à-dire avec quelques élèves « faibles », quelques élèves « forts » et la grande majorité des élèves dans la « moyenne », à l’image de la tyrannie de la Loi Normale qui a régné au Japon entre 1955 et 2000 ?

Un dilemme de taille renvoie en effet, quasi systématiquement, à la moyenne des notes qui induit inévitablement une forme de hasard. Une moyenne trop élevée pourrait signifier une mauvaise appréciation du niveau des élèves, tandis que l’inverse pourrait suggérer des critères de notation trop stricts. Mais, si la majorité des élèves ont une note entre 8 et 12, à quoi bon utiliser une échelle de notation de 0 à 20 ?

Au-delà des moyennes, le bon sens impose de prendre en compte, avec plus d’attention, l’écart-type, c’est-à-dire l’étendue des notes, de la plus basse à la plus haute. Ce faisant, il est aisé d’imaginer qu’une matière d’enseignement pourrait avoir une influence déterminante sur la moyenne générale dès lors que l’écart-type des notes serait plus élevé que celui des autres matières enseignées.

En définitive, quelle est donc la finalité d’une note ? S’agit-il d’apprécier le niveau de compétence et les savoirs des élèves à un instant T, ou d’employer la notation tel un outil afin de classer, si ce n’est de filtrer les élèves, dans l’idée d’aboutir à une allocation optimale des talents dans la société ?

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol