Archive pour le Tag 'processus'

Processus de la mémoire et des souvenirs

Processus de la mémoire et des souvenirs

 

La mémoire est une aptitude essentielle qui nous permet d’intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n’est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

 

par , Doctorant en neurobiologie comportementale, Université Côte d’Azur et , MCF en Neuroscience, Université Côte d’Azur dans The Conversation 

Le processus de la mémoire débute par l’encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu’un texte que vous venez de lire, par exemple. Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l’adaptation du comportement en fonction des expériences passées. L’oubli survient en cas d’absence d’accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d’un souvenir dans le cerveau.

Les prémices de la compréhension de la mémoire en tant que modifications durables du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de 100 ans par le biologiste allemand Richard Semon. C’est lui qui nomme et définit l’engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l’expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l’activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu’est un engramme. Fondamentalement, la création d’un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l’apprentissage. Les connexions entre les neurones se produisent au niveau d’une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble : c’est l’engramme proprement dit. Ainsi, lorsqu’une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d’ailleurs pas spécifiques à la mémoire, et en plus d’intégrer l’engramme, ils continuent d’interagir au sein de réseaux différents pour remplir d’autres fonctions.

Le stockage d’un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu’un schéma d’activité neuronale qui s’est produit pendant l’apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir. Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l’odeur de la lavande déclenchera l’activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu’à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu’il existe mais qu’il ne peut plus être activé par un stimulus externe.

Pendant l’apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d’être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recrutés dans la formation d’un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l’emportent et deviennent des cellules d’engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l’engramme.

Pendant la consolidation, l’engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l’activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l’on observe une réactivation des neurones impliqués.

En présence dans notre environnement d’éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir : c’est le rappel. Ce processus implique la réactivation de l’engramme. Pendant le rappel, les neurones qui étaient actifs lors de l’apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l’engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d’autres peuvent se perdre. Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l’événement par rapport à comment il s’est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d’être racontées ou rappelées.

L’engramme n’est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d’émotion qu’on lui associe. On peut alors en perdre les détails pour ne garder qu’une sensation positive ou négative selon l’importance qu’a ce souvenir pour nous. Prenons l’exemple d’un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l’heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l’oubli, c’est un phénomène généralement défini comme l’absence de manifestation comportementale d’un souvenir, même s’il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu’on vous demande la date de décès de Vercingétorix : vous avez appris à l’école qu’il s’agit de 46 av. J.-C., mais vous l’avez oubliée par la suite car elle n’avait peut-être plus d’utilité dans votre vie.

L’oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d’Alzheimer. Même si les informations sont d’une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d’y accéder. Selon cette perspective, l’oubli peut alors résulter soit d’une dégradation totale de l’engramme, entraînant une indisponibilité de la mémoire, soit d’un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu’il y ait des modifications synaptiques au niveau d’un engramme, ce qui le déstabilise et augmente alors la probabilité d’oubli.

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l’engramme. Des engrammes « silencieux » ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l’environnement ne le peuvent pas. Ces résultats suggèrent que l’oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu’à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l’activité directe des neurones formant l’engramme à différentes étapes de sa formation. Grâce à l’activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l’engramme. Cette connectivité correspond au fait que l’on peut associer l’activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement. Ainsi nous pouvons suivre l’engramme au cours des processus d’apprentissage, de consolidation, de rappel et d’oubli et étudier sa dynamique. À long terme, l’objectif serait d’exploiter ces résultats afin de mieux appréhender l’acquisition, le stockage et l’utilisation de l’information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d’autres dysfonctionnements cognitifs.

Nouvelles technologies, processus cognitifs et comportements

 

Aujourd’hui, les écrans et les notifications dominent notre quotidien. Nous sommes tous familiers de ces distractions numériques qui nous tirent hors de nos pensées ou de notre activité. Entre le mail important d’un supérieur et l’appel de l’école qui oblige à partir du travail, remettant à plus tard la tâche en cours, les interruptions font partie intégrante de nos vies – et semblent destinées à s’imposer encore davantage avec la multiplication des objets connectés dans les futures « maisons intelligentes ». Cependant, elles ne sont pas sans conséquences sur notre capacité à mener à bien des tâches, sur notre confiance en nous, ou sur notre santé. Par exemple, les interruptions engendreraient une augmentation de 27 % du temps d’exécution de l’activité en cours. En tant que chercheuse en psychologie cognitive, j’étudie les coûts cognitifs de ces interruptions numériques : augmentation du niveau de stress, augmentation du sentiment d’épuisement moral et physique, niveau de fatigue, pouvant contribuer à l’émergence de risques psychosociaux voire du burn-out. Dans mes travaux, je me suis appuyée sur des théories sur le fonctionnement du système cognitif humain qui permettent de mieux comprendre ces coûts cognitifs et leurs répercussions sur notre comportement. Ce type d’études souligne qu’il devient crucial de trouver un équilibre entre nos usages des technologies et notre capacité à nous concentrer, pour notre propre bien.

 

par ,Docteur en Psychologie Cognitive et Postdoctorante projet HUT, Université de Montpellier et , Professeur, laboratoire MRM Université de Montpellier, Université de Montpellier dans The Conversation 

Pourquoi s’inquiéter des interruptions numériques ?
L’intégration d’objets connectés dans nos vies peut offrir un contrôle accru sur divers aspects de notre environnement, pour gérer nos emplois du temps, se rappeler les anniversaires ou gérer notre chauffage à distance par exemple. En 2021, les taux de pénétration des maisons connectées (c’est-à-dire, le nombre de foyers équipés d’au moins un dispositif domestique connecté, englobant également ceux qui possèdent uniquement une prise ou une ampoule connectée) étaient d’environ 13 % dans l’Union européenne et de 17 % en France (contre 10,7 % en 2018).
Si la facilité d’utilisation et l’utilité perçue des objets connectés ont un impact sur l’acceptabilité de ces objets pour une grande partie de la population, les interruptions numériques qui y sont souvent attachées entravent notre cognition, c’est-à-dire l’ensemble des processus liés à la perception, l’attention, la mémoire, la compréhension, etc.

L’impact des interruptions numériques peut s’observer aussi bien dans la sphère privée que dans la sphère professionnelle. En effet, une personne met en moyenne plus d’une minute pour reprendre son travail après avoir consulté sa boîte mail. Les études mettent ainsi en évidence que les employés passent régulièrement plus de 1 h 30 par jour à récupérer des interruptions liées aux e-mails. Cela entraîne une augmentation de la charge de travail perçue et du niveau de stress, ainsi qu’un sentiment de frustration, voire d’épuisement, associé à une sensation de perte de contrôle sur les événements.

On retrouve également des effets dans la sphère éducative. Ainsi, dans une étude de 2015 portant sur 349 étudiants, 60 % déclaraient que les sons émis par les téléphones portables (clics, bips, sons des boutons, etc.) les distrayaient. Ainsi, les interruptions numériques ont des conséquences bien plus profondes que ce que l’on pourrait penser.

Pour comprendre pourquoi les interruptions numériques perturbent tant le flux de nos pensées, il faut jeter un coup d’œil à la façon dont notre cerveau fonctionne. Lorsque nous réalisons une tâche, le cerveau réalise en permanence des prédictions sur ce qui va se produire. Cela permet d’adapter notre comportement et de réaliser l’action appropriée : le cerveau met en place des boucles prédictives et d’anticipation.

Ainsi, notre cerveau fonctionne comme une machine à prédire. Dans cette théorie, un concept très important pour comprendre les processus d’attention et de concentration émerge : celui de la fluence de traitement. Il s’agit de la facilité ou la difficulté avec laquelle nous traitons une information. Cette évaluation se fait inconsciemment et résulte en une expérience subjective et non consciente du déroulement du traitement de l’information.

Le concept de fluence formalise quelque chose que l’on comprend bien intuitivement : notre système cognitif fait tout pour que nos activités se déroulent au mieux, de la manière la plus fluide (fluent, en anglais) possible. Il est important de noter que notre cognition est « motivée » par une croyance qu’il formule a priori sur la facilité ou la difficulté d’une tâche et en la possibilité de réaliser de bonnes prédictions. Cela va lui permettre de s’adapter au mieux à son environnement et au bon déroulement de la tâche en cours.

Plus l’information semble facile à traiter, ou plus elle est évaluée comme telle par notre cerveau, plus elle attire notre attention. Par exemple, un mot facile à lire attire davantage notre regard qu’un mot difficile. Cette réaction est automatique, presque instinctive. Dans une expérience, des chercheurs ont mis en évidence que l’attention des individus pouvait être capturée involontairement par la présence de vrais mots par opposition à des pseudomots, des mots inventés par les scientifiques tels que HENSION, notamment lorsqu’on leur demandait de ne pas lire les mots présentés à l’écran.

Ainsi, une de nos études a montré que la fluence – la facilité perçue d’une tâche – guide l’attention des participants vers ce que leur cerveau prédit. L’étude consistait à comprendre comment la prévisibilité des mots allait influencer l’attention des participants. Les participants devaient lire des phrases incomplètes puis identifier un mot cible entre un mot cohérent et un mot incohérent avec la phrase. Les résultats ont mis en évidence que les mots cohérents, prédictibles, attiraient plus l’attention des participants que les mots incohérents.

Il semblerait qu’un événement cohérent avec la situation en cours attire plus l’attention et, potentiellement, favorise la concentration. Notre étude est, à notre connaissance, l’une des premières à montrer que la fluence de traitement a un effet sur l’attention. D’autres études sont nécessaires pour confirmer nos conclusions. Ce travail a été initié, mais n’a pas pu aboutir dans le contexte de la pandémie de Covid.

Comme nous l’avons vu, notre système cognitif réalise en permanence des prédictions sur les événements à venir. Si l’environnement n’est pas conforme à ce que notre cerveau avait prévu, nous devons d’une part adapter nos actions (souvent alors qu’on avait déjà tout mis en place pour agir conformément à notre prédiction), puis essayer de comprendre l’événement imprévu afin d’adapter notre modèle prédictif pour la prochaine fois.

Par exemple, imaginez que vous attrapiez votre tasse pour boire votre café. En la saisissant, vous vous attendez a priori à ce qu’elle soit rigide et peut-être un peu chaude. Votre cerveau fait donc une prédiction et ajuste vos actions en fonction (ouverture de la main, attraper la tasse plutôt vers le haut). Imaginez maintenant que lorsque vous la saisissiez, ce ne soit pas une tasse rigide, mais un gobelet en plastique plus fragile. Vous allez être surpris et tenter d’adapter vos mouvements pour ne pas que votre café vous glisse entre les mains. Le fait que le gobelet plie entre vos doigts a créé un écart entre ce que votre système cognitif avait prédit et votre expérience réelle : on dit qu’il y a une rupture de fluence.

Les interruptions, qu’elles soient numériques ou non, ne sont pas prévues, par nature. Ainsi, un appel téléphonique impromptu provoque une rupture de fluence, c’est-à-dire qu’elle contredit ce que le cerveau avait envisagé et préparé.

L’interruption a des conséquences au niveau comportemental et cognitif : arrêt de l’activité principale, augmentation du niveau de stress, temps pour reprendre la tâche en cours, démobilisation de la concentration, etc.

La rupture de fluence déclenche automatiquement la mise en place de stratégies d’adaptation. Nous déployons notre attention et, en fonction de la situation rencontrée, modifions notre action, mettons à jour nos connaissances, révisons nos croyances et ajustons notre prédiction.

La rupture de fluence remobilise l’attention et déclenche un processus de recherche de la cause de la rupture. Lors d’une interruption numérique, le caractère imprévisible de cette alerte ne permet pas au cerveau d’anticiper ni de minimiser le sentiment de surprise consécutif à la rupture de fluence : la (re)mobilisation attentionnelle est alors perturbée. On ne sait en effet pas d’où va provenir l’interruption (le téléphone dans sa poche ou la boîte mail sur l’ordinateur) ni ce que sera le contenu de l’information (l’école des enfants, un démarchage téléphonique…).

Trouver un équilibre entre les avantages de la technologie et notre capacité à maintenir notre concentration devient crucial. Il est possible de développer des stratégies afin de minimiser les interruptions numériques, d’utiliser les technologies de façon consciente, et de préserver notre capacité à rester engagés dans nos tâches.

Cela pourrait impliquer la création de zones de travail sans interruption (par exemple la réintroduction du bureau conventionnel individuel), la désactivation temporaire des notifications pendant une période de concentration intense (par exemple le mode silencieux du téléphone ou le mode « focus » de logiciels de traitement de texte), ou même l’adoption de technologies intelligentes qui favorisent activement la concentration en minimisent les distractions dans l’environnement.

En fin de compte, l’évolution vers un environnement de plus en plus intelligent, ou du moins connecté, nécessite une réflexion approfondie sur la manière dont nous interagissons avec la technologie et comment celle-ci affecte nos processus cognitifs et nos comportements. Le passage de la maison traditionnelle à la maison connectée relève des problématiques du projet HUT pour lequel j’ai travaillé dans le cadre de mon postdoctorat. De nombreux chercheurs (sciences de gestion, droit, architecture, sciences du mouvement, etc.) ont travaillé autour des questions de l’hyperconnexion des habitations, des usages et du bien-être, au sein d’un appartement-observatoire hyperconnecté. Cela nous a permis de déterminer ensemble les conditions idéales du logement du futur, mais aussi de déceler l’impact des technologies au sein d’un habitat connecté afin d’en prévenir les dérives.

Réforme des retraites : le processus de crise en construction

Réforme des retraites : le processus de crise en construction

par Alessio Motta
Enseignant chercheur en sciences sociales, Université Paris 1 Panthéon-Sorbonne dans the Conversation


Nous vivons certainement en ce début 2023 l’une des plus importantes crises politiques des dernières décennies. On retrouve en tout cas la plupart des éléments habituellement observés par les approches scientifiques contemporaines de la construction de ces crises.

Comme l’explique le politiste français Michel Dobry dans son ouvrage fondateur « Sociologie des crises politiques », un des principaux facteurs de construction d’une situation critique est l’émergence nationale de mobilisations multisectorielles, c’est-à-dire d’actions collectives étendues à de nombreux espaces sociaux.

Manifestations, grèves, blocages, émeutes, actions de lobbying, chantage, prises de position publiques… ces mobilisations peuvent prendre des aspects divers et devraient se poursuivre après la décision du Conseil Constitutionnel de valider la majorité du texte sur la réforme des retraites et de rejeter la proposition d’un référendum partagé.

Et sans que ce ne soit forcément le but recherché, les mobilisations convergent vers un phénomène important pour comprendre ce qu’est une crise politique : elles affectent les routines des relations entre les secteurs de la société.

Ainsi, des élus font appel au soutien de la rue, des députés viennent contrôler le travail des forces de l’ordre, des responsables policiers interpellent le gouvernement, des maires soutiennent la grève des éboueurs en refusant d’intervenir pour le ramassage, des ministres peuvent être « grillés » pour des tentatives d’influence qui passent inaperçues en temps normal, des organisations très ancrées à droite appellent à cesser les violences policières…

Les événements qui conduisent des mobilisations à former un important mouvement multisectoriel sont très variés et peuvent être le fruit de stratégies décidées par quelques individus ou organisations. Il est donc impossible d’en lister exhaustivement les ressorts. Mais on peut s’arrêter sur quelques phénomènes typiques qui jouent souvent un rôle important.

L’un des principaux points d’appui à l’extension des mobilisations est l’existence, dans plusieurs secteurs de la société, d’entrepreneurs de cause potentiels, de réseaux ou structures « dormantes » composées de personnes prêtes à s’engager. Ces structures ou réseaux peuvent être issus de mobilisations passées ou de groupes de sociabilités constitués dans des lieux aussi divers que le monde du travail, les clubs de sports, la fac ou les réseaux sociaux. Ces liens jouent clairement un rôle déterminant dans la situation actuelle, où la réforme des retraites est présente dans les discussions d’un grand nombre de Français, qui organisent notamment entre collègues leur participation aux journées d’actions prévues.

Des étudiants se tiennent devant le campus universitaire de Lille lors d’un blocus dans le cadre du mouvement contre la réforme des retraites proposée par le gouvernement et en faveur des droits des femmes lors de la Journée internationale de la femme le 8 mars 2023

Un autre élément qui vient renforcer les chances d’extension des mobilisations est la présence sensible des petites actions subversives du quotidien que le sociologue James Scott nomme « arts de la résistance » contre les dominants : ouvriers qui ralentissent la cadence, plaisanteries sur les chefs, caricatures, rumeurs…

Longtemps considérés comme une « soupape » allégeant les envies de révolte, ces arts de la résistance contribuent plutôt à accélérer sa diffusion dans les différents secteurs d’une société, puisqu’ils permettent d’observer que les envies de résister sont partagées.

Dans la situation actuelle, la présence indiscutable de ces microrésistances a un effet d’autant plus fort que des indices plus formels comme les sondages d’opinion permettent à un grand nombre de personnes de mesurer combien leur rejet de la réforme des retraites et des décisions du gouvernement est partagé. Les chiffres montrant que toutes les catégories sociales sont opposées à la réforme et que seuls 7 % des actifs y sont favorables font ainsi partie des plus partagés dans les mobilisations et sur les réseaux sociaux.

Une autre figure typique qui stimule l’extension multisectorielle des mobilisations, parmi les plus documentées dans la recherche, est celle du « surgissement de l’imprévisible ». Celle-ci a été notamment étudiée par Michel Dobry dans le cas des mouvements étudiants : quelques sites universitaires sont bloqués par des étudiants quand soudain, on apprend qu’un nouveau site, une fac de droit réputée « de droite » et donc difficile à mobiliser, rejoint le mouvement.

Les acteurs de la mobilisation et ceux qui aspirent à la rejoindre occupent une large part de leur temps à évaluer, lors d’assemblées générales et réunions, l’avancée du mouvement et les différentes étapes franchies par les lieux de mobilisation. Un tel événement prend donc un retentissement particulier et peut convaincre des groupes encore hésitants que la mobilisation est en train de « prendre » plus que prévu, qu’il est temps de la rejoindre.

Le surgissement de l’imprévisible n’a cependant pas de définition objective. Il n’y a pas de thermomètre ou de mesure officielle permettant de s’accorder sur le fait que les événements viennent de prendre un tournant exceptionnel.

L’un des enjeux pour les acteurs d’une crise est d’imposer leur définition de la situation. Sur l’importance des manifestations, par exemple. Shutterstock
Une partie significative de l’activité des acteurs d’une crise consiste justement à lutter pour imposer des définitions de la situation conformes à leurs lignes stratégiques. Ainsi, les confédérations syndicales assurent, chiffres surévalués en poche, qu’ils ont encore une fois été capables d’emmener 3 millions de personnes dans la rue, pendant que des sources « off » du cabinet de l’Élysée ou des membres du gouvernement relativisent. Sans y parvenir totalement, ces interventions gouvernementales visent à effacer le fait que, d’après les chiffres de la police, les journées de manifestation des 31 janvier et 7 mars 2023 étaient les plus peuplées de toute l’histoire de France.

De façon générale, les escalades d’une crise politique ne peuvent pas être attestées par des indicateurs objectifs consensuels. Elles sont toutes l’objet de luttes de définition. Les uns soulignent l’exceptionnalité de la situation et les autres banalisent les mouvements de rue, affirment que les choses suivent leur « cheminement démocratique » ordinaire ou qu’une motion de censure passée à neuf voix de faire chuter le gouvernement n’est autre qu’une victoire pour ce gouvernement.

« Explosions », « escalades » et « montées aux extrêmes » sont des étiquettes que l’on tente de poser ou d’arracher. Il en va de même pour l’existence même de la crise, que les uns présentent comme allant de soi quand d’autres la nient.

Car quand un politicien ou une politicienne évoque l’escalade, l’émergence ou la non-émergence d’une crise, son objectif n’est pas de fournir une définition juste et technique de ce qui se passe. L’enjeu est plutôt de faire date, de marquer des points dans la compétition pour la définition de la réalité. De souligner, comme ça, en passant, qu’il ou elle est la personne « responsable », « lucide » et que ce sont les membres des autres camps qui sont « irresponsables ».

Avant d’être éventuellement acceptée par tous les acteurs, l’idée d’une crise est surtout un objet de menaces, d’avertissements, d’invectives, de stigmatisations réciproques, de marchandages : « si le gouvernement continue à ignorer les Français, nous entrerons dans une crise politique sans précédent » ; « si la France Insoumise continue ses outrances, nous allons quitter le jeu démocratique et ils en porteront la responsabilité » ; « si la Première ministre recourt au 49.3, elle nous dirige tout droit vers la crise » ; « si les députés LR renient leurs convictions et votent la motion de censure… ».

Enfin, les issues de la crise sont aussi des objets de marchandages. Passage en force et répression, recul sur la loi, changement de gouvernement, dissolution… aucune de ces solutions n’est la bonne par essence. Ce qui contribue le plus au succès d’une stratégie institutionnelle lancée par les dirigeants en place est généralement sa faculté à offrir à différents camps une chance d’y gagner quelque chose et, donc, des raisons de la présenter comme une solution négociée ou « fair-play ». Difficile de dire, au moment où l’on écrit ces lignes, si le camp présidentiel se résoudra à lancer des propositions susceptibles de satisfaire à ces critères, ou s’il continuera à miser sur l’essoufflement des protestations…

Front National: le processus de dédiabolisation

Front National: le processus de dédiabolisation

Par
Virginie Martin
Docteure sciences politiques, HDR sciences de gestion, Kedge Business School dans the Conversation.


88, c’est le nombre de députés que le Rassemblement national (RN) compte désormais à l’Assemblée nationale. Ce chiffre suffit-il à faire du RN une organisation partisane comme les autres ? En faisant abstraction du jeu des alliances façon Nupes, il en fait, en tous cas, le principal parti d’opposition au gouvernement – un parti qui a joué un rôle non négligeable lors des dernières séquences législatives autour de la réforme de la retraite.

20 ans plus tôt, lorsque l’extrême droite accède pour la première fois de son histoire au second tour de l’élection présidentielle, la France est sous le choc. 1,3 million de personnes manifestent contre le Front national (FN), parmi lesquels beaucoup de jeunes. Jean-Marie Le Pen fait face à une mobilisation anti-FN si forte qu’il n’atteint même pas 18 % des suffrages au second tour de ces élections de 2002 contre Jacques Chirac (environ 5,5 millions de voix). Le Front républicain fonctionne parfaitement.

Quelle stratégie a été appliquée par le FN-RN, pour passer du statut de parti marginal et honni à une organisation notabilisée, voire institutionnalisée ?

Depuis sa création en 1972, le FN-RN a été présent par trois fois au second tour de l’élection présidentielle : en 2002, en 2017 et 2022. Les deux dernières fois, Marine Le Pen a atteint des scores considérables : 33,9 % et 41,45 %. Cette progressive montée du RN, la stabilité de ses votes et son ancrage territorial sont les marqueurs d’une normalisation et d’une banalisation du parti d’extrême droite.

Cette normalisation s’est construite autour d’une dynamique de changement, qu’on a coutume de nommer « dédiabolisation ». Celle-ci s’est faite progressivement et a été marquée par deux séquences. La première a permis au parti de se notabiliser, un phénomène accéléré avec l’arrivée de Marine Le Pen à la tête du FN. La seconde séquence est très directement liée à l’élection de députés RN à l’Assemblée nationale. Il s’agit d’une phase d’institutionnalisation.

Le congrès de Tours en 2011 marque un tournant dans l’histoire du FN. Le père de la famille Le Pen, créateur du FN, va passer la main. Le vote des militants en faveur de la fille est sans appel – 67,65 % des voix – face à Bruno Gollnisch.

L’image du FN ne sera plus celle de Jean-Marie, l’homme pour qui les chambres à gaz sont un « détail de l’histoire » celui que les plus âgés ont connu un bandeau noir sur l’œil gauche. Marine Le Pen, femme de 45 ans arrive à la tête de ce parti.

« Le message, c’est le medium » écrivait le sociologue Marshall McLuhan. Cela vaut aussi pour le FN ; l’égérie a changé, la dédiabolisation s’incarne plus que jamais dès cette nouvelle image au féminin.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Cette dédiabolisation tentée par le passé, fin des années 90, par un Bruno Mégret qui voulait normaliser le FN, voire faire des alliances avec la droite, a finalement semblé indispensable lors de la présidentielle de 2002. À l’époque, il n’était pas envisageable pour Jean-Marie Le Pen de sortir de sa spécificité et de nourrir la droite classique. Il est apparu urgent à ce moment-là de rassurer les français et de montrer combien le FN n’était pas une menace pour l’État et le pays. La dédiabolisation s’est dès lors avérée nécessaire.

Marine Le Pen est une des plus convaincues de cette nécessité depuis 2002. Elle suivra cette ligne au plus près. En 2015, elle finira même par exclure celui qui porte plus que quiconque le stigmate extrême droite : Jean-Marie Le Pen. À la faveur de prises de position dans Rivarol sur Pétain et les chambres à gaz, la fille sortira le père.

L’année 2018 est marquée d’un autre moment de stratégie d’effacement du passé. Elle passe par le changement de nom du parti. Le Front national n’est plus, le Rassemblement national est né. Avec ce mot « rassemblement » se matérialise la volonté de passer de parti de la protestation à un parti de gouvernement : « rassembler » pour pouvoir gouverner.

Dans la même logique, en 2022, Marine Le Pen se tient loin d’Eric Zemmour et ne cède pas à ses appels du pied, prouvant encore une fois son attachement à cette stratégie de dédiabolisation.

Quelques mois plus tard, l’élection de Jordan Bardella à la tête du RN offre un nouveau visage au parti. Par sa jeunesse et son parcours, il donne encore d’autres gages à cette séquence de dédiabolisation. Fils d’une famille immigrée italienne, son ancrage dans le 93 et son cursus universitaire à la Sorbonne offrent des gages de normalité – son parcours pourrait ressembler à celui de beaucoup de jeunes. Néamoins, derrière ces données, il y a aussi son militantisme à l’UNI et ses accointances traditionnelles, voire identitaires, et son regard sur une « France ensauvagée et inhumaine ».

Car bien sûr, malgré cette normalisation en vue de la conquête du pouvoir suprême, le RN reste attaché au corpus idéologique qui est le sien. Preuve en sont les marqueurs tels le renforcement de la politique nataliste en France (pour « résister » face à l’immigration), l’opposition à l’entrée de Gisèle Halimi au Panthéon ou encore la sacralisation de la « priorité nationale » dans la constitution. Le RN ne se défait pas des thématiques historiques qui ont prévalu à la création du FN.

Quel que soit le corpus idéologique dont se réclame le RN, l’hémicycle de l’Assemblée nationale offre au parti ses lettres de notabilisation, mais surtout son écrin d’institutionnalisation. De marginal et honni, le parti devient celui qui détient deux vice-présidences à la chambre basse.

Des vice-présidences qui ont mathématiquement été permises avec le soutien d’autres partis politiques – Les Républicains et Renaissance – puisque Hélène Laporte a obtenu 284 voix et Sébastien chenu 290. Face à la vague de députés RN, le cordon sanitaire est tombé. La normalisation s’est installée.

D’autant plus que, ici encore, Marine Le Pen joue la carte de la capacité à gouverner. Elle ne veut pas trop cliver pour présenter une opposition constructive, « une opposition responsable ». Dans cette optique, elle est vigilante au taux de présence de son groupe à l’assemblée, au respect de la fonction (silence, retenue, vêtements) et refuse les blocages systématiques de lois proposés par l’opposition.

Certes, l’épisode du député De Fournas a bien failli saper ces efforts de respectabilité. En prononçant la phrase « qu’il(s) retourne(nt) en Afrique » au sein de l’hémicycle, celui-ci a donné une occasion aux oppositions de prouver que la dédiabolisation était un leurre. Mais l’épisode a été relativement bien géré médiatiquement et en interne. La sanction est tombée, l’élu a perdu son porte-parolat. La discrétion est assez vite revenue.

De surcroit, quelles que soient les stratégies adoptées, avoir des députés à l’Assemblée nationale signifie saisir des moyens essentiels : assistants, informations, formations, moyens pécuniaires et possibilité, pour beaucoup d’élus sans expérience, de se professionnaliser. Il s’agit d’une marche déterminante pour envisager la conquête du pouvoir.

Reste à savoir quelle attitude adopter face au parti de Jordan Bardella et de Marine Le Pen. Est-il possible d’isoler un parti à ce point institutionnalisé et soutenu dans les urnes ? De continuer à « tabouiser » un parti recueillant autant de soutiens électoraux ? De se priver de ses électeurs en le stigmatisant ? Ce mois-ci, un sondage Ifop a montré que le RN était considéré comme le parti incarnant le mieux l’opposition au gouvernement (la stratégie de discrétion du RN semble mieux payer que celle du chahut de LFI…).

Depuis le début des années 80, aucune attitude pérenne et efficace n’a été trouvée face au FN-RN. C’est une quadrature du cercle pour le paysage politique français. S’il n’est pas un parti tout à fait comme les autres, le FN-RN est aujourd’hui à certains égards le deuxième parti de France.

Réforme des retraites : processus de la crise politique

Réforme des retraites : processus de la crise politique

Par Alessio Motta, Université Paris 1 Panthéon-Sorbonne

Nous vivons certainement en ce début 2023 l’une des plus importantes crises politiques des dernières décennies. On retrouve en tout cas la plupart des éléments habituellement observés par les approches scientifiques contemporaines de la construction de ces crises.

Comme l’explique le politiste français Michel Dobry dans son ouvrage fondateur « Sociologie des crises politiques », un des principaux facteurs de construction d’une situation critique est l’émergence nationale de mobilisations multisectorielles, c’est-à-dire d’actions collectives étendues à de nombreux espaces sociaux.

Manifestations, grèves, blocages, émeutes, actions de lobbying, chantage, prises de position publiques… ces mobilisations peuvent prendre des aspects divers. Et sans que ce ne soit forcément le but recherché, elles convergent vers un phénomène important pour comprendre ce qu’est une crise politique : elles affectent les routines des relations entre les secteurs de la société.

Ainsi, des élus font appel au soutien de la rue, des députés viennent contrôler le travail des forces de l’ordre, des responsables policiers interpellent le gouvernement, des maires soutiennent la grève des éboueurs en refusant d’intervenir pour le ramassage, des ministres peuvent être « grillés » pour des tentatives d’influence qui passent inaperçues en temps normal, des organisations très ancrées à droite appellent à cesser les violences policières…

Les événements qui conduisent des mobilisations à former un important mouvement multisectoriel sont très variés et peuvent être le fruit de stratégies décidées par quelques individus ou organisations. Il est donc impossible d’en lister exhaustivement les ressorts. Mais on peut s’arrêter sur quelques phénomènes typiques qui jouent souvent un rôle important.

L’un des principaux points d’appui à l’extension des mobilisations est l’existence, dans plusieurs secteurs de la société, d’entrepreneurs de cause potentiels, de réseaux ou structures « dormantes » composées de personnes prêtes à s’engager. Ces structures ou réseaux peuvent être issus de mobilisations passées ou de groupes de sociabilités constitués dans des lieux aussi divers que le monde du travail, les clubs de sports, la fac ou les réseaux sociaux. Ces liens jouent clairement un rôle déterminant dans la situation actuelle, où la réforme des retraites est présente dans les discussions d’un grand nombre de Français, qui organisent notamment entre collègues leur participation aux journées d’actions prévues.

Un autre élément qui vient renforcer les chances d’extension des mobilisations est la présence sensible des petites actions subversives du quotidien que le sociologue James Scott nomme « arts de la résistance » contre les dominants : ouvriers qui ralentissent la cadence, plaisanteries sur les chefs, caricatures, rumeurs…

Longtemps considérés comme une « soupape » allégeant les envies de révolte, ces arts de la résistance contribuent plutôt à accélérer sa diffusion dans les différents secteurs d’une société, puisqu’ils permettent d’observer que les envies de résister sont partagées.

Dans la situation actuelle, la présence indiscutable de ces microrésistances a un effet d’autant plus fort que des indices plus formels comme les sondages d’opinion permettent à un grand nombre de personnes de mesurer combien leur rejet de la réforme des retraites et des décisions du gouvernement est partagé. Les chiffres montrant que toutes les catégories sociales sont opposées à la réforme et que seuls 7 % des actifs y sont favorables font ainsi partie des plus partagés dans les mobilisations et sur les réseaux sociaux.

Une autre figure typique qui stimule l’extension multisectorielle des mobilisations, parmi les plus documentées dans la recherche, est celle du « surgissement de l’imprévisible ». Celle-ci a été notamment étudiée par Michel Dobry dans le cas des mouvements étudiants : quelques sites universitaires sont bloqués par des étudiants quand soudain, on apprend qu’un nouveau site, une fac de droit réputée « de droite » et donc difficile à mobiliser, rejoint le mouvement.

Les acteurs de la mobilisation et ceux qui aspirent à la rejoindre occupent une large part de leur temps à évaluer, lors d’assemblées générales et réunions, l’avancée du mouvement et les différentes étapes franchies par les lieux de mobilisation. Un tel événement prend donc un retentissement particulier et peut convaincre des groupes encore hésitants que la mobilisation est en train de « prendre » plus que prévu, qu’il est temps de la rejoindre.

Le surgissement de l’imprévisible n’a cependant pas de définition objective. Il n’y a pas de thermomètre ou de mesure officielle permettant de s’accorder sur le fait que les événements viennent de prendre un tournant exceptionnel.

Une partie significative de l’activité des acteurs d’une crise consiste justement à lutter pour imposer des définitions de la situation conformes à leurs lignes stratégiques. Ainsi, les confédérations syndicales assurent, chiffres surévalués en poche, qu’ils ont encore une fois été capables d’emmener 3 millions de personnes dans la rue, pendant que des sources « off » du cabinet de l’Élysée ou des membres du gouvernement relativisent. Sans y parvenir totalement, ces interventions gouvernementales visent à effacer le fait que, d’après les chiffres de la police, les journées de manifestation des 31 janvier et 7 mars 2023 étaient les plus peuplées de toute l’histoire de France.

De façon générale, les escalades d’une crise politique ne peuvent pas être attestées par des indicateurs objectifs consensuels. Elles sont toutes l’objet de luttes de définition. Les uns soulignent l’exceptionnalité de la situation et les autres banalisent les mouvements de rue, affirment que les choses suivent leur « cheminement démocratique » ordinaire ou qu’une motion de censure passée à neuf voix de faire chuter le gouvernement n’est autre qu’une victoire pour ce gouvernement.

« Explosions », « escalades » et « montées aux extrêmes » sont des étiquettes que l’on tente de poser ou d’arracher. Il en va de même pour l’existence même de la crise, que les uns présentent comme allant de soi quand d’autres la nient.

Car quand un politicien ou une politicienne évoque l’escalade, l’émergence ou la non-émergence d’une crise, son objectif n’est pas de fournir une définition juste et technique de ce qui se passe. L’enjeu est plutôt de faire date, de marquer des points dans la compétition pour la définition de la réalité. De souligner, comme ça, en passant, qu’il ou elle est la personne « responsable », « lucide » et que ce sont les membres des autres camps qui sont « irresponsables ».

Avant d’être éventuellement acceptée par tous les acteurs, l’idée d’une crise est surtout un objet de menaces, d’avertissements, d’invectives, de stigmatisations réciproques, de marchandages : « si le gouvernement continue à ignorer les Français, nous entrerons dans une crise politique sans précédent » ; « si la France Insoumise continue ses outrances, nous allons quitter le jeu démocratique et ils en porteront la responsabilité » ; « si la Première ministre recourt au 49.3, elle nous dirige tout droit vers la crise » ; « si les députés LR renient leurs convictions et votent la motion de censure… ».

Enfin, les issues de la crise sont aussi des objets de marchandages. Passage en force et répression, recul sur la loi, changement de gouvernement, dissolution… aucune de ces solutions n’est la bonne par essence. Ce qui contribue le plus au succès d’une stratégie institutionnelle lancée par les dirigeants en place est généralement sa faculté à offrir à différents camps une chance d’y gagner quelque chose et, donc, des raisons de la présenter comme une solution négociée ou « fair-play ». Difficile de dire, au moment où l’on écrit ces lignes, si le camp présidentiel se résoudra à lancer des propositions susceptibles de satisfaire à ces critères, ou s’il continuera à miser sur l’essoufflement des protestations…

______
Par Alessio Motta, Enseignant chercheur en sciences sociales, Université Paris 1 Panthéon-Sorbonne

La version originale de cet article a été publiée sur The Conversation.

Réforme des retraites : le processus de la crise politique

Réforme des retraites : le processus de la crise politique

Par Alessio Motta, Université Paris 1 Panthéon-Sorbonne

Nous vivons certainement en ce début 2023 l’une des plus importantes crises politiques des dernières décennies. On retrouve en tout cas la plupart des éléments habituellement observés par les approches scientifiques contemporaines de la construction de ces crises.

Comme l’explique le politiste français Michel Dobry dans son ouvrage fondateur « Sociologie des crises politiques », un des principaux facteurs de construction d’une situation critique est l’émergence nationale de mobilisations multisectorielles, c’est-à-dire d’actions collectives étendues à de nombreux espaces sociaux.

Manifestations, grèves, blocages, émeutes, actions de lobbying, chantage, prises de position publiques… ces mobilisations peuvent prendre des aspects divers. Et sans que ce ne soit forcément le but recherché, elles convergent vers un phénomène important pour comprendre ce qu’est une crise politique : elles affectent les routines des relations entre les secteurs de la société.

Ainsi, des élus font appel au soutien de la rue, des députés viennent contrôler le travail des forces de l’ordre, des responsables policiers interpellent le gouvernement, des maires soutiennent la grève des éboueurs en refusant d’intervenir pour le ramassage, des ministres peuvent être « grillés » pour des tentatives d’influence qui passent inaperçues en temps normal, des organisations très ancrées à droite appellent à cesser les violences policières…

Les événements qui conduisent des mobilisations à former un important mouvement multisectoriel sont très variés et peuvent être le fruit de stratégies décidées par quelques individus ou organisations. Il est donc impossible d’en lister exhaustivement les ressorts. Mais on peut s’arrêter sur quelques phénomènes typiques qui jouent souvent un rôle important.

L’un des principaux points d’appui à l’extension des mobilisations est l’existence, dans plusieurs secteurs de la société, d’entrepreneurs de cause potentiels, de réseaux ou structures « dormantes » composées de personnes prêtes à s’engager. Ces structures ou réseaux peuvent être issus de mobilisations passées ou de groupes de sociabilités constitués dans des lieux aussi divers que le monde du travail, les clubs de sports, la fac ou les réseaux sociaux. Ces liens jouent clairement un rôle déterminant dans la situation actuelle, où la réforme des retraites est présente dans les discussions d’un grand nombre de Français, qui organisent notamment entre collègues leur participation aux journées d’actions prévues.

Un autre élément qui vient renforcer les chances d’extension des mobilisations est la présence sensible des petites actions subversives du quotidien que le sociologue James Scott nomme « arts de la résistance » contre les dominants : ouvriers qui ralentissent la cadence, plaisanteries sur les chefs, caricatures, rumeurs…

Longtemps considérés comme une « soupape » allégeant les envies de révolte, ces arts de la résistance contribuent plutôt à accélérer sa diffusion dans les différents secteurs d’une société, puisqu’ils permettent d’observer que les envies de résister sont partagées.

Dans la situation actuelle, la présence indiscutable de ces microrésistances a un effet d’autant plus fort que des indices plus formels comme les sondages d’opinion permettent à un grand nombre de personnes de mesurer combien leur rejet de la réforme des retraites et des décisions du gouvernement est partagé. Les chiffres montrant que toutes les catégories sociales sont opposées à la réforme et que seuls 7 % des actifs y sont favorables font ainsi partie des plus partagés dans les mobilisations et sur les réseaux sociaux.

Une autre figure typique qui stimule l’extension multisectorielle des mobilisations, parmi les plus documentées dans la recherche, est celle du « surgissement de l’imprévisible ». Celle-ci a été notamment étudiée par Michel Dobry dans le cas des mouvements étudiants : quelques sites universitaires sont bloqués par des étudiants quand soudain, on apprend qu’un nouveau site, une fac de droit réputée « de droite » et donc difficile à mobiliser, rejoint le mouvement.

Les acteurs de la mobilisation et ceux qui aspirent à la rejoindre occupent une large part de leur temps à évaluer, lors d’assemblées générales et réunions, l’avancée du mouvement et les différentes étapes franchies par les lieux de mobilisation. Un tel événement prend donc un retentissement particulier et peut convaincre des groupes encore hésitants que la mobilisation est en train de « prendre » plus que prévu, qu’il est temps de la rejoindre.

Le surgissement de l’imprévisible n’a cependant pas de définition objective. Il n’y a pas de thermomètre ou de mesure officielle permettant de s’accorder sur le fait que les événements viennent de prendre un tournant exceptionnel.

Une partie significative de l’activité des acteurs d’une crise consiste justement à lutter pour imposer des définitions de la situation conformes à leurs lignes stratégiques. Ainsi, les confédérations syndicales assurent, chiffres surévalués en poche, qu’ils ont encore une fois été capables d’emmener 3 millions de personnes dans la rue, pendant que des sources « off » du cabinet de l’Élysée ou des membres du gouvernement relativisent. Sans y parvenir totalement, ces interventions gouvernementales visent à effacer le fait que, d’après les chiffres de la police, les journées de manifestation des 31 janvier et 7 mars 2023 étaient les plus peuplées de toute l’histoire de France.

De façon générale, les escalades d’une crise politique ne peuvent pas être attestées par des indicateurs objectifs consensuels. Elles sont toutes l’objet de luttes de définition. Les uns soulignent l’exceptionnalité de la situation et les autres banalisent les mouvements de rue, affirment que les choses suivent leur « cheminement démocratique » ordinaire ou qu’une motion de censure passée à neuf voix de faire chuter le gouvernement n’est autre qu’une victoire pour ce gouvernement.

« Explosions », « escalades » et « montées aux extrêmes » sont des étiquettes que l’on tente de poser ou d’arracher. Il en va de même pour l’existence même de la crise, que les uns présentent comme allant de soi quand d’autres la nient.

Car quand un politicien ou une politicienne évoque l’escalade, l’émergence ou la non-émergence d’une crise, son objectif n’est pas de fournir une définition juste et technique de ce qui se passe. L’enjeu est plutôt de faire date, de marquer des points dans la compétition pour la définition de la réalité. De souligner, comme ça, en passant, qu’il ou elle est la personne « responsable », « lucide » et que ce sont les membres des autres camps qui sont « irresponsables ».

Avant d’être éventuellement acceptée par tous les acteurs, l’idée d’une crise est surtout un objet de menaces, d’avertissements, d’invectives, de stigmatisations réciproques, de marchandages : « si le gouvernement continue à ignorer les Français, nous entrerons dans une crise politique sans précédent » ; « si la France Insoumise continue ses outrances, nous allons quitter le jeu démocratique et ils en porteront la responsabilité » ; « si la Première ministre recourt au 49.3, elle nous dirige tout droit vers la crise » ; « si les députés LR renient leurs convictions et votent la motion de censure… ».

Enfin, les issues de la crise sont aussi des objets de marchandages. Passage en force et répression, recul sur la loi, changement de gouvernement, dissolution… aucune de ces solutions n’est la bonne par essence. Ce qui contribue le plus au succès d’une stratégie institutionnelle lancée par les dirigeants en place est généralement sa faculté à offrir à différents camps une chance d’y gagner quelque chose et, donc, des raisons de la présenter comme une solution négociée ou « fair-play ». Difficile de dire, au moment où l’on écrit ces lignes, si le camp présidentiel se résoudra à lancer des propositions susceptibles de satisfaire à ces critères, ou s’il continuera à miser sur l’essoufflement des protestations…

______
Par Alessio Motta, Enseignant chercheur en sciences sociales, Université Paris 1 Panthéon-Sorbonne

La version originale de cet article a été publiée sur The Conversation.

Salaires des enseignants : Un processus de prolétarisation

Salaires des enseignants : Un processus de prolétarisation

Professeurs des écoles, certifiés ou agrégés subissent un décrochage salarial d’une telle ampleur depuis les années 1980 que les tentatives, ces dernières années, des gouvernements successifs pour revaloriser cette profession en perte d’attractivité restent insuffisantes. ( Le Monde)

 

Sur la tendance longue, le salaire d’un enseignant au départ pourrait n’atteindre que le SMIC. Au début des années 1980, un enseignant débutant gagnait l’équivalent de 2,3 fois le smic, aujourd’hui, il touche environ 1,2 fois le salaire minimum. Cette comparaison éloquente, portée par l’économiste Lucas Chancel, a frappé les esprits ces derniers mois tant elle illustre la chute du salaire des enseignants en quarante ans. Avec la pénurie de professeurs qui s’installe – plus de 4 000 postes de titulaires n’ont pas été pourvus en 2022 –, l’opinion publique a soudain pris conscience du phénomène. « Les salaires ne sont plus à la hauteur des travaux et des efforts demandés », a affirmé le ministre de l’éducation nationale, Pap Ndiaye, mardi 30 août, sur RTL. Il a promis de passer les salaires des enseignants au-dessus de 2 000 euros net par mois à partir de la rentrée 2023.

Le salaire moyen des enseignants du public se situe à 2 596 euros net par mois, primes et indemnités comprises (en 2020, dernières statistiques publiées). Cette moyenne cache de fortes disparités entre les catégories d’enseignants (professeurs des écoles, certifiés, agrégés), leur statut (titulaires ou contractuels) et leur ancienneté. Un enseignant professeur des écoles ou titulaire du Capes, soit les trois quarts de la profession, perçoit 1 480 euros net par mois, hors prime, lors de son année de stage, et 1 680 euros quand il devient titulaire. Il gravit ensuite les échelons de la grille indiciaire au fur et à mesure de son ancienneté.

 

Comment en est-on arrivé là ? La fin de l’indexation du point d’indice sur l’inflation en 1983 a grevé sur le long terme le salaire des enseignants et le gel de ce point d’indice ces dix dernières années – jusqu’en juillet 2022 – a amplifié le phénomène. L’inflation, même comprise entre 0 % et 2 % par an, et l’augmentation des cotisations sociales ont grignoté les avancées obtenues, selon l’analyse de Bernard Schwengler, auteur de Salaires des enseignants. La chute (L’Harmattan, 2021).

Le salaire des enseignants français a subi un triple décrochage en quelques décennies. Un décrochage par rapport aux autres fonctionnaires d’Etat, tout d’abord, pour qui la baisse de la valeur du point d’indice a été davantage compensée par une hausse de leurs primes. Ces dernières représentent entre 10 % et 15 % de la rémunération globale des professeurs, alors qu’elles peuvent atteindre jusqu’à la moitié du montant d’une fiche de paie des cadres de la fonction publique. Un rapport sénatorial le remarquait en juin : « Le salaire net des enseignants se rapproche de celui des brigadiers et gardiens de la paix » dont les niveaux de qualification sont moins élevés.

Rompre les relations avec les dictatures

Engager un processus de rupture commerciale totale avec toutes les dictatures

 

Du fait notamment de la crise économique, nombre de pays de dictature ou de régime autoritaire profitent  de la situation pour durcir encore le champ des libertés voire la répression , la torture et même le crime.

La plupart du temps, on fait jouer la corde nationaliste pour donner une légitimité au renforcement de l’autoritarisme. C’est parce qu’il est supposé être attaqué de l’extérieur que les mesures d’exception s’imposent. Au-delà des velléités territoriales qui ambitionnent de modifier la géographie politique se pose surtout le combat entre deux types de civilisation. La civilisation archaïque de type néo-andertalien qui considère que les citoyens ne sont pas compétents pour orienter  les décisions de leur pays et qui confient  à une poignée d’oligarques profiteurs (ou se font imposer) le soin de prendre toutes les décisions. Pour preuve, dans la plupart des pays à caractère autoritaire, les dirigeants ont sagement placé les ressources détournées dans les pays libres. Une sorte de confirmation du caractère illégal du détournement des ressources.

Il ne sert pas à grand-chose de prendre des sanctions très parcellaires qui en réalité sont vite détournées par les responsables des pays visés, aidés aussi par un système financier inter national plus que complaisant.

Les pays démocratiques ont les faiblesses de leurs vertus. Les décisions qui y sont prises sont plus complexes et plus longues à prendre que dans les dictatures. En outre, les pays démocratiques s’interdisent d’utiliser les actions criminelles mettant en cause notamment la vie et les droits des populations civiles.

Fondamentalement, c’est une guerre culturelle qui est en cause, celle des primitifs moyenâgeux qui utilisent la terreur pour maintenir leur pouvoir et celle des défenseurs des libertés qui ne peuvent transiger sur les droits individuels et collectifs.

Le dialogue est impossible entre ces deux types de régimes. Le développement du commerce international n’a pas permis de faire évoluer les dictatures. D’une certaine manière au contraire , il a rendu possible son renforcement et même son développement géographique.

Du coup, il conviendrait sans doute de rompre tous liens commerciaux avec les pays qui bafouent la modernité et en particulier le droit des peuples à disposer d’eux-mêmes autant que les autres libertés individuelles et collectives.

En clair, cela signifie la rupture totale à terme mais programmé des échanges commerciaux de toute nature avec des régimes criminels comme la Chine, la Russie, la Turquie, le Brésil, la Corée du Nord en particulier.

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

L’automobile, prise au piège de l’internationalisation des processus de production

L’automobile, prise au piège de l’internationalisation des processus de production

 

 

D’une certaine manière,  l’automobile est pris au piège de l’internationalisation des processus de production. La voiture n’est pourtant pas technologiquement un produit très élaboré en dehors des gadgets il n’a guère évolué depuis une centaine d’années. Certes quelques progrès ont été effectués concernant la consommation en allégeant notamment le poids des véhicules. Pour le reste ce sont essentiellement des phénomènes de mode.

 

Pourtant on a cru bon de faire éclater les processus de production à l’échelle mondiale. Avec la crise covid, ces processus très complexes mais aussi très coûteux notamment du point de vue environnemental sont remis  en cause avec la désorganisation de la logistique. Cela d’autant plus que ces processus de production fonctionnent sur le principe du juste à temps, c’est-à-dire en l’absence pratiquement de tout stock. Les chaînes approvisionnées en permanence par des camions plusieurs fois par jour.

 

De nombreuses pièces destinées à l’assemblage manquent actuellement où sont retardés notamment des composants électroniques qui viennent le plus souvent d’Asie. Des composants électroniques dans beaucoup sont d’ailleurs inutiles et n’apportent guère de valeur ajoutée à l’automobile sinon qu’ils justifient des prix élevés pour garantir la rentabilité de l’industrie automobile.

 

La question se pose évidemment de la relocalisation d’un certain nombre de productions qui n’ont nullement besoin d’être fabriquées à des milliers et des milliers de kilomètres des lieux de consommation. Plus fondamentalement ,  le problème de la conception technique d’automobile conçue pour rouler à peu près toutes à 200 km à l’heure quand les vitesses sont limitées à 80, à 90 ou à 130 sur autoroute. En plus avec une sophistication technologique inutile et coûteuse.

Pour une mutation des processus de production au service d’une croissance durable

Pour une mutation des processus de production au service d’une croissance durable

 

.

C’est  seulement en nous  dirigeant vers la transformation écologique de nos outils productifs que nous pourrons retrouver un chemin de croissance pérenne estime Patrick Blethon, CEO du groupe Saur.

 

Les dernières prévisions économiques présentées la semaine dernière par la Commission européenne présagent de mois difficiles à venir. Et la multiplication des reconfinements qui a lieu sur l’ensemble du continent ne risque pas d’éclaircir ce tableau pessimiste. Déjà, dans sa dernière note de conjoncture publiée début octobre, l’INSEE annonçait un nouveau tassement du PIB français sur le dernier trimestre 2020, conduisant à une récession de 9 % sur l’année. Comme l’écrit l’office statistique, nous sommes actuellement « une économie diminuée ».

Évidemment, il peut difficilement en être autrement dans le contexte que nous traversons. La seconde vague épidémique nous frappe de plein fouet, la consommation pâtit des nouvelles mesures sanitaires et, en l’absence d’un vaccin, l’avenir reste – c’est peu dire – incertain. – (Déclaration dans la Tribune)

Expertise : Quelle méthode dans le processus décisionnel (Cécile Philippe)

Expertise : Quelle méthode dans le processus décisionnel  (Cécile Philippe)

 

Dans une interview à Reuters repris par la Tribune, Cécile Philippe, Institut économique Molinari  s’efforce de répondre à cette question relative au processus décisionnel

«

 

« En tant que présidente d’un institut de recherche, le sujet de l’expertise m’intéresse au plus haut point parce que nous exerçons nous même une forme d’expertise et que, d’autre part, nous nous intéressons à des sujets qui traitent justement de cette question, qu’il s’agisse de décider de remplacer les jugements humains par des algorithmes ou d’évaluer la qualité de notre système éducatif. De très nombreux sujets touchent de près ou de loin à cette question. Or, un article rédigé en 2009 par deux figures majeures dans ce domaine est particulièrement éclairant et permet, avec nuance, de cerner le contour entre de bonnes intuitions et d’autres qui s’avèrent erronées de façon systématique.

La question de l’expertise peut générer des sentiments ambivalents. On reste bouche bée devant le pompier qui parvient à contrôler un incendie dans un immeuble sauvant ainsi tous ses habitants ou devant le pilote Sully Sullenberger qui en 2009 parvient à poser en urgence son avion sur l’Hudson river et sauve ainsi ses 150 passagers. Dans un cas comme dans l’autre, leur expertise est exceptionnelle. Mais le sentiment est inverse quand on constate que les prévisions d’un certain nombre d’experts se révèlent moins fiables que celles réalisées par des modèles statistiques. Dans des Ted talk célèbres, Hans Rosling, médecin et statisticien, montrent à quel point nous pouvons être ignorants de faits importants tout en étant convaincus de la véracité de nos dires. Dans l’un d’eux, il dit : « J’ai démontré que les étudiants suédois les plus brillants avaient, statistiquement parlant, moins de connaissances sur le monde que les chimpanzés. »

Ces deux phénomènes font l’objet d’analyses approfondies au sein de communautés dont les chefs de file sont pour l’une Daniel Kahneman, lauréat du prix Nobel d’économie en 2002 et auteur du livre Système 1 / Système 2. Les deux vitesses de la pensée et pour l’autre, Gary Klein, psychologue renommé auteur notamment de Sources of Power: How People Make Decisions (1999). Ce dernier est un pionnier dans l’approche dite de la prise de décision naturaliste tandis que le second développe l’approche des biais cognitifs et des heuristiques. Tout semble opposer ces deux approches, sauf que les deux auteurs respectent immensément leur travail respectif et ont donc cherché pendant plusieurs années à comprendre leurs points de convergence et de divergence.

Débat scientifique exemplaire

Au-delà d’être exemplaire de ce que le débat scientifique peut faire de mieux, leur article permet de décrire deux phénomènes aussi réels l’un que l’autre qui ne s’appliquent pas aux mêmes situations. De fait, la plupart de nos jugements sont intuitifs et nous permettent d’agir dans le monde. Certains de nos jugements sont bons tandis que d’autres sont assez systématiquement erronés. Comment l’expliquer ? De fait, le développement d’une réelle expertise, celle de ces infirmières qui détectent des septicémies chez de très jeunes nourrissons avant même que les résultats sanguins reviennent positifs, nécessite que certaines conditions soient réunies. Il faut d’abord que l’environnement présente un certain niveau de régularités, d’invariants. Il faut ensuite que le futur expert puisse les découvrir, les discerner en accumulant de l’expérience. Enfin, il faut aussi qu’il reçoive un feedback rapide qui lui permette de lier perception et action dans un sens ou dans un autre. Lorsque ces conditions font défaut, il est difficile de développer une expertise. Le développement de l’expertise est tout à fait compatible avec un univers incertain comme dans le cas du poker ou des conflits armés. Il faut néanmoins pouvoir y décerner des régularités.

C’est ainsi que les astronomes, les pilotes d’essai, les physiciens, les mathématiciens, les infirmières, les médecins sont typiquement des professions dont le niveau d’expertise peut être très élevé tandis que dans des professions comme celles de courtiers, de psychologues cliniques, de juges, de recruteurs ou d’analystes du renseignement, cette expertise serait beaucoup plus rare.

Savoir les limites de ses compétences

Une caractéristique de l’expert compétent c’est qu’il sait en général les limites de ses compétences et requiert l’avis d’autres experts quand il sort de son domaine. La difficulté vient de ce que nos jugements – bons ou mauvais – sont tous intuitifs, automatiques, rapides, formulés presque sans effort et il n’est pas aisé d’être bon juge en la matière. Car nos intuitions suivent facilement des opérations mentales qui peuvent nous induire en erreur.

Les auteurs donnent l’exemple de l’erreur que commettent la plupart des personnes lorsqu’ils essaient de résoudre le problème suivant : une balle et une batte de baseball coûtent à elles deux 1,10 euro. La batte coûte 1 euro de plus que la balle. Combien coûte la balle ? Réponse à la fin de l’article. Il est fort probable qu’intuitivement vous ayez envie de répondre 10 centimes. Ce n’est malheureusement pas la bonne réponse. L’approche par les biais cognitifs abonde de ces exemples où nous tombons dans le panneau parce que plutôt que de faire une analyse rigoureuse qui nécessite des efforts, nous recourrons à des intuitions qui donnent la mauvaise réponse ou la mauvaise évaluation. Quand il s’agit d’évaluer des cas en psychiatrie ou de recruter des officiers, la chose est d’importance.

Méthode premortem

Ce constat – qui n’est d’ailleurs pas nié par les tenants de l’approche naturaliste – conduit à formuler un certain nombre de recommandations visant à améliorer la prise de décision. Notamment, les théoriciens des biais cognitifs sont très favorables aux algorithmes là où il est pertinent d’y recourir comme dans l’octroi de crédits bancaires. Côté approche naturaliste, beaucoup plus méfiante à l’égard des algorithmes, la méthode premortem est considérée comme un outil utile. Il s’agit pour un groupe d’établir un plan puis de considérer a priori qu’il a échoué et d’analyser les raisons de cet échec. Cet exercice permet de générer plus de critiques et d’éviter la suppression des opinions dissonantes, phénomène que l’on observe quand une organisation se lance dans un projet.

L’analyse de l’expertise doit donc être nuancée et suppose une compréhension fine de l’environnement dans lequel elle opère. Les deux courants ont des leçons à nous enseigner, en particulier dans l’adoption avisée des algorithmes ou dans le domaine éducatif, a priori le champ rêvé de l’expertise. »

 

Réponse : 5 centimes puisque la batte de baseball vaut un euro de plus, soit 1,05 euro

Aéroport : processus de privatisation

Aéroport : processus de privatisation

 

Progressivement l’Etat et les collectivités locales  vont se désengager de la gestion des aéroports en les privatisant. Après ADP où l’Etat a cédé 10%, c’est au tour de la province en commençant par Toulouse.. Michel Sapin, ministre des Finances, et Arnaud Montebourg, ministre de l’Economie, ont annoncé par un communiqué publié ce 11 juillet, avoir « demandé à lAgence des Participations de l’Etat d’engager une procédure de cession de la participation de l’Etat au capital de la société Aéroport Toulouse-Blagnac ».  Cette opération se réalisera dans le cadre d’une procédure d’appel d’offres, qui va lui permettre de céder immédiatement jusqu’à 49,99 % du capital, assortie d’une option de vente pour le solde. L’Etat détient au total 60% du capital d’Aéroport Toulouse Blagnac, aux côtés de la Chambre de commerce et d’industrie de Toulouse qui en détient 25%, et des collectivités territoriales (Région Midi-Pyrénées, Département de Haute-Garonne, Communauté urbaine de Toulouse Métropole) qui en possèdent chacune 5%. La Chambre de commerce et d’industrie « sera également invitée à céder une fraction de sa participation aux côtés de l’Etat, si elle en exprime l’intention », précise le communiqué.  Le gouvernement publiera prochainement le cahier des charges régissant la procédure, qui devrait aboutir à la sélection de l’acquéreur en novembre prochain Bercy souligne que cette ouverture du capital ne compromettra pas l’avenir économique de l’aéroport ni les exigences de service public aéroportuaire, l’Etat conservant son rôle de régulateur. Le gouvernement avait déjà cédé l’année dernière 9,5% d‘Aéroports de Paris (ADP) au profit du groupe de BTP Vinci et de l’assureur Predica (groupe Crédit Agricole), une opération qui lui a rapporté 738 millions d’euros (303 millions à l’État et 435 millions au Fonds stratégique d’investissements – FSI). L’Etat reste majoritaire dans le capital du gestionnaire d’aéroports (50,63%).

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol