Archive pour le Tag 'futur'

Attal : Futur maire de Paris ? (Sondage)

Attal : Futur maire de Paris ? (Sondage)

 

 Selon une enquête Ipsos pour Le Parisien publiée dimanche, l’ancien premier ministre Gabriel Attal ferait un bon maire de Paris pour 42% des administrés. Une première place qu’il occupe de très peu devant son ancienne collègue du gouvernement Rachida Dati, estimée à 39%. Ce match local, qui semble se dessiner au sein du «socle commun» national – entre la droite et le camp présidentiel -, distance Anne Hidalgo (28%) d’une dizaine de points.

Le  député des Hauts-de-Seine et président du groupe Ensemble pour la République (EPR) à l’Assemblée nationale séduit à la fois les électeurs de son camp (72%) et ceux de droite (46%). Là où la ministre de la Culture peine à élargir son socle à gauche (22%), le successeur d’Élisabeth Borne à Matignon capte une plus grande partie de sympathisants (30%) en soutien de la majorité sortante à Paris.

Politique -Ciotti, le  » déserteur » des Républicains qui s’est dispensé du service national, futur ministre de la défense ?

Politique -Ciotti, le  » déserteur » des Républicains  qui s’est dispensé du service national, futur ministre de la défense ?

Non seulement Ciotti est un « déserteur »  mais en plus il aurait bien voulu emporter avec lui la caisse et les effectifs des Républicains pour les vendre au Rassemblement national. Ciotti  est coutumier du décalage entre ses convictions et son action. Ainsi il  a réussi l’exploit de devenir d’un des plus ardents partisans du service militaire obligatoire suspendu en 97 alors qu’il a écrit lui-même à Chevènement pour se faire dispenser de ce service au motif que sa compagne était enceinte. Il a donc été dispensé du service national. Mieux, Il serait maintenant pressenti pour être le ministre de la défense du RN !

De quoi évidemment jeter un doute sérieux sur un personnage qui n’a pratiquement jamais par ailleurs travaillé ailleurs que dans la politique depuis ses 23 ans. D’une certaine manière, l’archétype du personnel politique qui a transformé la fonction élective en métier quitte à se vendre pour un plat de lentilles

 

Wikipédia

Le 24 janvier 1991, François Fillon, député RPR, écrit à Jean-Pierre Chevènement, ministre de la Défense, en vue de faire exempter du service militaire Éric Ciotti, alors collaborateur parlementaire de son collègue Christian Estrosi. Mais le ministre quitte ses fonctions peu après et c’est finalement au titre de soutien de famille, en raison de la grossesse de sa conjointe, que l’intéressé obtiendra une dispense quelques semaines plus tard. La publication de cette lettre dans Le Canard enchaîné du 14 septembre 2016 vaudra des critiques à Ciotti, devenu entre-temps partisan déterminé du service militaire obligatoire, suspendu en 1997 sur initiative de Jacques Chirac.

Ciotti, le  » déserteur » des Républicains qui s’est dispensé du service national, futur ministre de la défense ?

Ciotti, le  » déserteur » des Républicains  qui s’est dispensé du service national, futur ministre de la défense ?

Non seulement Ciotti est un « déserteur »  mais en plus il aurait bien voulu emporter avec lui la caisse et les effectifs des Républicains pour les vendre au Rassemblement national. Ciotti  est coutumier du décalage entre ses convictions et son action. Ainsi il  a réussi l’exploit de devenir d’un des plus ardents partisans du service militaire obligatoire suspendu en 97 alors qu’il a écrit lui-même à Chevènement pour se faire dispenser de ce service au motif que sa compagne était enceinte. Il a donc été dispensé du service national. Mieux, Il serait maintenant pressenti pour être le ministre de la défense du RN !

De quoi évidemment jeter un doute sérieux sur un personnage qui n’a pratiquement jamais par ailleurs travaillé ailleurs que dans la politique depuis ses 23 ans. D’une certaine manière, l’archétype du personnel politique qui a transformé la fonction élective en métier quitte à se vendre pour un plat de lentilles

 

Wikipédia

Le 24 janvier 1991, François Fillon, député RPR, écrit à Jean-Pierre Chevènement, ministre de la Défense, en vue de faire exempter du service militaire Éric Ciotti, alors collaborateur parlementaire de son collègue Christian Estrosi. Mais le ministre quitte ses fonctions peu après et c’est finalement au titre de soutien de famille, en raison de la grossesse de sa conjointe, que l’intéressé obtiendra une dispense quelques semaines plus tard. La publication de cette lettre dans Le Canard enchaîné du 14 septembre 2016 vaudra des critiques à Ciotti, devenu entre-temps partisan déterminé du service militaire obligatoire, suspendu en 1997 sur initiative de Jacques Chirac.

Futur de la terre: Des limites planétaires déjà dépassées

Futur de la terre: Des limites planétaires déjà dépassées


Si elle pouvait parler, la Terre nous dirait que notre existence et celle de nos enfants dépendent de sa bonne santé, car nous faisons partie d’elle. Elle nous expliquerait que si nous ne sentons pas encore toutes les implications de ses dysfonctionnements, c’est parce que son temps est plus long que le nôtre et que les effets réels tardent encore à se manifester pleinement. Enfin, elle insisterait sur le fait qu’il est grand temps de la régénérer. Pour cela, c’est toute l’allocation de notre capital que nous devons repenser !

par Alain Desvigne est PDG d’Amarenco. dans les » Echos ».

Création continue, croissance limitée, principe de décentralisation, recyclage, sous-optimalité… Appliquons les principes du vivant

Six limites planétaires sur neuf ont été franchies : le climat, la biodiversité, le cycle biochimique de l’azote et du phosphore, les sols, les eaux douces et la pollution liée aux activités humaines. Concrètement, cela signifie que nous épuisons littéralement notre Terre et donc, notre maison, celle qui nous permet de nous alimenter et de respirer.

Aujourd’hui, nous devons agir sans attendre, en nous appuyant sur les neuf principes fondamentaux du vivant pour restaurer ces limites : la création continue, la croissance limitée, le principe de décentralisation, la diversité, l’équilibre dynamique, l’interdépendance, le recyclage des déchets, la singularité et, enfin la sous-optimalité.

Se contenter de remplacer les énergies fossiles par des solutions durables ne traite pas le fond du problème. Autour des centrales solaires, il faut mener des programmes de régénération des sols, afin de leur permettre de mieux capter l’eau, le carbone et, donc, de redonner le potentiel de vie
Ces grands principes doivent être adressés de façon systémique et nous inspirer. Nos entreprises doivent s’engager collectivement sur le chemin de la régénération, à savoir une organisation qui opère comme un système vivant dans le respect des limites planétaires.

Cette volonté est aujourd’hui freinée par une approche en silo, principale maladie de notre ère industrielle. Prenons l’exemple de la finance : d’un côté, nous avons les infrastructures, qui rassemblent les énergies renouvelables et fossiles et, de l’autre, les solutions fondées sur la nature. Ces typologies d’actifs sont adressées de façon indépendante par des investisseurs différents, avec des horizons d’investissement pourtant similaires, c’est-à-dire long, voire très long terme. Continuer à les séparer, c’est continuer à siloter le vivant et, donc, aller droit dans le mur.

Se contenter de remplacer les énergies fossiles par des solutions durables ne traite pas le fond du problème. Autour des centrales solaires, il faut mener des programmes de régénération des sols, afin de leur permettre de mieux capter l’eau, le carbone et, donc, de redonner le potentiel de vie. C’est ainsi que nous pourrons revenir à un équilibre planétaire.

L’enjeu numéro 1 est de réintégrer, à la fois dans nos entreprises et au sein des territoires, une approche holistique, intégrative. Pour débloquer les fonds nécessaires aux financements de cette révolution, la volonté politique sera la clé. Tout se joue dans l’allocation du capital. La finance est le nerf de la guerre pour transformer nos façons de produire. Là encore, il faut désiloter, afin que les ministères des finances, de l’écologie et de l’énergie communiquent entre eux. Actuellement, les réponses apportées ne sont pas coordonnées, avec des conséquences dramatiques pour notre planète.

Au problème de l’approche fragmentée s’ajoute notre vision court-termiste des enjeux, avec une réflexion qui se fait uniquement à travers le prisme de la meilleure rentabilité. Tant que les gouvernements ne feront pas de choix très clairs en taxant davantage les énergies fossiles, dont le TRI (Taux de Rendement Interne) est bien supérieur à celui des énergies renouvelables, la finance continuera d’allouer des fonds insuffisants aux solutions permettant d’assurer la vie humaine sur notre planète. Il est temps d’en finir avec un système qui privilégie une recherche de profit déraisonnable. La Terre nous montre la voie à suivre depuis 3,5 milliards d’années. Qu’attendons-nous pour l’écouter ?

Alain Desvigne est PDG d’Amarenco.

Présidentielle 2027 : Darmanin futur Premier ministre d’ Édouard Philippe ?

Présidentielle 2027 : Darmanin futur Premier ministre d’ Édouard Philippe ?


Il est clair qu’au sein du gouvernement, personne ne parvient à s’imposer pour remplacer le moment venu Macron en 2027. Du coup Gérald Darmanin en tire sans doute des conclusions en prenant d’ores et déjà les devants pour annoncer qu’il soutiendra la candidature d’Édouard Philippe.

Une manière bien entendu aussi de se préparer comme futur premier ministre. Un poste qu’il envisage depuis longtemps afin d’obtenir la crédibilité suffisante avant la magistrature suprême.

Le ministre de l’Intérieur Gérald Darmanin s’est donc déclaré dimanche prêt à soutenir l’ex-Premier ministre Édouard Philippe à la présidentielle de 2027, parce qu’il est le «mieux placé» pour battre Marine Le Pen. «Je pense qu’Édouard Philippe est le mieux placé aujourd’hui, au moment où je vous parle», a déclaré Gérald Darmanin au média Brut qui l’interrogeait sur ses propres ambitions présidentielles.

«Moi je pense qu’il faut soutenir le mieux placé parce que je crois que Madame Le Pen peut gagner l’élection présidentielle. Je pense que c’est dangereux pour notre pays, même si je respecte Madame Le Pen», a-t-il dit dimanche au média Brut. «Je souhaite qu’Édouard Philippe puisse porter cela s’il respecte un certain nombre de choses sur lesquelles on peut être d’accord ou pas», a-t-il ajouté sans plus de précisions.

Restaurants : La grande confusion du futur label «préparé sur place»

Restaurants : La grande confusion du futur label «préparé sur place»

Le gouvernement a annoncé fin octobre que les cartes des restaurants en France devront mentionner les plats qui ne sont pas préparés sur place d’ici à 2025.Et le futur label préparé sur place devrait se substituer à l’indication actuelle « fait maison ». Un label déjà confus et en plus qui va coexister pendant un temps avec le label « préparé sur place ».

De concessions en concessions vis-à-vis d’une population très hétéroclite, le gouvernement s’enfonce dans le flou le plus absolu.

Avec l’ancien label  » fait maison » cétait déjà la confusion d’après le journal Le Monde: »Sauce maison ou en poudre ? Purée maison ou déshydratée ? Bœuf bourguignon maison ou sous vide ? Moelleux au chocolat maison ou surgelé ? Le décret relatif à la mention « fait maison ». Il concerne les établissements de restauration commerciale ou de vente à emporter de plats préparés .Les restaurateurs peuvent faire figurer sur la devanture ou la carte de leur établissement le logo « fait maison », un toit de maison posé sur un casserole, censé garantir une cuisine sur place à partir de « produits bruts ou de produits traditionnels de cuisine ». Ce logo peut être attribué plat par plat. En France, plus de 80 % des restaurants pratiqueraient une cuisine dite d’assemblage.

En réalité dans 80 % des cas au moins une partie sinon la totalité des aliments sont fabriqués de manière industrielle et nombre de restaurants sont des réchauffeurs de plats. Une situation qui porte un énorme préjudice à la gastronomie française et aux vrais professionnels.

Rien d’étonnant à cela la moitié des restaurateurs en France sont dirigée par des non professionnels; des commerçants qui se lancent dans cette profession qui n’exige aucune qualification officielle. Du coup ,rapidement beaucoup de ces nouveaux venus se rende compte de la complexité de l’activité, des problèmes de compétitivité et de gestion. D’où un recours accru à la cuisine industrielle qui permet surtout d’éviter les coûts sociaux en tout cas une partie.

Le futur label «préparé sur place» déjà très flou sur le menu des restaurants va coexister au moins un temps avec l’actuelle mention «fait maison», a indiqué ce lundi la ministre déléguée aux PME Olivia Grégoire devant des professionnels du secteur. «L’objectif est simple : garantir plus d’équité aux restaurateurs, garantir une meilleure information aux consommateurs», a-t-elle indiqué aux membres du Groupement des hôtelleries et restaurations de France (GHR) réunis en congrès.

Ce concept de « préparé sur place » n’a aucun sens, en tout cas pas l’avantage que le précédent. Le problème est le manque de régulation d’une profession ou trop d’amateurs s’aventurent sans compétence et sans sérieux. Preuve du nouveau flou du concept préparé sur place : le slogan est établi mais pas son contenu comme l’avoue la ministre Grégoire «Il va falloir qu’on définisse ensemble le “préparé sur place”, et surtout qui soit applicable chez vous, parce que le “fait maison” tel qu’on l’a construit, doté de toutes les exceptions et spécificités, est inapplicable. Là, l’objectif va être beaucoup plus simple» ! a-t-elle assuré.

Futur bac : Il serait tenu compte des fautes d’orthographe !!!

Futur bac : Il serait tenu compte des fautes d’orthographe !!!

Le ministre de l’Education nationale, Pap Ndiaye, s’est dit favorable ce dimanche à une prise en compte des fautes de français dans la notation des copies du bac dans les années à venir, promettant un « vaste chantier » dans ce domaine. En creux le ministre convient que nombre d’élèves ne méritent donc pas le bac octroyé à 91 % de la population concernée. En effet, on peut se demander quel est le niveau de qualité d’une copie qui ignore l’orthographe, un sujet qui n’est plus au programme après le CM2.

Evoquant des copies du baccalauréat souvent truffées de fautes, il souhaite « l’introduction de critères formels dans les épreuves à propos du niveau de français » lors d’une interview sur Radio J.

« À partir d’un certain niveau de langue trop problématique », quelle que soit la qualité de la copie, celle-ci ne pourrait ainsi ne pas dépasser une certaine note. Concrètement, il s’agirait de « points en moins si on fait des fautes de français ».

Pierre Moscovici futur patron de la Cour des Comptes

Pierre Moscovici futur patron de la Cour des Comptes

Didier Migaud Sera remplacé à la tête de la Cour des Comptes par Pierre Moscovici, actuellement commissaire européen aux Affaires économiques et financières depuis cinq ans. Pas vraiment un grand changement car la Cour des Comptes va conserver son rôle d’évaluation de la politique financière et des comptes publics. Elle va continuer de se montrer lucide et même sévère. Le problème c’est que souvent les responsables de la Cour des Comptes se montrent beaucoup plus rigoureux en situation d’observation qu’en situation de gestion quand ils sont membres d’un gouvernement. C’est le cas notamment de Pierre Moscovici qui n’a guère participé au redressement financier de la France lorsqu’il était ministre de François Hollande.

Pierre Moscovici est l’archétype des technocrates du parti socialiste qui n’ont jamais vraiment manifesté de grandes personnalités, détermination ou d’innovation. Bref c’est le reflet de ces socialistes mous, sans doute compétents mais finalement assez impuissant et qui ont préféré suivre le sens du courant.

L’Afrique, Futur exemple de Metropolisation !

L’Afrique, Futur exemple de Metropolisation !

Comment le développement urbain en Afrique peut-il réussir ? Nous aimerions proposer trois suggestions basées sur notre travail de recherche au MIT Senseable City Lab. Ainsi, les partenaires internationaux de l’Afrique devraient voir sa rapide urbanisation non pas comme un problème qu’ils devraient aider à résoudre, mais comme une opportunité de faire progresser l’urbanité elle-même. Par Carlo Ratti, Senseable City Lab du MIT dans la Tribune

Un article intéressant car il illustre bien la religion de la métropolitisation qui tue les territoires des pays développés et qui constituent souvent une question particulièrement difficile à gérer dans les pays pauvres. Dans les pays en développement, on ne saurait traiter simplement que de l’urbanisme organisé. Il faut aussi prendre en compte ces immenses ghettos souvent plus étendus que la ville elle-même où se cumulent les problèmes de santé, d’insécurité et de pauvreté tandis que la désertification des territoires conduit à renforcer le poids des importations et la vie chère en même temps NDLR

On a beaucoup parlé de la croissance vertigineuse des villes du monde, mais beaucoup ignorent à quoi elle ressemble réellement. Sous l’effet conjugué des naissances et de l’exode rural, la population urbaine mondiale s’enrichit de l’équivalent d’un nouveau Londres toutes les trois semaines. Mais cette croissance n’a pas lieu à Londres même, ni dans aucune des villes de l’Occident industriel dont la démographie est stagnante. Pendant des décennies, elle s’est produite en Chine, où le gouvernement a déplacé des centaines de millions de personnes des zones rurales vers des villes démesurées, mais cette tendance s’est finalement stabilisée.

Aujourd’hui, le centre de gravité urbain est l’Afrique, où près d’un milliard de citadins pourraient apparaître d’ici 2050. Pourtant, beaucoup trop d’architectes et d’urbanistes du Nord global sont déconnectés de cette réalité. Ceux qui s’engagent considèrent souvent l’Afrique à travers un prisme dépassé, privilégiant les « meilleures pratiques » du passé au lieu d’embrasser le rôle du continent dans la construction de l’avenir. Comment la communauté internationale peut-elle s’associer aux dirigeants et aux innovateurs urbains africains pour rendre les villes du continent, qui connaissent une croissance rapide, plus vivable, plus productive et plus durable ?

En effet, nous devrions considérer l’Afrique comme le prochain laboratoire urbain du monde, où la forme des villes – adaptées à la diversité du continent et à ses défis du XXIe siècle – est encore en train d’être élaborée. C’est l’esprit que Lesley Lokko apporte à la Biennale de Venise 2023 sur le thème de l’Afrique, dont le titre est « Le laboratoire du futur. » Cet événement, qui ouvrira le 20 mai, représente l’avant-garde de l’architecture africaine et que l’avant-garde de l’architecture en général.. L’expression « ville du futur » évoque normalement des métropoles riches et puissantes comme Singapour ou Séoul, mais en réalité, elle pourrait ressembler davantage à Nairobi et Lagos. Ces villes sont en première ligne de nos défis modernes – pauvreté, inégalité, changement climatique, migration massive, et plus encore – et c’est là qu’ils seront résolus.

Comment le développement urbain en Afrique peut-il réussir? Nous aimerions proposer trois suggestions basées sur notre travail de recherche au MIT Senseable City Lab.

Tout d’abord, nous devons abandonner les meilleures pratiques du passé. Le chemin de développement de la plupart des villes africaines ne ressemble ni à celui de Londres ni à celui de Pékin, et les pays riches doivent résister à la tendance néocoloniale qui consiste à pousser l’Afrique à se construire à son image. La dépendance à l’égard des meilleures pratiques ralentit le rythme de l’innovation, une erreur particulièrement coûteuse alors que les défis de notre époque évoluent avec une rapidité sans précédent. Nous devons adopter l’expérimentation, d’abord à la petite échelle. Des pratiques administratives comme la « ville de charte » de Paul Romer, adaptées à grande et petite échelle, peuvent permettre aux dirigeants urbains de tester de nouvelles façons de faire la ville.

Deuxièmement, pour gérer le rythme rapide du changement, les villes africaines peuvent profiter de la révolution numérique pour mesurer les interventions et les réponses. Les dirigeants municipaux en Afrique ne disposent souvent pas des infrastructures de collecte de données disponibles dans les régions plus riches, où le Big data et l’Internet des objets nous offrent des outils bon marché pour suivre la vie d’une ville et évaluer le succès de différentes politiques, ce qui nous permet de comprendre même les métropoles les plus complexes. Pourtant, les données citoyennes et la collecte de données mobiles peuvent permettre aux administrateurs municipaux de mesurer la pollution de l’air, le trafic, l’efficacité énergétique des bâtiments, et bien d’autres choses encore. L’analyse des données par l’IA pourrait éventuellement nous permettre de repérer des modèles que les yeux humains ne pourraient jamais voir, nous aidant ainsi à résoudre des problèmes apparemment insolubles.

Troisièmement, en dehors du domaine numérique, il existe de nombreuses opportunités pour les villes africaines d’expérimenter dans le domaine physique. Nous sommes à l’aube d’une révolution dans la construction abordable et durable, et – dans le contexte du changement climatique – les villes africaines pourraient en être les bénéficiaires principales. Les changements démographiques et les catastrophes naturelles rendent la construction de logements plus flexible et rapide une nécessité, mais les bâtiments préfabriqués actuels sont presque universellement (et à juste titre) associés à la mauvaise qualité. Les villes africaines et leurs partenaires pourraient utiliser les nouvelles avancées dans les techniques de construction modulaire et préfabriquée qui exploitent la conception assistée par ordinateur (CAO) et les matériaux légers et de haute qualité comme le bois lamellé-croisé (CLT). La combinaison de ces avancées permet de fabriquer en usine un bâtiment durable en pièces, puis de l’expédier sur un chantier de construction et de l’assembler en quelques jours. En outre, chaque tonne de CLT stocke 1,8 tonne de CO2, l’éliminant ainsi de l’atmosphère.

Ainsi, les partenaires internationaux de l’Afrique devraient voir sa rapide urbanisation non pas comme un problème qu’ils devraient aider à résoudre, mais comme une opportunité de faire progresser l’urbanité elle-même.

De nombreux économistes observent que les pays pauvres peuvent économiquement faire un « saute-mouton » (leapfrog) leurs voisins plus riches grâce à l’adaptation rapide de nouvelles technologies et techniques. La gestion des villes ne fait pas exception. Les métropoles africaines peuvent être les premières à s’adapter et à adopter, montrant ainsi la voie au monde entier.!!!

Le futur euro numérique se précise

Le futur euro numérique se précise

Finalement le futur euro numérique devrait couvrir toutes les utilisations. Le lancement pourrait avoir lieu vers 2025. La BCE entend bien cependant conserver la mainmise sur ces utilisations et les banques conserveront eux aussi leur rôle. Une différence de taille avec les actuelles cryptomonnaies qui peuvent s’affranchir de tout intermédiaire.

Aussi, la BCE voudrait que l’euro numérique soit inclusif, c’est pourquoi elle travaille à une « nouvelle application numérique » simple à utiliser pour des paiements effectués en passant par des intermédiaires bancaires, a expliqué M. Panetta. Face à l’euro numérique, les crypto-actifs échangés via la blockchain promettent, eux, la décentralisation ou encore, comme le bitcoin, un nombre limité à 21 millions de jetons afin d’éviter les effets collatéraux de la planche à billets.

« Quel que soit l’endroit où vous voyagez dans la zone euro, l’euro numérique sera toujours reconnu » et « vous pourrez payer avec », a décrit Fabio Panetta.
Les premières versions de l’application « devraient proposer des paiements sans contact ou des codes QR », selon M. Panetta. Les supports pourront être des smartphones, cartes de paiement et autres montres intelligentes.

À mesure que la technologie évoluera, « d’autres formes de paiement pourraient devenir disponibles à l’avenir » en étant offertes par des « intermédiaires supervisés », a-t-il dit.
Ces derniers seront « les mieux placés pour identifier les cas d’utilisation des paiements conditionnels et de tout autre service de paiement avancé » en pouvant également intégrer l’euro numérique dans leurs propres plateformes, a-t-il relevé.
Pour les Etat comme pour l’UE, il s’agit de garder le contrôle sur le pouvoir monétaire, un enjeu d’autant plus important face à la forte inflation qu’elle tente de maîtriser depuis la crise Covid. L’émergence d’une monnaie électronique de banque centrale permettrait aussi au niveau européen de « disposer d’un puissant levier d’affirmation de notre souveraineté face aux initiatives privées du type Libra » (le projet de Facebook finalement abandonné par la firme sous la pression des régulateurs NDLR), plaidait en 2020 dernier François Villeroy de Galhau, le gouverneur de la Banque de France.

Énergie du futur : la Fusion nucléaire pour après 2050 ?

Énergie du futur :la Fusion nucléaire pour après 2050 ?

2022 constitue sans nul doute une année charnière pour la fusion nucléaire. Le 13 décembre dernier, la communauté scientifique œuvrant dans ce domaine était en ébullition. Et pour cause, les Etats-Unis ont fait savoir que le Laboratoire national Lawrence Livermore (LNLL) était parvenu à produire plus d’énergie pendant une réaction de fusion nucléaire qu’il n’en avait été nécessaire pour initier le processus, du moins au niveau du combustible. « Un seuil que l’on attend depuis des décennies. Grand pas pour la fusion, petit pas pour l’énergie », commentait alors sur Twitter Greg de Temmerman, directeur général du think tank Zenon et spécialiste français de la fusion nucléaire.( un article de la Tribune d’après Renaissance fusion)

Depuis les années 1930, les scientifiques tentent en effet de reproduire, sur Terre, le mécanisme à l’œuvre dans le soleil et les étoiles. Contrairement à la fission nucléaire, sur laquelle repose toutes les centrales nucléaires en fonctionnement dans le monde, la fusion nucléaire ne consiste pas à casser des noyaux lourds d’uranium pour libérer de l’énergie, mais à faire fusionner deux noyaux d’hydrogène extrêmement légers pour créer un élément plus lourd. Dans le détail, le mariage forcé du deutérium et du tritium permet de produire de l’hélium et un neutron. Cette réaction doit alors permettre de générer des quantités massives d’énergie sous forme de chaleur, qui peut ensuite être transformée en électricité grâce à une turbine.
La fusion nucléaire suscite d’immenses espoirs car si l’homme savait la contrôler, cette source d’énergie cocherait toutes les cases : l’électricité qu’elle pourrait délivrer serait quasi illimitée, décarbonée, sûre, et produirait très peu de déchets radioactifs à vie longue. Mais jusqu’au 13 décembre dernier, les scientifiques butaient sur une étape majeure : celle du breakeven, soit le seuil où l’énergie produite par la réaction de la fusion est supérieure à celle nécessaire pour faire fonctionner le système. C’est désormais chose faite.

Si cette percée est la plus retentissante, d’autres grandes avancées ont été observées au cours de la même année. Quelques mois auparavant, ce même laboratoire californien est parvenu à contrôler un plasma brûlant, le plasma étant le quatrième état de la matière (après les états solide, liquide et gazeux) dans lequel peuvent justement se rencontrer les deux noyaux d’hydrogène. En 2022, des quantités records d’énergie ont été produites par JET, une machine de recherche basée à Oxford, au Royaume-Uni. Les installations Kstar et East, implantées respectivement en Corée du Sud et en Chine, sont quant à elles parvenues à confiner le plasma sur des durées et des températures records.

Mais l’année 2022 c’est aussi l’année où « la fusion est sortie des laboratoires pour aller sur le marché », souligne Andrew Holland à la tête de la Fusion industry association (FIA). Dans son dernier rapport annuel, l’organisation dénombre 33 entreprises privées actives dans ce domaine à travers le monde. Parmi elles, 21 se sont créées au cours des cinq dernières années. On peut les ranger dans trois grandes familles. Celles qui planchent sur la fusion par confinement magnétique et qui s’appuient sur des aimants supraconducteurs pour maintenir le plasma. Celles qui travaillent sur la fusion inertielle en ayant recours à des lasers. Et celles, à l’image de General Fusion, qui entendent combiner ces deux approches.
En 2022, ces entreprises ont levé 2,8 milliards de dollars, contre près de 2 milliards de dollars un an plus tôt. Au total, depuis leur création, elles ont réuni un peu plus 4,8 milliards de dollars, principalement auprès d’investisseurs privés, (seuls 117 millions de dollars proviennent de subventions publiques). Parmi eux, on retrouve les grands fonds de capital-risque et des personnalités et des entreprises de la tech comme Bill Gates, Jeff Bezos (Amazon) ou encore Google et le groupe chinois Tencent, mais aussi une poignée d’industriels, dont l’énergéticien italien Eni, le norvégien Equinor, et les majors Chevron et Shell.

Commonwealth Fusion Systems, un spin off du MIT, représente à elle seule plus d’un tiers de ces investissements. Née en 2018, l’entreprise a bouclé un tour de table XXL de 1,8 milliard de dollars. Elle promet de commercialiser la première centrale à fusion à l’horizon 2030. Helion Energy, une autre entreprise américaine qui s’est spécialisée dans la fusion inertielle, a, elle, levé 500 millions de dollars et assure avoir déjà sécurisé un financement à venir de 1,7 milliard de dollars. Au total, sept entreprises ont déjà réuni plus de 200 millions de dollars d’investissements.

Comment expliquer cet engouement de la sphère privée pour la fusion ?
« Ce n’est pas quelque chose de nouveau. La première initiative privée remonte à 1998 avec TAE Technologies, mais le nombre de start-up a nettement augmenté à partir des années 2014-2015. A ce moment-là, Bernard Bigot, [alors à la tête du gigantesque programme scientifique international Iter, censé démontrer la viabilité de la fusion nucléaire à grande échelle, ndlr] annonce cinq années de retard sur le projet. Iter est en construction et permet à la communauté scientifique d’apprendre énormément, mais cela ne va pas assez vite. Cela a généré une frustration qui a poussé des scientifiques à entreprendre », se remémore Greg de Temmerman, coordinateur scientifique sur le projet Iter entre 2014 et 2020.
Par ailleurs, jusqu’à l’année dernière, les capitaux étaient largement disponibles tandis que les taux d’intérêt étaient à leur plus bas. Des conditions de marché qui ont conduit les investisseurs à aller chercher des investissements plus risqués afin d’obtenir des rendements plus élevés. « Or la fusion est un investissement à haut risque et à haut potentiel. C’est un investissement qui peut mener nulle part, mais si cela fonctionne l’investisseur fait fortune », souligne Greg de Temmerman. La fusion reste enfin l’un des grands défis techniques et scientifiques à résoudre. De quoi attirer des personnalités fortunées avides de ce genre de challenge.

Aujourd’hui, les Etats-Unis dominent incontestablement cette course mondiale, avec 21 entreprises basées sur son sol, tandis que seules trois sont installées en Europe continentale (Renaissance Fusion en France, Deutelio en Italie et Marvel Fusion en Allemagne) et trois autres au Royaume-Uni (Crossfield Fusion, First Light Fusion et Tokamak Energy).

Pourtant, c’est bien le Vieux Continent qui est le leader mondial de la recherche en fusion. L’Allemagne, qui a décidé de tourner le dos à la fission nucléaire, compte le plus grand nombre de chercheurs en la matière. « Les scientifiques sont parvenus à démontrer que ce n’était pas le même nucléaire, que la fusion ne présentait pas les mêmes problématiques en matière de sûreté et de déchets et qu’il fallait continuer », explique Greg de Temmerman.
En France, l’Institut de recherche sur la fusion par confinement magnétique (IRFM) du CEA, qui jouxte le chantier d’Iter à Cadarache dans les Bouches du Rhône, est mondialement reconnu. Dès 1959, le centre de recherche a participé à la réalisation de plusieurs tokamaks expérimentaux, ces structures dans lesquelles sont confinées les plasmas. Il espère désormais développer une centrale à fusion nucléaire plus compacte que le réacteur Iter.

Le Royaume-Uni, « qui est le plus gros promoteur de la fusion nucléaire en Europe », selon les propos de Jérôme Bucalossi, à la tête de l’IRFM du CEA, s’est déjà engagé dans cette voie. « Son programme STEP vise à développer un réacteur à fusion connecté au réseau électrique avant 2040 », précise-t-il. Un dynamisme qui a permis d’attirer la start-up canadienne General Fusion, soutenue par Jeff Bezos. Fondée en 2002, l’entreprise a choisi de construire sa première centrale nucléaire pilote à Culham, un petit village de l’Oxfordshire.
Malgré cet indéniable atout académique du côté européen, les entreprises américaines pourraient creuser davantage l’écart avec le reste du monde dans les mois à venir grâce à un soutien public qui se muscle. Le département de l’énergie américain a récemment débloqué 50 millions de dollars pour favoriser les partenariats publics-privés et accélérer le développement de réacteurs à fusion. Une enveloppe qui vient s’ajouter à l’Inflation Reduction Act, le vaste plan de réforme défendu par l’administration Biden, qui prévoit quelque 370 milliards de dollars pour décarboner l’économie américaine. De quoi accélérer considérablement le financement des projets liés à la fusion.

La fusionpour après 2050

Car les acteurs de la fusion sont également portés par l’urgence climatique, la nécessaire électrification des usages ainsi que la flambée des prix de l’électricité. Nombre de ces startups promettent ainsi une première centrale à fusion connectée au réseau électrique avant 2035 et présentent cette technologie comme un moyen efficace de lutter contre le changement climatique. Une communication qui « agace » Greg de Temmerman. « Un réacteur à fusion nucléaire qui fonctionne 24 heures sur 24 de façon fiable dans les années 2030, c’est hors d’atteinte, tranche-t-il. En revanche, si on parle d’un démonstrateur capable de générer de l’électricité cela peut arriver dans la décennie 2030 », reconnaît-il

Plus globalement, le spécialiste estime que la fusion « ne représentera rien pour l’énergie en 2050. Elle ne contribuera pas à la transition énergétique ». Il juge néanmoins que la fusion, comme source d’énergie pilotable et décarbonée, restera utile pour l’après 2050 et que son financement ne compromet pas, en parallèle, la décarbonation de l’économie.
En revanche, des applications en dehors du secteur de l’énergie pourraient voir le jour bien plus tôt. A Grenoble, la start-up Renaissance Fusion entend notamment commercialiser des briques technologiques issues de son activité pour l’imagerie médicale, les éoliennes ou encore les accélérateurs de particules.
Des verrous technologiques à lever

Si Greg de Temmerman se montre si prudent sur les calendriers partagés par ces startups c’est que les verrous technologiques à lever restent encore nombreux. D’abord, un réacteur à fusion devra être capable de produire son propre combustible. « On estime que les réserves de tritium sur Terre ne s’élèvent qu’à 35 kilos. Or, pour fonctionner un réacteur à fusion nucléaire aurait besoin d’une centaine de kilos de tritium par an. Le seul moyen pour la fusion d’être viable c’est que le réacteur soit capable de générer autant de tritium qu’il n’en consomme, voire plus pour pouvoir démarrer un autre réacteur », explique-t-il. La tâche est éminemment complexe. A titre d’illustration, Iter est censé tester cinq modules différents de génération de tritium.
Outre cet écueil, la recherche doit également énormément avancer sur les matériaux, car les enceintes des réacteurs devront résister à des dizaines d’années de bombardement de neutrons. Autre grand défi : s’assurer que des phénomènes de disruption du plasma ne puissent en aucun cas survenir car l’écrasement d’un plasma à 150 millions de degrés endommagerait inévitablement le matériel. « Un tokamak (l’enceinte dans laquelle est confiné le plasma, ndlr) ne peut fonctionner que si on supprime ces événements », assure Greg de Temmerman. Enfin, un tokamak a besoin de générer du courant en continu et « on n’a encore jamais prouvé qu’un tokamak pouvait fonctionner de façon continue », pointe-t-il.

Gare aux revers et déceptionsSurtout, l’industrie de la fusion n’est pas à l’abri de revers et déceptions, qui ont déjà largement marqué son histoire. « En 1998, TAE Technologies promettait un premier réacteur dans les 15 années à venir », se souvient le spécialiste. Une dizaine d’années plus tôt, en 1989, deux chimistes de l’université de l’Utah (Etats-Unis) avaient affirmé avoir réussi à fusionner des noyaux à température ambiante dans une simple cellule électrochimique sur une paillasse. Une affirmation qui s’est démentie quelques semaines plus tard. Autre exemple en 1951, au plus fort de la guerre froide. Juan Perón, alors président de l’Argentine, avait assuré que ses scientifiques étaient parvenus à maîtriser l’énergie de fusion, faisant ainsi la une des journaux du monde entier. Le combustible de fusion serait bientôt disponible, comme le lait, disait-il, dans des bouteilles d’un demi-litre.

Plus récemment, le méga projet Iter promettait la production d’un premier plasma en 2025. Celle-ci n’aura finalement pas lieu avant 2030. De quoi s’interroger sur la place de ce méga projet dans un écosystème de plus en plus dynamique. Présenté comme un outil de formation pour des milliers de physiciens, complémentaire et bénéfique pour les startups, le programme, soumis à une gouvernance très complexe et confronté à des défis d’ingénierie accentués par sa taille, cumule les retards. « C’est une question qui devient gênante », reconnaît Greg Temmerman.

Renaissance fusion, seule start-up tricolore dans la course

Renaissance fusion est la seule start-up française à plancher sur la fusion nucléaire. Basée à Grenoble, elle s’est spécialisée dans la fusion par confinement magnétique. Cette approche consiste à faire chauffer un plasma à 150 millions de degrés et à le confiner grâce à des aimants extrêmement puissants, capables de rapprocher les particules et de les faire circuler selon une trajectoire bien précise.

Toutefois, à la différence du méga projet Iter, la jeune pousse a choisi un design de réacteur bien particulier : le stellarator, qui diffère du tokamak bien plus répandu et étudié par les chercheurs par le passé. Initialement conçu par les Américains, ce type de réacteur est beaucoup plus difficile à construire que le tokamak, mais il présente un grand avantage : il permet d’obtenir un plasma très stable et de produire de l’énergie de manière continue et non pulsée. Ses aimants sont en revanche « tarabiscotés », explique Simon Belka, chef de projet au sein de l’entreprise.
Pour surmonter cet écueil, Renaissance Fusion a développé une technique innovante pour fabriquer ces aimants. « On dépose la matière supraconductrice directement sur l’enceinte du réacteur ce qui permet d’avoir une enceinte aimantée géante », résume Simon Belka. Elle utilise ensuite un laser pour enlever la matière et donner un pattern bien précis. La start-up planche aussi sur des métaux liquides capables d’absorber la chaleur afin de protéger les parois des réacteurs.

Avant de construire un réacteur nucléaire, l’entreprise prévoit de vendre ses briques technologiques à d’autres secteurs pour financer son développement. Elle entend ensuite mettre sur pied un réacteur d’essai en 2028, capable de produire deux fois plus d’énergie qu’il n’en consomme. Ce démonstrateur ne produira que de la chaleur. Dernière étape : vendre un réacteur de 1000 mégawatts électriques, soit l’équivalent peu ou prou de la puissance d’une tranche nucléaire, entre 2032 et 2035.

Renaissance Fusion officialisera dans les prochaines semaines une levée de fonds supérieure à 10 millions d’euros. Elle prépare déjà un prochain tour de table pour 2024. « On espère être dans le top 7 des plus grosses levées de fonds du secteur », indique Simon Belka.

“Ecoles du futur. ».. ou du présent ?

“Ecoles du futur. ».. ou du présent ? 

 

Comme toujours avec Macron pour masquer les échecs du présent on pratique la fuite en avant vers le futur. Si récemment le président de république a mis en valeur cette « école du futur » lors d’une visite à Marseille. Le problème c’est qu’on ferait sans doute mieux de se préoccuper de l’école actuelle, celle du présent.

 

« À l’école, quand on apprend les temps, on commence par le présent, et pas le futur. Ce dont on voudrait parler, nous directeurs ou organisations syndicales, c’est bien de l’école du présent et de toutes les problématiques actuelles », a réagi  sur franceinfo Olivier Flipo, directeur d’école primaire à Cergy et délégué du SE-Unsa du Val-d’Oise, alors qu’Emmanuel Macron a annoncé jeudi à Marseille vouloir généraliser à tout le territoire « l’école du futur », expérimentation pédagogique menée dans la cité phocéenne depuis septembre 2021.

Pour Olivier Flipo, l’urgence dans les écoles est le remplacement des professeurs absents et donc le recrutement. Dans le Val-d’Oise actuellement, « la situation est très compliquée », explique le représentant du SE-Unsa. « Récemment sur une journée, il y avait 200 classes sans enseignants, parce qu’actuellement il n’y a pas de remplaçants », les enseignants remplaçants habituels étant « déjà utilisés ». Olivier Flipo dénonce le manque  »d’anticipation sur le recrutement ». Il pointe « une situation de catastrophe qui fait que tout à coup on organise un job dating pour recruter des gens. On est en train de créer l’école du futur avec ces contractuels ». Le souci des directeurs d’écoles est « de gérer la pénurie », souligne l’enseignant.

Ces appels à candidature organisés dans certaines académies pour trouver « des futurs contractuels pour occuper ces postes, c’est bien car on ne peut pas être contre cet aspect d’avoir du personnel supplémentaire », nuance Olivier Flipo. Mais il juge que  »là où le bât blesse, c’est la formation » de ces volontaires « et combien de gens vont réellement se présenter ». Certains sont « très intéressants pour certains », mais souvent « il y a des gens qui sont complètement à côté de la plaque et n’ont aucune imagination de ce que cela peut représenter ».

Revenant sur l’expérimentation de « l’école du futur » menée à Marseille, le délégué du SE-Unsa du Val-d’Oise rappelle que ce sont « 59 écoles volontaires qui avaient déjà un projet ». Selon lui, le gouvernement n’a « rien fait de nouveau ou inventé ». Cette expérimentation ne pose donc « pas de difficultés particulières ». Il précise que les commissions de recrutement qui sont en place sont composées « de deux inspecteurs, du directeur de l’école et d’un adjoint ». Cette commission émet ensuite « un avis favorable ou défavorable » sur les candidats. Selon lui, « dans les faits, sur les 59 écoles, tous les avis ont été favorables ». Olivier Flipo attend maintenant surtout qu’il y ait une évaluation su système : « On en fait un bilan et on ne généralise pas dès que l’expérimentation a à peine commencé. »

Les enquêtes Pisa menées depuis une vingtaine d’années sur des collégiens de 15 ans montrent en effet une baisse régulière des résultats de nos élèves, surtout ceux issus de milieux défavorisés, ce qui fait de notre système scolaire l’un des moins efficaces et des plus inégalitaires des pays de l’OCDE. Surtout : 20% des élèves entrent au collège sans maîtriser la lecture, l’écriture et le calcul, et 60 % des étudiants ne parviendront pas à obtenir leur licence en trois ans. Ce sombre tableau doit alarmer : notre école fabrique une jeunesse privée de chances, et la mobilité sociale est sérieusement enrayée.

 

 

École du futur ou du passé décomposé ?

École du futur ou du passé décomposé ?

 

La vision progressiste  souvent complètement utopique de Macron le conduit à choisir des chemins qui permettent d’enjamber les difficultés du présent en imaginant un futur révolutionnaire. Parler d’école du futur à Marseille paraît un peu surréaliste quand on connaît les difficultés socio-économiques et sociétales de nombre de populations de cette région et de l’état lamentable des services publics, éducation nationale comprise.Emmanuel Macron a annoncé, jeudi, vouloir généraliser à tout le territoire « l’école du futur ». Il s’agit d’une expérimentation pédagogique menée notamment à Marseille depuis septembre 2021.

 

« À l’école, quand on apprend les temps, on commence par le présent, et pas le futur. Ce dont on voudrait parler, nous directeurs ou organisations syndicales, c’est bien de l’école du présent et de toutes les problématiques actuelles », a réagi jeudi 2 juin sur franceinfo Olivier Flipo, directeur d’école primaire à Cergy et délégué du SE-Unsa du Val-d’Oise, alors qu’Emmanuel Macron a annoncé jeudi à Marseille vouloir généraliser à tout le territoire « l’école du futur », expérimentation pédagogique menée dans la cité phocéenne depuis septembre 2021.

Pour Olivier Flipo, l’urgence dans les écoles est le remplacement des professeurs absents et donc le recrutement. Dans le Val-d’Oise actuellement, « la situation est très compliquée », explique le représentant du SE-Unsa. « Récemment sur une journée, il y avait 200 classes sans enseignants, parce qu’actuellement il n’y a pas de remplaçants », les enseignants remplaçants habituels étant « déjà utilisés ». Olivier Flipo dénonce le manque  »d’anticipation sur le recrutement ». Il pointe « une situation de catastrophe qui fait que tout à coup on organise un job dating pour recruter des gens. On est en train de créer l’école du futur avec ces contractuels ». Le souci des directeurs d’écoles est « de gérer la pénurie », souligne l’enseignant.

Ces appels à candidature organisés dans certaines académies pour trouver « des futurs contractuels pour occuper ces postes, c’est bien car on ne peut pas être contre cet aspect d’avoir du personnel supplémentaire », nuance Olivier Flipo. Mais il juge que  »là où le bât blesse, c’est la formation » de ces volontaires « et combien de gens vont réellement se présenter ». Certains sont « très intéressants pour certains », mais souvent « il y a des gens qui sont complètement à côté de la plaque et n’ont aucune imagination de ce que cela peut représenter ».

Revenant sur l’expérimentation de « l’école du futur » menée à Marseille, le délégué du SE-Unsa du Val-d’Oise rappelle que ce sont « 59 écoles volontaires qui avaient déjà un projet ». Selon lui, le gouvernement n’a « rien fait de nouveau ou inventé ». Cette expérimentation ne pose donc « pas de difficultés particulières ». Il précise que les commissions de recrutement qui sont en place sont composées « de deux inspecteurs, du directeur de l’école et d’un adjoint ». Cette commission émet ensuite « un avis favorable ou défavorable » sur les candidats. Selon lui, « dans les faits, sur les 59 écoles, tous les avis ont été favorables ». Olivier Flipo attend maintenant surtout qu’il y ait une évaluation su système : « On en fait un bilan et on ne généralise pas dès que l’expérimentation a à peine commencé. »

L’école du présent de Macron ressemble à une sorte de passé…. décomposé  !

Santé: médecine du futur et cancers ?

Santé: médecine du futur et  cancers ?

Les  recherches actuelles dessinent une cancérologie d’avenir en mode 3.0, adaptée aux tumeurs comme au patient, pour améliorer les chances de guérir en réduisant les séquelles. Cette semaine, le leader de la cancérologie Gustave Roussy publie les premiers résultats d’une étude européenne pour comprendre les rechutes des cancers pédiatriques. Comment la cancérologie prendra-t-elle les malades en charge dans dix ans ? ( (Un papier de Florence Pinaud de la Tribune)

 

La cancérologie va-t-elle devenir une véritable médecine de précision ? Le leader de la cancérologie Gustave Roussy vient d’annoncer les résultats d’une étude européenne Mappyacts sur le cancer pédiatrique. Alors que de nombreux jeunes patients rechutent, cette étude séquence le génome des tumeurs pour mieux comprendre leur évolution afin d’adapter les traitements. Un premier pas vers la cancérologie du futur hyper personnalisée, une cancérologie 3.0.

Depuis vingt ans, la lutte contre le cancer a progressé. Si le nombre de nouveaux cas ne recule pas, la médecine soigne mieux cette maladie encore trop souvent mortelle. Aujourd’hui, 60% des cas traités donnent lieu à une guérison, d’autant plus que la maladie a été détectée tôt. Mais la prise en charge reste un exercice difficile. Si les immunothérapies et les nouveaux traitements ciblés fonctionnent très bien sur certains patients, ils échouent sur d’autres sans que l’on comprenne exactement pourquoi. De plus, les rechutes restent nombreuses et demandent des traitements plus élaborés. Les spécialistes sont clairs : on a encore beaucoup à apprendre sur le cancer. Et les nouvelles technologies nous aident à découvrir toutes les stratégies avec lesquelles il attaque et résiste aux médicaments. Détection plus précoce, traitements personnalisés et réduction des séquelles, que peut-on attendre de la cancérologie de demain ?

Diagnostiquer plus vite

Un des principaux enjeux est le diagnostic précoce. Plus tôt le cancer est identifié, meilleures sont les chances de guérison. « Aujourd’hui, nous intervenons le plus souvent tard, sur des cancers déjà métastasés, regrette Éric Solary, oncologue à Gustave Roussy et président du Conseil scientifique de la fondation ARC. Avec le progrès de l’imagerie médicale associée à l’intelligence artificielle, nous détecterons des tumeurs bien plus petites de manière très précoce. Nous parviendrons même à repérer les lésions dites pré néoplasiques, qui ne sont pas encore cancéreuses, mais risquent de le devenir. » Premier centre européen de cancérologie, Gustave Roussy développe actuellement une clinique pilote de prévention personnalisée des cancers. Une pratique appelée « Interception » pour évaluer les risques cancéreux des Français et suivre leur évolution, « La définition de ces risques pourra être affinée en fonction de l’exposition du patient à différents agents toxiques, poursuit Éric Solary. Mieux les connaître permettrait d’envisager des traitements préventifs pour maîtriser la maladie avant même qu’elle ne se déclare. » Pour définir quels facteurs induisent exactement quels risques, la recherche devra utiliser le big data pour parfaire sa connaissance des différents facteurs cancérogènes, qu’ils soient chimiques, biologiques ou génétiques. À terme, l’institut envisage de créer un centre de diagnostic rapide des risques cancéreux ouvert à tous les patients inquiets.

Mieux comprendre la maladie

Après des années d’études médicales, l’oncologie sollicite aujourd’hui d’autres sciences et techniques pour affiner sa compréhension des mécanismes de la maladie. Car au-delà d’une cellule qui se développe anormalement, cette pathologie est très complexe. « Le cancer implique des milliers de mécanismes biologiques encore mal connus, précise le Professeur Fabrice Barlesi, Directeur général de Gustave Roussy. Différentes disciplines scientifiques nous aideront à identifier ces mécanismes pour améliorer sa prise en charge. La recherche transdisciplinaire permet de mettre progressivement à jour le caractère inattendu de ces cellules cancéreuses ; comme leur capacité à devenir dormantes pour échapper à la vigilance des traitements avant de se réveiller et de déclencher des rechutes. » Avec le projet du Paris Saclay Cancer Cluster (voir Tribune du 04 février), l’institut mise sur le développement des équipes pluridisciplinaires associant des chercheurs de l’université Paris-Saclay, de l’Institut Polytechnique de Paris, de l’Inserm et de partenaires privés pour améliorer l’approche et la définition de tous les mécanismes secrets du cancer.

Pour mieux adapter les traitements

Dans les labos, différentes découvertes permettront de déterminer des marqueurs influençant la manière dont patient et cancer vont réagir au traitement. Jean-Philippe Girard est Directeur de Recherche Inserm à l’Institut de pharmacologie et de biologie structurale IPBS de Toulouse. Il vient de comprendre une des raisons pour lesquelles les traitements d’immunothérapie ne marchaient pas toujours chez les patients. « Il existe un mécanisme qui permet aux cellules immunitaires lymphocytes T de pénétrer dans les tumeurs pour éliminer les cellules cancéreuses, explique-t-il. Ce sont des vaisseaux sanguins spécifiques dits HEV qui jouent le rôle de porte d’entrée pour ces lymphocytes dopés par l’immunothérapie et capables d’éliminer les cellules cancéreuses. Suivant les patients et les cancers, on trouve plus ou moins de ces vaisseaux HEV qui favorisent clairement l’efficacité de l’immunothérapie. Il s’agit d’un marqueur qui prédit la réponse à ce type de traitement. » Autre grand mystère du cancer, les rechutes sont aussi des mécanismes complexes. Jean-Emmanuel Sarry est responsable de l’équipe « Métabolisme et résistance thérapeutique dans les leucémies aiguës myéloïdes » au Centre de Recherches en Cancérologie de Toulouse. Son équipe travaille à comprendre les mécanismes qui sous-tendent les résistances thérapeutiques responsables des rechutes.. « Nous avons identifié un biomarqueur prédictif des réponses à certains traitements administrés pour soigner ce type de leucémies. Ce biomarqueur « Mitoscore » est associé à une forte activité mitochondriale et énergétique des cellules leucémiques. Il pourrait nous permettre de proposer des thérapies plus personnalisées pour réduire les rechutes. Elles pourraient y associer un inhibiteur des mitochondries pour les patients à mitoscore élevé. »

Autre piste d’adaptation des traitements, une étude de Gustave Roussy a montré que les patients possédant la bactérie intestinale Akkermansia Muciniphila (AKK) présentent une meilleure réponse aux traitements par immunothérapie. Une clinique du microbiote a été créée et des essais cliniques ont démarré sur le cancer du poumon et le cancer du rein.

Vers une cancérologie de précision

En comprenant mieux comment le cancer évolue et résiste, la cancérologie de demain saura quel traitement sera le plus efficace sur quelle tumeur suivant la nature du patient. « La compréhension des mécanismes biologiques et génétiques permettra d’identifier les marqueurs pour adapter au mieux le traitement à la maladie, mais aussi au patient, explique Fabrice Barlesi. Avec ces découvertes, nous irons vers une médecine de précision ultra personnalisée. La prise en compte des multiples marqueurs améliorera clairement les chances de guérison. »

Pour cette cancérologie 3.0, Gustave Roussy développe un programme qui élaborera un avatar numérique et biologique de chaque patient. Une sorte de cancer virtuel modélisant tous les mécanismes qui favorisent la progression de la maladie, pour proposer des traitements personnalisés dès le diagnostic. Actuellement, l’institut teste l’efficacité de 25 médicaments différents sur des morceaux de la tumeur d’un patient, cultivée en laboratoire. Cela permettra de déterminer ce qui fonctionnera le mieux sur ce cancer précis. À terme, cette procédure menée dès le diagnostic permettra de savoir exactement quoi prescrire pour mieux guérir.

« À chaque fois qu’une technologie progresse, elle permet d’améliorer la compréhension puis le traitement du cancer, souligne Éric Solary. La prochaine étape viendra sans doute du machine learning qui va déclencher des avancées de ruptures. » Pour réunir les données nécessaires à une bonne intelligence artificielle Cancer, les oncologues lancent un mouvement de partage des données. Déjà, différentes bases d’oncologie se développent. Ainsi, la biotech de Montpellier SeqOne Genomics s’est impliquée dans la base Celia (Comprehensive Genomic profiling impact) aux côtés du géant américain Illumina). Ce projet vise à évaluer l’utilité clinique du profilage génomique complet dans la prise en charge thérapeutique de patients atteints d’un cancer à un stade avancé. La recherche contre le cancer a aussi pris une dimension européenne avec le Plan cancer européen qui espère réduire la mortalité de 3 millions d’ici 2030.

Pour ce plan, la France pilote le projet de plateforme européenne de recherche UNCAN.eu (UNderstand CANcer) avec une base européenne des données de recherche en cancérologie. Enfin, le dernier enjeu de la cancérologie 3.0 consiste à améliorer la vie des patients guéris. À cause des effets secondaires, les traitements sous forme de chimio ou d’immuno-thérapie qui les sauvent fatiguent aussi beaucoup les patients et les vieillissent prématurément. Il est essentiel de trouver le moyen d’améliorer leur qualité de vie après le cancer.

Florence Pinaud

La médecine du futur et les cancers ?

La médecine du futur et  les cancers ?

Les  recherches actuelles dessinent une cancérologie d’avenir en mode 3.0, adaptée aux tumeurs comme au patient, pour améliorer les chances de guérir en réduisant les séquelles. Cette semaine, le leader de la cancérologie Gustave Roussy publie les premiers résultats d’une étude européenne pour comprendre les rechutes des cancers pédiatriques. Comment la cancérologie prendra-t-elle les malades en charge dans dix ans ? ( (Un papier de Florence Pinaud de la Tribune)

 

La cancérologie va-t-elle devenir une véritable médecine de précision ? Le leader de la cancérologie Gustave Roussy vient d’annoncer les résultats d’une étude européenne Mappyacts sur le cancer pédiatrique. Alors que de nombreux jeunes patients rechutent, cette étude séquence le génome des tumeurs pour mieux comprendre leur évolution afin d’adapter les traitements. Un premier pas vers la cancérologie du futur hyper personnalisée, une cancérologie 3.0.

Depuis vingt ans, la lutte contre le cancer a progressé. Si le nombre de nouveaux cas ne recule pas, la médecine soigne mieux cette maladie encore trop souvent mortelle. Aujourd’hui, 60% des cas traités donnent lieu à une guérison, d’autant plus que la maladie a été détectée tôt. Mais la prise en charge reste un exercice difficile. Si les immunothérapies et les nouveaux traitements ciblés fonctionnent très bien sur certains patients, ils échouent sur d’autres sans que l’on comprenne exactement pourquoi. De plus, les rechutes restent nombreuses et demandent des traitements plus élaborés. Les spécialistes sont clairs : on a encore beaucoup à apprendre sur le cancer. Et les nouvelles technologies nous aident à découvrir toutes les stratégies avec lesquelles il attaque et résiste aux médicaments. Détection plus précoce, traitements personnalisés et réduction des séquelles, que peut-on attendre de la cancérologie de demain ?

Diagnostiquer plus vite

Un des principaux enjeux est le diagnostic précoce. Plus tôt le cancer est identifié, meilleures sont les chances de guérison. « Aujourd’hui, nous intervenons le plus souvent tard, sur des cancers déjà métastasés, regrette Éric Solary, oncologue à Gustave Roussy et président du Conseil scientifique de la fondation ARC. Avec le progrès de l’imagerie médicale associée à l’intelligence artificielle, nous détecterons des tumeurs bien plus petites de manière très précoce. Nous parviendrons même à repérer les lésions dites pré néoplasiques, qui ne sont pas encore cancéreuses, mais risquent de le devenir. » Premier centre européen de cancérologie, Gustave Roussy développe actuellement une clinique pilote de prévention personnalisée des cancers. Une pratique appelée « Interception » pour évaluer les risques cancéreux des Français et suivre leur évolution, « La définition de ces risques pourra être affinée en fonction de l’exposition du patient à différents agents toxiques, poursuit Éric Solary. Mieux les connaître permettrait d’envisager des traitements préventifs pour maîtriser la maladie avant même qu’elle ne se déclare. » Pour définir quels facteurs induisent exactement quels risques, la recherche devra utiliser le big data pour parfaire sa connaissance des différents facteurs cancérogènes, qu’ils soient chimiques, biologiques ou génétiques. À terme, l’institut envisage de créer un centre de diagnostic rapide des risques cancéreux ouvert à tous les patients inquiets.

Mieux comprendre la maladie

Après des années d’études médicales, l’oncologie sollicite aujourd’hui d’autres sciences et techniques pour affiner sa compréhension des mécanismes de la maladie. Car au-delà d’une cellule qui se développe anormalement, cette pathologie est très complexe. « Le cancer implique des milliers de mécanismes biologiques encore mal connus, précise le Professeur Fabrice Barlesi, Directeur général de Gustave Roussy. Différentes disciplines scientifiques nous aideront à identifier ces mécanismes pour améliorer sa prise en charge. La recherche transdisciplinaire permet de mettre progressivement à jour le caractère inattendu de ces cellules cancéreuses ; comme leur capacité à devenir dormantes pour échapper à la vigilance des traitements avant de se réveiller et de déclencher des rechutes. » Avec le projet du Paris Saclay Cancer Cluster (voir Tribune du 04 février), l’institut mise sur le développement des équipes pluridisciplinaires associant des chercheurs de l’université Paris-Saclay, de l’Institut Polytechnique de Paris, de l’Inserm et de partenaires privés pour améliorer l’approche et la définition de tous les mécanismes secrets du cancer.

Pour mieux adapter les traitements

Dans les labos, différentes découvertes permettront de déterminer des marqueurs influençant la manière dont patient et cancer vont réagir au traitement. Jean-Philippe Girard est Directeur de Recherche Inserm à l’Institut de pharmacologie et de biologie structurale IPBS de Toulouse. Il vient de comprendre une des raisons pour lesquelles les traitements d’immunothérapie ne marchaient pas toujours chez les patients. « Il existe un mécanisme qui permet aux cellules immunitaires lymphocytes T de pénétrer dans les tumeurs pour éliminer les cellules cancéreuses, explique-t-il. Ce sont des vaisseaux sanguins spécifiques dits HEV qui jouent le rôle de porte d’entrée pour ces lymphocytes dopés par l’immunothérapie et capables d’éliminer les cellules cancéreuses. Suivant les patients et les cancers, on trouve plus ou moins de ces vaisseaux HEV qui favorisent clairement l’efficacité de l’immunothérapie. Il s’agit d’un marqueur qui prédit la réponse à ce type de traitement. » Autre grand mystère du cancer, les rechutes sont aussi des mécanismes complexes. Jean-Emmanuel Sarry est responsable de l’équipe « Métabolisme et résistance thérapeutique dans les leucémies aiguës myéloïdes » au Centre de Recherches en Cancérologie de Toulouse. Son équipe travaille à comprendre les mécanismes qui sous-tendent les résistances thérapeutiques responsables des rechutes.. « Nous avons identifié un biomarqueur prédictif des réponses à certains traitements administrés pour soigner ce type de leucémies. Ce biomarqueur « Mitoscore » est associé à une forte activité mitochondriale et énergétique des cellules leucémiques. Il pourrait nous permettre de proposer des thérapies plus personnalisées pour réduire les rechutes. Elles pourraient y associer un inhibiteur des mitochondries pour les patients à mitoscore élevé. »

Autre piste d’adaptation des traitements, une étude de Gustave Roussy a montré que les patients possédant la bactérie intestinale Akkermansia Muciniphila (AKK) présentent une meilleure réponse aux traitements par immunothérapie. Une clinique du microbiote a été créée et des essais cliniques ont démarré sur le cancer du poumon et le cancer du rein.

Vers une cancérologie de précision

En comprenant mieux comment le cancer évolue et résiste, la cancérologie de demain saura quel traitement sera le plus efficace sur quelle tumeur suivant la nature du patient. « La compréhension des mécanismes biologiques et génétiques permettra d’identifier les marqueurs pour adapter au mieux le traitement à la maladie, mais aussi au patient, explique Fabrice Barlesi. Avec ces découvertes, nous irons vers une médecine de précision ultra personnalisée. La prise en compte des multiples marqueurs améliorera clairement les chances de guérison. »

Pour cette cancérologie 3.0, Gustave Roussy développe un programme qui élaborera un avatar numérique et biologique de chaque patient. Une sorte de cancer virtuel modélisant tous les mécanismes qui favorisent la progression de la maladie, pour proposer des traitements personnalisés dès le diagnostic. Actuellement, l’institut teste l’efficacité de 25 médicaments différents sur des morceaux de la tumeur d’un patient, cultivée en laboratoire. Cela permettra de déterminer ce qui fonctionnera le mieux sur ce cancer précis. À terme, cette procédure menée dès le diagnostic permettra de savoir exactement quoi prescrire pour mieux guérir.

« À chaque fois qu’une technologie progresse, elle permet d’améliorer la compréhension puis le traitement du cancer, souligne Éric Solary. La prochaine étape viendra sans doute du machine learning qui va déclencher des avancées de ruptures. » Pour réunir les données nécessaires à une bonne intelligence artificielle Cancer, les oncologues lancent un mouvement de partage des données. Déjà, différentes bases d’oncologie se développent. Ainsi, la biotech de Montpellier SeqOne Genomics s’est impliquée dans la base Celia (Comprehensive Genomic profiling impact) aux côtés du géant américain Illumina). Ce projet vise à évaluer l’utilité clinique du profilage génomique complet dans la prise en charge thérapeutique de patients atteints d’un cancer à un stade avancé. La recherche contre le cancer a aussi pris une dimension européenne avec le Plan cancer européen qui espère réduire la mortalité de 3 millions d’ici 2030.

Pour ce plan, la France pilote le projet de plateforme européenne de recherche UNCAN.eu (UNderstand CANcer) avec une base européenne des données de recherche en cancérologie. Enfin, le dernier enjeu de la cancérologie 3.0 consiste à améliorer la vie des patients guéris. À cause des effets secondaires, les traitements sous forme de chimio ou d’immuno-thérapie qui les sauvent fatiguent aussi beaucoup les patients et les vieillissent prématurément. Il est essentiel de trouver le moyen d’améliorer leur qualité de vie après le cancer.

Florence Pinaud

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol