Archive pour le Tag 'futur'

Restaurants : La grande confusion du futur label «préparé sur place»

Restaurants : La grande confusion du futur label «préparé sur place»

Le gouvernement a annoncé fin octobre que les cartes des restaurants en France devront mentionner les plats qui ne sont pas préparés sur place d’ici à 2025.Et le futur label préparé sur place devrait se substituer à l’indication actuelle « fait maison ». Un label déjà confus et en plus qui va coexister pendant un temps avec le label « préparé sur place ».

De concessions en concessions vis-à-vis d’une population très hétéroclite, le gouvernement s’enfonce dans le flou le plus absolu.

Avec l’ancien label  » fait maison » cétait déjà la confusion d’après le journal Le Monde: »Sauce maison ou en poudre ? Purée maison ou déshydratée ? Bœuf bourguignon maison ou sous vide ? Moelleux au chocolat maison ou surgelé ? Le décret relatif à la mention « fait maison ». Il concerne les établissements de restauration commerciale ou de vente à emporter de plats préparés .Les restaurateurs peuvent faire figurer sur la devanture ou la carte de leur établissement le logo « fait maison », un toit de maison posé sur un casserole, censé garantir une cuisine sur place à partir de « produits bruts ou de produits traditionnels de cuisine ». Ce logo peut être attribué plat par plat. En France, plus de 80 % des restaurants pratiqueraient une cuisine dite d’assemblage.

En réalité dans 80 % des cas au moins une partie sinon la totalité des aliments sont fabriqués de manière industrielle et nombre de restaurants sont des réchauffeurs de plats. Une situation qui porte un énorme préjudice à la gastronomie française et aux vrais professionnels.

Rien d’étonnant à cela la moitié des restaurateurs en France sont dirigée par des non professionnels; des commerçants qui se lancent dans cette profession qui n’exige aucune qualification officielle. Du coup ,rapidement beaucoup de ces nouveaux venus se rende compte de la complexité de l’activité, des problèmes de compétitivité et de gestion. D’où un recours accru à la cuisine industrielle qui permet surtout d’éviter les coûts sociaux en tout cas une partie.

Le futur label «préparé sur place» déjà très flou sur le menu des restaurants va coexister au moins un temps avec l’actuelle mention «fait maison», a indiqué ce lundi la ministre déléguée aux PME Olivia Grégoire devant des professionnels du secteur. «L’objectif est simple : garantir plus d’équité aux restaurateurs, garantir une meilleure information aux consommateurs», a-t-elle indiqué aux membres du Groupement des hôtelleries et restaurations de France (GHR) réunis en congrès.

Ce concept de « préparé sur place » n’a aucun sens, en tout cas pas l’avantage que le précédent. Le problème est le manque de régulation d’une profession ou trop d’amateurs s’aventurent sans compétence et sans sérieux. Preuve du nouveau flou du concept préparé sur place : le slogan est établi mais pas son contenu comme l’avoue la ministre Grégoire «Il va falloir qu’on définisse ensemble le “préparé sur place”, et surtout qui soit applicable chez vous, parce que le “fait maison” tel qu’on l’a construit, doté de toutes les exceptions et spécificités, est inapplicable. Là, l’objectif va être beaucoup plus simple» ! a-t-elle assuré.

Futur bac : Il serait tenu compte des fautes d’orthographe !!!

Futur bac : Il serait tenu compte des fautes d’orthographe !!!

Le ministre de l’Education nationale, Pap Ndiaye, s’est dit favorable ce dimanche à une prise en compte des fautes de français dans la notation des copies du bac dans les années à venir, promettant un « vaste chantier » dans ce domaine. En creux le ministre convient que nombre d’élèves ne méritent donc pas le bac octroyé à 91 % de la population concernée. En effet, on peut se demander quel est le niveau de qualité d’une copie qui ignore l’orthographe, un sujet qui n’est plus au programme après le CM2.

Evoquant des copies du baccalauréat souvent truffées de fautes, il souhaite « l’introduction de critères formels dans les épreuves à propos du niveau de français » lors d’une interview sur Radio J.

« À partir d’un certain niveau de langue trop problématique », quelle que soit la qualité de la copie, celle-ci ne pourrait ainsi ne pas dépasser une certaine note. Concrètement, il s’agirait de « points en moins si on fait des fautes de français ».

Pierre Moscovici futur patron de la Cour des Comptes

Pierre Moscovici futur patron de la Cour des Comptes

Didier Migaud Sera remplacé à la tête de la Cour des Comptes par Pierre Moscovici, actuellement commissaire européen aux Affaires économiques et financières depuis cinq ans. Pas vraiment un grand changement car la Cour des Comptes va conserver son rôle d’évaluation de la politique financière et des comptes publics. Elle va continuer de se montrer lucide et même sévère. Le problème c’est que souvent les responsables de la Cour des Comptes se montrent beaucoup plus rigoureux en situation d’observation qu’en situation de gestion quand ils sont membres d’un gouvernement. C’est le cas notamment de Pierre Moscovici qui n’a guère participé au redressement financier de la France lorsqu’il était ministre de François Hollande.

Pierre Moscovici est l’archétype des technocrates du parti socialiste qui n’ont jamais vraiment manifesté de grandes personnalités, détermination ou d’innovation. Bref c’est le reflet de ces socialistes mous, sans doute compétents mais finalement assez impuissant et qui ont préféré suivre le sens du courant.

L’Afrique, Futur exemple de Metropolisation !

L’Afrique, Futur exemple de Metropolisation !

Comment le développement urbain en Afrique peut-il réussir ? Nous aimerions proposer trois suggestions basées sur notre travail de recherche au MIT Senseable City Lab. Ainsi, les partenaires internationaux de l’Afrique devraient voir sa rapide urbanisation non pas comme un problème qu’ils devraient aider à résoudre, mais comme une opportunité de faire progresser l’urbanité elle-même. Par Carlo Ratti, Senseable City Lab du MIT dans la Tribune

Un article intéressant car il illustre bien la religion de la métropolitisation qui tue les territoires des pays développés et qui constituent souvent une question particulièrement difficile à gérer dans les pays pauvres. Dans les pays en développement, on ne saurait traiter simplement que de l’urbanisme organisé. Il faut aussi prendre en compte ces immenses ghettos souvent plus étendus que la ville elle-même où se cumulent les problèmes de santé, d’insécurité et de pauvreté tandis que la désertification des territoires conduit à renforcer le poids des importations et la vie chère en même temps NDLR

On a beaucoup parlé de la croissance vertigineuse des villes du monde, mais beaucoup ignorent à quoi elle ressemble réellement. Sous l’effet conjugué des naissances et de l’exode rural, la population urbaine mondiale s’enrichit de l’équivalent d’un nouveau Londres toutes les trois semaines. Mais cette croissance n’a pas lieu à Londres même, ni dans aucune des villes de l’Occident industriel dont la démographie est stagnante. Pendant des décennies, elle s’est produite en Chine, où le gouvernement a déplacé des centaines de millions de personnes des zones rurales vers des villes démesurées, mais cette tendance s’est finalement stabilisée.

Aujourd’hui, le centre de gravité urbain est l’Afrique, où près d’un milliard de citadins pourraient apparaître d’ici 2050. Pourtant, beaucoup trop d’architectes et d’urbanistes du Nord global sont déconnectés de cette réalité. Ceux qui s’engagent considèrent souvent l’Afrique à travers un prisme dépassé, privilégiant les « meilleures pratiques » du passé au lieu d’embrasser le rôle du continent dans la construction de l’avenir. Comment la communauté internationale peut-elle s’associer aux dirigeants et aux innovateurs urbains africains pour rendre les villes du continent, qui connaissent une croissance rapide, plus vivable, plus productive et plus durable ?

En effet, nous devrions considérer l’Afrique comme le prochain laboratoire urbain du monde, où la forme des villes – adaptées à la diversité du continent et à ses défis du XXIe siècle – est encore en train d’être élaborée. C’est l’esprit que Lesley Lokko apporte à la Biennale de Venise 2023 sur le thème de l’Afrique, dont le titre est « Le laboratoire du futur. » Cet événement, qui ouvrira le 20 mai, représente l’avant-garde de l’architecture africaine et que l’avant-garde de l’architecture en général.. L’expression « ville du futur » évoque normalement des métropoles riches et puissantes comme Singapour ou Séoul, mais en réalité, elle pourrait ressembler davantage à Nairobi et Lagos. Ces villes sont en première ligne de nos défis modernes – pauvreté, inégalité, changement climatique, migration massive, et plus encore – et c’est là qu’ils seront résolus.

Comment le développement urbain en Afrique peut-il réussir? Nous aimerions proposer trois suggestions basées sur notre travail de recherche au MIT Senseable City Lab.

Tout d’abord, nous devons abandonner les meilleures pratiques du passé. Le chemin de développement de la plupart des villes africaines ne ressemble ni à celui de Londres ni à celui de Pékin, et les pays riches doivent résister à la tendance néocoloniale qui consiste à pousser l’Afrique à se construire à son image. La dépendance à l’égard des meilleures pratiques ralentit le rythme de l’innovation, une erreur particulièrement coûteuse alors que les défis de notre époque évoluent avec une rapidité sans précédent. Nous devons adopter l’expérimentation, d’abord à la petite échelle. Des pratiques administratives comme la « ville de charte » de Paul Romer, adaptées à grande et petite échelle, peuvent permettre aux dirigeants urbains de tester de nouvelles façons de faire la ville.

Deuxièmement, pour gérer le rythme rapide du changement, les villes africaines peuvent profiter de la révolution numérique pour mesurer les interventions et les réponses. Les dirigeants municipaux en Afrique ne disposent souvent pas des infrastructures de collecte de données disponibles dans les régions plus riches, où le Big data et l’Internet des objets nous offrent des outils bon marché pour suivre la vie d’une ville et évaluer le succès de différentes politiques, ce qui nous permet de comprendre même les métropoles les plus complexes. Pourtant, les données citoyennes et la collecte de données mobiles peuvent permettre aux administrateurs municipaux de mesurer la pollution de l’air, le trafic, l’efficacité énergétique des bâtiments, et bien d’autres choses encore. L’analyse des données par l’IA pourrait éventuellement nous permettre de repérer des modèles que les yeux humains ne pourraient jamais voir, nous aidant ainsi à résoudre des problèmes apparemment insolubles.

Troisièmement, en dehors du domaine numérique, il existe de nombreuses opportunités pour les villes africaines d’expérimenter dans le domaine physique. Nous sommes à l’aube d’une révolution dans la construction abordable et durable, et – dans le contexte du changement climatique – les villes africaines pourraient en être les bénéficiaires principales. Les changements démographiques et les catastrophes naturelles rendent la construction de logements plus flexible et rapide une nécessité, mais les bâtiments préfabriqués actuels sont presque universellement (et à juste titre) associés à la mauvaise qualité. Les villes africaines et leurs partenaires pourraient utiliser les nouvelles avancées dans les techniques de construction modulaire et préfabriquée qui exploitent la conception assistée par ordinateur (CAO) et les matériaux légers et de haute qualité comme le bois lamellé-croisé (CLT). La combinaison de ces avancées permet de fabriquer en usine un bâtiment durable en pièces, puis de l’expédier sur un chantier de construction et de l’assembler en quelques jours. En outre, chaque tonne de CLT stocke 1,8 tonne de CO2, l’éliminant ainsi de l’atmosphère.

Ainsi, les partenaires internationaux de l’Afrique devraient voir sa rapide urbanisation non pas comme un problème qu’ils devraient aider à résoudre, mais comme une opportunité de faire progresser l’urbanité elle-même.

De nombreux économistes observent que les pays pauvres peuvent économiquement faire un « saute-mouton » (leapfrog) leurs voisins plus riches grâce à l’adaptation rapide de nouvelles technologies et techniques. La gestion des villes ne fait pas exception. Les métropoles africaines peuvent être les premières à s’adapter et à adopter, montrant ainsi la voie au monde entier.!!!

Le futur euro numérique se précise

Le futur euro numérique se précise

Finalement le futur euro numérique devrait couvrir toutes les utilisations. Le lancement pourrait avoir lieu vers 2025. La BCE entend bien cependant conserver la mainmise sur ces utilisations et les banques conserveront eux aussi leur rôle. Une différence de taille avec les actuelles cryptomonnaies qui peuvent s’affranchir de tout intermédiaire.

Aussi, la BCE voudrait que l’euro numérique soit inclusif, c’est pourquoi elle travaille à une « nouvelle application numérique » simple à utiliser pour des paiements effectués en passant par des intermédiaires bancaires, a expliqué M. Panetta. Face à l’euro numérique, les crypto-actifs échangés via la blockchain promettent, eux, la décentralisation ou encore, comme le bitcoin, un nombre limité à 21 millions de jetons afin d’éviter les effets collatéraux de la planche à billets.

« Quel que soit l’endroit où vous voyagez dans la zone euro, l’euro numérique sera toujours reconnu » et « vous pourrez payer avec », a décrit Fabio Panetta.
Les premières versions de l’application « devraient proposer des paiements sans contact ou des codes QR », selon M. Panetta. Les supports pourront être des smartphones, cartes de paiement et autres montres intelligentes.

À mesure que la technologie évoluera, « d’autres formes de paiement pourraient devenir disponibles à l’avenir » en étant offertes par des « intermédiaires supervisés », a-t-il dit.
Ces derniers seront « les mieux placés pour identifier les cas d’utilisation des paiements conditionnels et de tout autre service de paiement avancé » en pouvant également intégrer l’euro numérique dans leurs propres plateformes, a-t-il relevé.
Pour les Etat comme pour l’UE, il s’agit de garder le contrôle sur le pouvoir monétaire, un enjeu d’autant plus important face à la forte inflation qu’elle tente de maîtriser depuis la crise Covid. L’émergence d’une monnaie électronique de banque centrale permettrait aussi au niveau européen de « disposer d’un puissant levier d’affirmation de notre souveraineté face aux initiatives privées du type Libra » (le projet de Facebook finalement abandonné par la firme sous la pression des régulateurs NDLR), plaidait en 2020 dernier François Villeroy de Galhau, le gouverneur de la Banque de France.

Énergie du futur : la Fusion nucléaire pour après 2050 ?

Énergie du futur :la Fusion nucléaire pour après 2050 ?

2022 constitue sans nul doute une année charnière pour la fusion nucléaire. Le 13 décembre dernier, la communauté scientifique œuvrant dans ce domaine était en ébullition. Et pour cause, les Etats-Unis ont fait savoir que le Laboratoire national Lawrence Livermore (LNLL) était parvenu à produire plus d’énergie pendant une réaction de fusion nucléaire qu’il n’en avait été nécessaire pour initier le processus, du moins au niveau du combustible. « Un seuil que l’on attend depuis des décennies. Grand pas pour la fusion, petit pas pour l’énergie », commentait alors sur Twitter Greg de Temmerman, directeur général du think tank Zenon et spécialiste français de la fusion nucléaire.( un article de la Tribune d’après Renaissance fusion)

Depuis les années 1930, les scientifiques tentent en effet de reproduire, sur Terre, le mécanisme à l’œuvre dans le soleil et les étoiles. Contrairement à la fission nucléaire, sur laquelle repose toutes les centrales nucléaires en fonctionnement dans le monde, la fusion nucléaire ne consiste pas à casser des noyaux lourds d’uranium pour libérer de l’énergie, mais à faire fusionner deux noyaux d’hydrogène extrêmement légers pour créer un élément plus lourd. Dans le détail, le mariage forcé du deutérium et du tritium permet de produire de l’hélium et un neutron. Cette réaction doit alors permettre de générer des quantités massives d’énergie sous forme de chaleur, qui peut ensuite être transformée en électricité grâce à une turbine.
La fusion nucléaire suscite d’immenses espoirs car si l’homme savait la contrôler, cette source d’énergie cocherait toutes les cases : l’électricité qu’elle pourrait délivrer serait quasi illimitée, décarbonée, sûre, et produirait très peu de déchets radioactifs à vie longue. Mais jusqu’au 13 décembre dernier, les scientifiques butaient sur une étape majeure : celle du breakeven, soit le seuil où l’énergie produite par la réaction de la fusion est supérieure à celle nécessaire pour faire fonctionner le système. C’est désormais chose faite.

Si cette percée est la plus retentissante, d’autres grandes avancées ont été observées au cours de la même année. Quelques mois auparavant, ce même laboratoire californien est parvenu à contrôler un plasma brûlant, le plasma étant le quatrième état de la matière (après les états solide, liquide et gazeux) dans lequel peuvent justement se rencontrer les deux noyaux d’hydrogène. En 2022, des quantités records d’énergie ont été produites par JET, une machine de recherche basée à Oxford, au Royaume-Uni. Les installations Kstar et East, implantées respectivement en Corée du Sud et en Chine, sont quant à elles parvenues à confiner le plasma sur des durées et des températures records.

Mais l’année 2022 c’est aussi l’année où « la fusion est sortie des laboratoires pour aller sur le marché », souligne Andrew Holland à la tête de la Fusion industry association (FIA). Dans son dernier rapport annuel, l’organisation dénombre 33 entreprises privées actives dans ce domaine à travers le monde. Parmi elles, 21 se sont créées au cours des cinq dernières années. On peut les ranger dans trois grandes familles. Celles qui planchent sur la fusion par confinement magnétique et qui s’appuient sur des aimants supraconducteurs pour maintenir le plasma. Celles qui travaillent sur la fusion inertielle en ayant recours à des lasers. Et celles, à l’image de General Fusion, qui entendent combiner ces deux approches.
En 2022, ces entreprises ont levé 2,8 milliards de dollars, contre près de 2 milliards de dollars un an plus tôt. Au total, depuis leur création, elles ont réuni un peu plus 4,8 milliards de dollars, principalement auprès d’investisseurs privés, (seuls 117 millions de dollars proviennent de subventions publiques). Parmi eux, on retrouve les grands fonds de capital-risque et des personnalités et des entreprises de la tech comme Bill Gates, Jeff Bezos (Amazon) ou encore Google et le groupe chinois Tencent, mais aussi une poignée d’industriels, dont l’énergéticien italien Eni, le norvégien Equinor, et les majors Chevron et Shell.

Commonwealth Fusion Systems, un spin off du MIT, représente à elle seule plus d’un tiers de ces investissements. Née en 2018, l’entreprise a bouclé un tour de table XXL de 1,8 milliard de dollars. Elle promet de commercialiser la première centrale à fusion à l’horizon 2030. Helion Energy, une autre entreprise américaine qui s’est spécialisée dans la fusion inertielle, a, elle, levé 500 millions de dollars et assure avoir déjà sécurisé un financement à venir de 1,7 milliard de dollars. Au total, sept entreprises ont déjà réuni plus de 200 millions de dollars d’investissements.

Comment expliquer cet engouement de la sphère privée pour la fusion ?
« Ce n’est pas quelque chose de nouveau. La première initiative privée remonte à 1998 avec TAE Technologies, mais le nombre de start-up a nettement augmenté à partir des années 2014-2015. A ce moment-là, Bernard Bigot, [alors à la tête du gigantesque programme scientifique international Iter, censé démontrer la viabilité de la fusion nucléaire à grande échelle, ndlr] annonce cinq années de retard sur le projet. Iter est en construction et permet à la communauté scientifique d’apprendre énormément, mais cela ne va pas assez vite. Cela a généré une frustration qui a poussé des scientifiques à entreprendre », se remémore Greg de Temmerman, coordinateur scientifique sur le projet Iter entre 2014 et 2020.
Par ailleurs, jusqu’à l’année dernière, les capitaux étaient largement disponibles tandis que les taux d’intérêt étaient à leur plus bas. Des conditions de marché qui ont conduit les investisseurs à aller chercher des investissements plus risqués afin d’obtenir des rendements plus élevés. « Or la fusion est un investissement à haut risque et à haut potentiel. C’est un investissement qui peut mener nulle part, mais si cela fonctionne l’investisseur fait fortune », souligne Greg de Temmerman. La fusion reste enfin l’un des grands défis techniques et scientifiques à résoudre. De quoi attirer des personnalités fortunées avides de ce genre de challenge.

Aujourd’hui, les Etats-Unis dominent incontestablement cette course mondiale, avec 21 entreprises basées sur son sol, tandis que seules trois sont installées en Europe continentale (Renaissance Fusion en France, Deutelio en Italie et Marvel Fusion en Allemagne) et trois autres au Royaume-Uni (Crossfield Fusion, First Light Fusion et Tokamak Energy).

Pourtant, c’est bien le Vieux Continent qui est le leader mondial de la recherche en fusion. L’Allemagne, qui a décidé de tourner le dos à la fission nucléaire, compte le plus grand nombre de chercheurs en la matière. « Les scientifiques sont parvenus à démontrer que ce n’était pas le même nucléaire, que la fusion ne présentait pas les mêmes problématiques en matière de sûreté et de déchets et qu’il fallait continuer », explique Greg de Temmerman.
En France, l’Institut de recherche sur la fusion par confinement magnétique (IRFM) du CEA, qui jouxte le chantier d’Iter à Cadarache dans les Bouches du Rhône, est mondialement reconnu. Dès 1959, le centre de recherche a participé à la réalisation de plusieurs tokamaks expérimentaux, ces structures dans lesquelles sont confinées les plasmas. Il espère désormais développer une centrale à fusion nucléaire plus compacte que le réacteur Iter.

Le Royaume-Uni, « qui est le plus gros promoteur de la fusion nucléaire en Europe », selon les propos de Jérôme Bucalossi, à la tête de l’IRFM du CEA, s’est déjà engagé dans cette voie. « Son programme STEP vise à développer un réacteur à fusion connecté au réseau électrique avant 2040 », précise-t-il. Un dynamisme qui a permis d’attirer la start-up canadienne General Fusion, soutenue par Jeff Bezos. Fondée en 2002, l’entreprise a choisi de construire sa première centrale nucléaire pilote à Culham, un petit village de l’Oxfordshire.
Malgré cet indéniable atout académique du côté européen, les entreprises américaines pourraient creuser davantage l’écart avec le reste du monde dans les mois à venir grâce à un soutien public qui se muscle. Le département de l’énergie américain a récemment débloqué 50 millions de dollars pour favoriser les partenariats publics-privés et accélérer le développement de réacteurs à fusion. Une enveloppe qui vient s’ajouter à l’Inflation Reduction Act, le vaste plan de réforme défendu par l’administration Biden, qui prévoit quelque 370 milliards de dollars pour décarboner l’économie américaine. De quoi accélérer considérablement le financement des projets liés à la fusion.

La fusionpour après 2050

Car les acteurs de la fusion sont également portés par l’urgence climatique, la nécessaire électrification des usages ainsi que la flambée des prix de l’électricité. Nombre de ces startups promettent ainsi une première centrale à fusion connectée au réseau électrique avant 2035 et présentent cette technologie comme un moyen efficace de lutter contre le changement climatique. Une communication qui « agace » Greg de Temmerman. « Un réacteur à fusion nucléaire qui fonctionne 24 heures sur 24 de façon fiable dans les années 2030, c’est hors d’atteinte, tranche-t-il. En revanche, si on parle d’un démonstrateur capable de générer de l’électricité cela peut arriver dans la décennie 2030 », reconnaît-il

Plus globalement, le spécialiste estime que la fusion « ne représentera rien pour l’énergie en 2050. Elle ne contribuera pas à la transition énergétique ». Il juge néanmoins que la fusion, comme source d’énergie pilotable et décarbonée, restera utile pour l’après 2050 et que son financement ne compromet pas, en parallèle, la décarbonation de l’économie.
En revanche, des applications en dehors du secteur de l’énergie pourraient voir le jour bien plus tôt. A Grenoble, la start-up Renaissance Fusion entend notamment commercialiser des briques technologiques issues de son activité pour l’imagerie médicale, les éoliennes ou encore les accélérateurs de particules.
Des verrous technologiques à lever

Si Greg de Temmerman se montre si prudent sur les calendriers partagés par ces startups c’est que les verrous technologiques à lever restent encore nombreux. D’abord, un réacteur à fusion devra être capable de produire son propre combustible. « On estime que les réserves de tritium sur Terre ne s’élèvent qu’à 35 kilos. Or, pour fonctionner un réacteur à fusion nucléaire aurait besoin d’une centaine de kilos de tritium par an. Le seul moyen pour la fusion d’être viable c’est que le réacteur soit capable de générer autant de tritium qu’il n’en consomme, voire plus pour pouvoir démarrer un autre réacteur », explique-t-il. La tâche est éminemment complexe. A titre d’illustration, Iter est censé tester cinq modules différents de génération de tritium.
Outre cet écueil, la recherche doit également énormément avancer sur les matériaux, car les enceintes des réacteurs devront résister à des dizaines d’années de bombardement de neutrons. Autre grand défi : s’assurer que des phénomènes de disruption du plasma ne puissent en aucun cas survenir car l’écrasement d’un plasma à 150 millions de degrés endommagerait inévitablement le matériel. « Un tokamak (l’enceinte dans laquelle est confiné le plasma, ndlr) ne peut fonctionner que si on supprime ces événements », assure Greg de Temmerman. Enfin, un tokamak a besoin de générer du courant en continu et « on n’a encore jamais prouvé qu’un tokamak pouvait fonctionner de façon continue », pointe-t-il.

Gare aux revers et déceptionsSurtout, l’industrie de la fusion n’est pas à l’abri de revers et déceptions, qui ont déjà largement marqué son histoire. « En 1998, TAE Technologies promettait un premier réacteur dans les 15 années à venir », se souvient le spécialiste. Une dizaine d’années plus tôt, en 1989, deux chimistes de l’université de l’Utah (Etats-Unis) avaient affirmé avoir réussi à fusionner des noyaux à température ambiante dans une simple cellule électrochimique sur une paillasse. Une affirmation qui s’est démentie quelques semaines plus tard. Autre exemple en 1951, au plus fort de la guerre froide. Juan Perón, alors président de l’Argentine, avait assuré que ses scientifiques étaient parvenus à maîtriser l’énergie de fusion, faisant ainsi la une des journaux du monde entier. Le combustible de fusion serait bientôt disponible, comme le lait, disait-il, dans des bouteilles d’un demi-litre.

Plus récemment, le méga projet Iter promettait la production d’un premier plasma en 2025. Celle-ci n’aura finalement pas lieu avant 2030. De quoi s’interroger sur la place de ce méga projet dans un écosystème de plus en plus dynamique. Présenté comme un outil de formation pour des milliers de physiciens, complémentaire et bénéfique pour les startups, le programme, soumis à une gouvernance très complexe et confronté à des défis d’ingénierie accentués par sa taille, cumule les retards. « C’est une question qui devient gênante », reconnaît Greg Temmerman.

Renaissance fusion, seule start-up tricolore dans la course

Renaissance fusion est la seule start-up française à plancher sur la fusion nucléaire. Basée à Grenoble, elle s’est spécialisée dans la fusion par confinement magnétique. Cette approche consiste à faire chauffer un plasma à 150 millions de degrés et à le confiner grâce à des aimants extrêmement puissants, capables de rapprocher les particules et de les faire circuler selon une trajectoire bien précise.

Toutefois, à la différence du méga projet Iter, la jeune pousse a choisi un design de réacteur bien particulier : le stellarator, qui diffère du tokamak bien plus répandu et étudié par les chercheurs par le passé. Initialement conçu par les Américains, ce type de réacteur est beaucoup plus difficile à construire que le tokamak, mais il présente un grand avantage : il permet d’obtenir un plasma très stable et de produire de l’énergie de manière continue et non pulsée. Ses aimants sont en revanche « tarabiscotés », explique Simon Belka, chef de projet au sein de l’entreprise.
Pour surmonter cet écueil, Renaissance Fusion a développé une technique innovante pour fabriquer ces aimants. « On dépose la matière supraconductrice directement sur l’enceinte du réacteur ce qui permet d’avoir une enceinte aimantée géante », résume Simon Belka. Elle utilise ensuite un laser pour enlever la matière et donner un pattern bien précis. La start-up planche aussi sur des métaux liquides capables d’absorber la chaleur afin de protéger les parois des réacteurs.

Avant de construire un réacteur nucléaire, l’entreprise prévoit de vendre ses briques technologiques à d’autres secteurs pour financer son développement. Elle entend ensuite mettre sur pied un réacteur d’essai en 2028, capable de produire deux fois plus d’énergie qu’il n’en consomme. Ce démonstrateur ne produira que de la chaleur. Dernière étape : vendre un réacteur de 1000 mégawatts électriques, soit l’équivalent peu ou prou de la puissance d’une tranche nucléaire, entre 2032 et 2035.

Renaissance Fusion officialisera dans les prochaines semaines une levée de fonds supérieure à 10 millions d’euros. Elle prépare déjà un prochain tour de table pour 2024. « On espère être dans le top 7 des plus grosses levées de fonds du secteur », indique Simon Belka.

“Ecoles du futur. ».. ou du présent ?

“Ecoles du futur. ».. ou du présent ? 

 

Comme toujours avec Macron pour masquer les échecs du présent on pratique la fuite en avant vers le futur. Si récemment le président de république a mis en valeur cette « école du futur » lors d’une visite à Marseille. Le problème c’est qu’on ferait sans doute mieux de se préoccuper de l’école actuelle, celle du présent.

 

« À l’école, quand on apprend les temps, on commence par le présent, et pas le futur. Ce dont on voudrait parler, nous directeurs ou organisations syndicales, c’est bien de l’école du présent et de toutes les problématiques actuelles », a réagi  sur franceinfo Olivier Flipo, directeur d’école primaire à Cergy et délégué du SE-Unsa du Val-d’Oise, alors qu’Emmanuel Macron a annoncé jeudi à Marseille vouloir généraliser à tout le territoire « l’école du futur », expérimentation pédagogique menée dans la cité phocéenne depuis septembre 2021.

Pour Olivier Flipo, l’urgence dans les écoles est le remplacement des professeurs absents et donc le recrutement. Dans le Val-d’Oise actuellement, « la situation est très compliquée », explique le représentant du SE-Unsa. « Récemment sur une journée, il y avait 200 classes sans enseignants, parce qu’actuellement il n’y a pas de remplaçants », les enseignants remplaçants habituels étant « déjà utilisés ». Olivier Flipo dénonce le manque  »d’anticipation sur le recrutement ». Il pointe « une situation de catastrophe qui fait que tout à coup on organise un job dating pour recruter des gens. On est en train de créer l’école du futur avec ces contractuels ». Le souci des directeurs d’écoles est « de gérer la pénurie », souligne l’enseignant.

Ces appels à candidature organisés dans certaines académies pour trouver « des futurs contractuels pour occuper ces postes, c’est bien car on ne peut pas être contre cet aspect d’avoir du personnel supplémentaire », nuance Olivier Flipo. Mais il juge que  »là où le bât blesse, c’est la formation » de ces volontaires « et combien de gens vont réellement se présenter ». Certains sont « très intéressants pour certains », mais souvent « il y a des gens qui sont complètement à côté de la plaque et n’ont aucune imagination de ce que cela peut représenter ».

Revenant sur l’expérimentation de « l’école du futur » menée à Marseille, le délégué du SE-Unsa du Val-d’Oise rappelle que ce sont « 59 écoles volontaires qui avaient déjà un projet ». Selon lui, le gouvernement n’a « rien fait de nouveau ou inventé ». Cette expérimentation ne pose donc « pas de difficultés particulières ». Il précise que les commissions de recrutement qui sont en place sont composées « de deux inspecteurs, du directeur de l’école et d’un adjoint ». Cette commission émet ensuite « un avis favorable ou défavorable » sur les candidats. Selon lui, « dans les faits, sur les 59 écoles, tous les avis ont été favorables ». Olivier Flipo attend maintenant surtout qu’il y ait une évaluation su système : « On en fait un bilan et on ne généralise pas dès que l’expérimentation a à peine commencé. »

Les enquêtes Pisa menées depuis une vingtaine d’années sur des collégiens de 15 ans montrent en effet une baisse régulière des résultats de nos élèves, surtout ceux issus de milieux défavorisés, ce qui fait de notre système scolaire l’un des moins efficaces et des plus inégalitaires des pays de l’OCDE. Surtout : 20% des élèves entrent au collège sans maîtriser la lecture, l’écriture et le calcul, et 60 % des étudiants ne parviendront pas à obtenir leur licence en trois ans. Ce sombre tableau doit alarmer : notre école fabrique une jeunesse privée de chances, et la mobilité sociale est sérieusement enrayée.

 

 

École du futur ou du passé décomposé ?

École du futur ou du passé décomposé ?

 

La vision progressiste  souvent complètement utopique de Macron le conduit à choisir des chemins qui permettent d’enjamber les difficultés du présent en imaginant un futur révolutionnaire. Parler d’école du futur à Marseille paraît un peu surréaliste quand on connaît les difficultés socio-économiques et sociétales de nombre de populations de cette région et de l’état lamentable des services publics, éducation nationale comprise.Emmanuel Macron a annoncé, jeudi, vouloir généraliser à tout le territoire « l’école du futur ». Il s’agit d’une expérimentation pédagogique menée notamment à Marseille depuis septembre 2021.

 

« À l’école, quand on apprend les temps, on commence par le présent, et pas le futur. Ce dont on voudrait parler, nous directeurs ou organisations syndicales, c’est bien de l’école du présent et de toutes les problématiques actuelles », a réagi jeudi 2 juin sur franceinfo Olivier Flipo, directeur d’école primaire à Cergy et délégué du SE-Unsa du Val-d’Oise, alors qu’Emmanuel Macron a annoncé jeudi à Marseille vouloir généraliser à tout le territoire « l’école du futur », expérimentation pédagogique menée dans la cité phocéenne depuis septembre 2021.

Pour Olivier Flipo, l’urgence dans les écoles est le remplacement des professeurs absents et donc le recrutement. Dans le Val-d’Oise actuellement, « la situation est très compliquée », explique le représentant du SE-Unsa. « Récemment sur une journée, il y avait 200 classes sans enseignants, parce qu’actuellement il n’y a pas de remplaçants », les enseignants remplaçants habituels étant « déjà utilisés ». Olivier Flipo dénonce le manque  »d’anticipation sur le recrutement ». Il pointe « une situation de catastrophe qui fait que tout à coup on organise un job dating pour recruter des gens. On est en train de créer l’école du futur avec ces contractuels ». Le souci des directeurs d’écoles est « de gérer la pénurie », souligne l’enseignant.

Ces appels à candidature organisés dans certaines académies pour trouver « des futurs contractuels pour occuper ces postes, c’est bien car on ne peut pas être contre cet aspect d’avoir du personnel supplémentaire », nuance Olivier Flipo. Mais il juge que  »là où le bât blesse, c’est la formation » de ces volontaires « et combien de gens vont réellement se présenter ». Certains sont « très intéressants pour certains », mais souvent « il y a des gens qui sont complètement à côté de la plaque et n’ont aucune imagination de ce que cela peut représenter ».

Revenant sur l’expérimentation de « l’école du futur » menée à Marseille, le délégué du SE-Unsa du Val-d’Oise rappelle que ce sont « 59 écoles volontaires qui avaient déjà un projet ». Selon lui, le gouvernement n’a « rien fait de nouveau ou inventé ». Cette expérimentation ne pose donc « pas de difficultés particulières ». Il précise que les commissions de recrutement qui sont en place sont composées « de deux inspecteurs, du directeur de l’école et d’un adjoint ». Cette commission émet ensuite « un avis favorable ou défavorable » sur les candidats. Selon lui, « dans les faits, sur les 59 écoles, tous les avis ont été favorables ». Olivier Flipo attend maintenant surtout qu’il y ait une évaluation su système : « On en fait un bilan et on ne généralise pas dès que l’expérimentation a à peine commencé. »

L’école du présent de Macron ressemble à une sorte de passé…. décomposé  !

Santé: médecine du futur et cancers ?

Santé: médecine du futur et  cancers ?

Les  recherches actuelles dessinent une cancérologie d’avenir en mode 3.0, adaptée aux tumeurs comme au patient, pour améliorer les chances de guérir en réduisant les séquelles. Cette semaine, le leader de la cancérologie Gustave Roussy publie les premiers résultats d’une étude européenne pour comprendre les rechutes des cancers pédiatriques. Comment la cancérologie prendra-t-elle les malades en charge dans dix ans ? ( (Un papier de Florence Pinaud de la Tribune)

 

La cancérologie va-t-elle devenir une véritable médecine de précision ? Le leader de la cancérologie Gustave Roussy vient d’annoncer les résultats d’une étude européenne Mappyacts sur le cancer pédiatrique. Alors que de nombreux jeunes patients rechutent, cette étude séquence le génome des tumeurs pour mieux comprendre leur évolution afin d’adapter les traitements. Un premier pas vers la cancérologie du futur hyper personnalisée, une cancérologie 3.0.

Depuis vingt ans, la lutte contre le cancer a progressé. Si le nombre de nouveaux cas ne recule pas, la médecine soigne mieux cette maladie encore trop souvent mortelle. Aujourd’hui, 60% des cas traités donnent lieu à une guérison, d’autant plus que la maladie a été détectée tôt. Mais la prise en charge reste un exercice difficile. Si les immunothérapies et les nouveaux traitements ciblés fonctionnent très bien sur certains patients, ils échouent sur d’autres sans que l’on comprenne exactement pourquoi. De plus, les rechutes restent nombreuses et demandent des traitements plus élaborés. Les spécialistes sont clairs : on a encore beaucoup à apprendre sur le cancer. Et les nouvelles technologies nous aident à découvrir toutes les stratégies avec lesquelles il attaque et résiste aux médicaments. Détection plus précoce, traitements personnalisés et réduction des séquelles, que peut-on attendre de la cancérologie de demain ?

Diagnostiquer plus vite

Un des principaux enjeux est le diagnostic précoce. Plus tôt le cancer est identifié, meilleures sont les chances de guérison. « Aujourd’hui, nous intervenons le plus souvent tard, sur des cancers déjà métastasés, regrette Éric Solary, oncologue à Gustave Roussy et président du Conseil scientifique de la fondation ARC. Avec le progrès de l’imagerie médicale associée à l’intelligence artificielle, nous détecterons des tumeurs bien plus petites de manière très précoce. Nous parviendrons même à repérer les lésions dites pré néoplasiques, qui ne sont pas encore cancéreuses, mais risquent de le devenir. » Premier centre européen de cancérologie, Gustave Roussy développe actuellement une clinique pilote de prévention personnalisée des cancers. Une pratique appelée « Interception » pour évaluer les risques cancéreux des Français et suivre leur évolution, « La définition de ces risques pourra être affinée en fonction de l’exposition du patient à différents agents toxiques, poursuit Éric Solary. Mieux les connaître permettrait d’envisager des traitements préventifs pour maîtriser la maladie avant même qu’elle ne se déclare. » Pour définir quels facteurs induisent exactement quels risques, la recherche devra utiliser le big data pour parfaire sa connaissance des différents facteurs cancérogènes, qu’ils soient chimiques, biologiques ou génétiques. À terme, l’institut envisage de créer un centre de diagnostic rapide des risques cancéreux ouvert à tous les patients inquiets.

Mieux comprendre la maladie

Après des années d’études médicales, l’oncologie sollicite aujourd’hui d’autres sciences et techniques pour affiner sa compréhension des mécanismes de la maladie. Car au-delà d’une cellule qui se développe anormalement, cette pathologie est très complexe. « Le cancer implique des milliers de mécanismes biologiques encore mal connus, précise le Professeur Fabrice Barlesi, Directeur général de Gustave Roussy. Différentes disciplines scientifiques nous aideront à identifier ces mécanismes pour améliorer sa prise en charge. La recherche transdisciplinaire permet de mettre progressivement à jour le caractère inattendu de ces cellules cancéreuses ; comme leur capacité à devenir dormantes pour échapper à la vigilance des traitements avant de se réveiller et de déclencher des rechutes. » Avec le projet du Paris Saclay Cancer Cluster (voir Tribune du 04 février), l’institut mise sur le développement des équipes pluridisciplinaires associant des chercheurs de l’université Paris-Saclay, de l’Institut Polytechnique de Paris, de l’Inserm et de partenaires privés pour améliorer l’approche et la définition de tous les mécanismes secrets du cancer.

Pour mieux adapter les traitements

Dans les labos, différentes découvertes permettront de déterminer des marqueurs influençant la manière dont patient et cancer vont réagir au traitement. Jean-Philippe Girard est Directeur de Recherche Inserm à l’Institut de pharmacologie et de biologie structurale IPBS de Toulouse. Il vient de comprendre une des raisons pour lesquelles les traitements d’immunothérapie ne marchaient pas toujours chez les patients. « Il existe un mécanisme qui permet aux cellules immunitaires lymphocytes T de pénétrer dans les tumeurs pour éliminer les cellules cancéreuses, explique-t-il. Ce sont des vaisseaux sanguins spécifiques dits HEV qui jouent le rôle de porte d’entrée pour ces lymphocytes dopés par l’immunothérapie et capables d’éliminer les cellules cancéreuses. Suivant les patients et les cancers, on trouve plus ou moins de ces vaisseaux HEV qui favorisent clairement l’efficacité de l’immunothérapie. Il s’agit d’un marqueur qui prédit la réponse à ce type de traitement. » Autre grand mystère du cancer, les rechutes sont aussi des mécanismes complexes. Jean-Emmanuel Sarry est responsable de l’équipe « Métabolisme et résistance thérapeutique dans les leucémies aiguës myéloïdes » au Centre de Recherches en Cancérologie de Toulouse. Son équipe travaille à comprendre les mécanismes qui sous-tendent les résistances thérapeutiques responsables des rechutes.. « Nous avons identifié un biomarqueur prédictif des réponses à certains traitements administrés pour soigner ce type de leucémies. Ce biomarqueur « Mitoscore » est associé à une forte activité mitochondriale et énergétique des cellules leucémiques. Il pourrait nous permettre de proposer des thérapies plus personnalisées pour réduire les rechutes. Elles pourraient y associer un inhibiteur des mitochondries pour les patients à mitoscore élevé. »

Autre piste d’adaptation des traitements, une étude de Gustave Roussy a montré que les patients possédant la bactérie intestinale Akkermansia Muciniphila (AKK) présentent une meilleure réponse aux traitements par immunothérapie. Une clinique du microbiote a été créée et des essais cliniques ont démarré sur le cancer du poumon et le cancer du rein.

Vers une cancérologie de précision

En comprenant mieux comment le cancer évolue et résiste, la cancérologie de demain saura quel traitement sera le plus efficace sur quelle tumeur suivant la nature du patient. « La compréhension des mécanismes biologiques et génétiques permettra d’identifier les marqueurs pour adapter au mieux le traitement à la maladie, mais aussi au patient, explique Fabrice Barlesi. Avec ces découvertes, nous irons vers une médecine de précision ultra personnalisée. La prise en compte des multiples marqueurs améliorera clairement les chances de guérison. »

Pour cette cancérologie 3.0, Gustave Roussy développe un programme qui élaborera un avatar numérique et biologique de chaque patient. Une sorte de cancer virtuel modélisant tous les mécanismes qui favorisent la progression de la maladie, pour proposer des traitements personnalisés dès le diagnostic. Actuellement, l’institut teste l’efficacité de 25 médicaments différents sur des morceaux de la tumeur d’un patient, cultivée en laboratoire. Cela permettra de déterminer ce qui fonctionnera le mieux sur ce cancer précis. À terme, cette procédure menée dès le diagnostic permettra de savoir exactement quoi prescrire pour mieux guérir.

« À chaque fois qu’une technologie progresse, elle permet d’améliorer la compréhension puis le traitement du cancer, souligne Éric Solary. La prochaine étape viendra sans doute du machine learning qui va déclencher des avancées de ruptures. » Pour réunir les données nécessaires à une bonne intelligence artificielle Cancer, les oncologues lancent un mouvement de partage des données. Déjà, différentes bases d’oncologie se développent. Ainsi, la biotech de Montpellier SeqOne Genomics s’est impliquée dans la base Celia (Comprehensive Genomic profiling impact) aux côtés du géant américain Illumina). Ce projet vise à évaluer l’utilité clinique du profilage génomique complet dans la prise en charge thérapeutique de patients atteints d’un cancer à un stade avancé. La recherche contre le cancer a aussi pris une dimension européenne avec le Plan cancer européen qui espère réduire la mortalité de 3 millions d’ici 2030.

Pour ce plan, la France pilote le projet de plateforme européenne de recherche UNCAN.eu (UNderstand CANcer) avec une base européenne des données de recherche en cancérologie. Enfin, le dernier enjeu de la cancérologie 3.0 consiste à améliorer la vie des patients guéris. À cause des effets secondaires, les traitements sous forme de chimio ou d’immuno-thérapie qui les sauvent fatiguent aussi beaucoup les patients et les vieillissent prématurément. Il est essentiel de trouver le moyen d’améliorer leur qualité de vie après le cancer.

Florence Pinaud

La médecine du futur et les cancers ?

La médecine du futur et  les cancers ?

Les  recherches actuelles dessinent une cancérologie d’avenir en mode 3.0, adaptée aux tumeurs comme au patient, pour améliorer les chances de guérir en réduisant les séquelles. Cette semaine, le leader de la cancérologie Gustave Roussy publie les premiers résultats d’une étude européenne pour comprendre les rechutes des cancers pédiatriques. Comment la cancérologie prendra-t-elle les malades en charge dans dix ans ? ( (Un papier de Florence Pinaud de la Tribune)

 

La cancérologie va-t-elle devenir une véritable médecine de précision ? Le leader de la cancérologie Gustave Roussy vient d’annoncer les résultats d’une étude européenne Mappyacts sur le cancer pédiatrique. Alors que de nombreux jeunes patients rechutent, cette étude séquence le génome des tumeurs pour mieux comprendre leur évolution afin d’adapter les traitements. Un premier pas vers la cancérologie du futur hyper personnalisée, une cancérologie 3.0.

Depuis vingt ans, la lutte contre le cancer a progressé. Si le nombre de nouveaux cas ne recule pas, la médecine soigne mieux cette maladie encore trop souvent mortelle. Aujourd’hui, 60% des cas traités donnent lieu à une guérison, d’autant plus que la maladie a été détectée tôt. Mais la prise en charge reste un exercice difficile. Si les immunothérapies et les nouveaux traitements ciblés fonctionnent très bien sur certains patients, ils échouent sur d’autres sans que l’on comprenne exactement pourquoi. De plus, les rechutes restent nombreuses et demandent des traitements plus élaborés. Les spécialistes sont clairs : on a encore beaucoup à apprendre sur le cancer. Et les nouvelles technologies nous aident à découvrir toutes les stratégies avec lesquelles il attaque et résiste aux médicaments. Détection plus précoce, traitements personnalisés et réduction des séquelles, que peut-on attendre de la cancérologie de demain ?

Diagnostiquer plus vite

Un des principaux enjeux est le diagnostic précoce. Plus tôt le cancer est identifié, meilleures sont les chances de guérison. « Aujourd’hui, nous intervenons le plus souvent tard, sur des cancers déjà métastasés, regrette Éric Solary, oncologue à Gustave Roussy et président du Conseil scientifique de la fondation ARC. Avec le progrès de l’imagerie médicale associée à l’intelligence artificielle, nous détecterons des tumeurs bien plus petites de manière très précoce. Nous parviendrons même à repérer les lésions dites pré néoplasiques, qui ne sont pas encore cancéreuses, mais risquent de le devenir. » Premier centre européen de cancérologie, Gustave Roussy développe actuellement une clinique pilote de prévention personnalisée des cancers. Une pratique appelée « Interception » pour évaluer les risques cancéreux des Français et suivre leur évolution, « La définition de ces risques pourra être affinée en fonction de l’exposition du patient à différents agents toxiques, poursuit Éric Solary. Mieux les connaître permettrait d’envisager des traitements préventifs pour maîtriser la maladie avant même qu’elle ne se déclare. » Pour définir quels facteurs induisent exactement quels risques, la recherche devra utiliser le big data pour parfaire sa connaissance des différents facteurs cancérogènes, qu’ils soient chimiques, biologiques ou génétiques. À terme, l’institut envisage de créer un centre de diagnostic rapide des risques cancéreux ouvert à tous les patients inquiets.

Mieux comprendre la maladie

Après des années d’études médicales, l’oncologie sollicite aujourd’hui d’autres sciences et techniques pour affiner sa compréhension des mécanismes de la maladie. Car au-delà d’une cellule qui se développe anormalement, cette pathologie est très complexe. « Le cancer implique des milliers de mécanismes biologiques encore mal connus, précise le Professeur Fabrice Barlesi, Directeur général de Gustave Roussy. Différentes disciplines scientifiques nous aideront à identifier ces mécanismes pour améliorer sa prise en charge. La recherche transdisciplinaire permet de mettre progressivement à jour le caractère inattendu de ces cellules cancéreuses ; comme leur capacité à devenir dormantes pour échapper à la vigilance des traitements avant de se réveiller et de déclencher des rechutes. » Avec le projet du Paris Saclay Cancer Cluster (voir Tribune du 04 février), l’institut mise sur le développement des équipes pluridisciplinaires associant des chercheurs de l’université Paris-Saclay, de l’Institut Polytechnique de Paris, de l’Inserm et de partenaires privés pour améliorer l’approche et la définition de tous les mécanismes secrets du cancer.

Pour mieux adapter les traitements

Dans les labos, différentes découvertes permettront de déterminer des marqueurs influençant la manière dont patient et cancer vont réagir au traitement. Jean-Philippe Girard est Directeur de Recherche Inserm à l’Institut de pharmacologie et de biologie structurale IPBS de Toulouse. Il vient de comprendre une des raisons pour lesquelles les traitements d’immunothérapie ne marchaient pas toujours chez les patients. « Il existe un mécanisme qui permet aux cellules immunitaires lymphocytes T de pénétrer dans les tumeurs pour éliminer les cellules cancéreuses, explique-t-il. Ce sont des vaisseaux sanguins spécifiques dits HEV qui jouent le rôle de porte d’entrée pour ces lymphocytes dopés par l’immunothérapie et capables d’éliminer les cellules cancéreuses. Suivant les patients et les cancers, on trouve plus ou moins de ces vaisseaux HEV qui favorisent clairement l’efficacité de l’immunothérapie. Il s’agit d’un marqueur qui prédit la réponse à ce type de traitement. » Autre grand mystère du cancer, les rechutes sont aussi des mécanismes complexes. Jean-Emmanuel Sarry est responsable de l’équipe « Métabolisme et résistance thérapeutique dans les leucémies aiguës myéloïdes » au Centre de Recherches en Cancérologie de Toulouse. Son équipe travaille à comprendre les mécanismes qui sous-tendent les résistances thérapeutiques responsables des rechutes.. « Nous avons identifié un biomarqueur prédictif des réponses à certains traitements administrés pour soigner ce type de leucémies. Ce biomarqueur « Mitoscore » est associé à une forte activité mitochondriale et énergétique des cellules leucémiques. Il pourrait nous permettre de proposer des thérapies plus personnalisées pour réduire les rechutes. Elles pourraient y associer un inhibiteur des mitochondries pour les patients à mitoscore élevé. »

Autre piste d’adaptation des traitements, une étude de Gustave Roussy a montré que les patients possédant la bactérie intestinale Akkermansia Muciniphila (AKK) présentent une meilleure réponse aux traitements par immunothérapie. Une clinique du microbiote a été créée et des essais cliniques ont démarré sur le cancer du poumon et le cancer du rein.

Vers une cancérologie de précision

En comprenant mieux comment le cancer évolue et résiste, la cancérologie de demain saura quel traitement sera le plus efficace sur quelle tumeur suivant la nature du patient. « La compréhension des mécanismes biologiques et génétiques permettra d’identifier les marqueurs pour adapter au mieux le traitement à la maladie, mais aussi au patient, explique Fabrice Barlesi. Avec ces découvertes, nous irons vers une médecine de précision ultra personnalisée. La prise en compte des multiples marqueurs améliorera clairement les chances de guérison. »

Pour cette cancérologie 3.0, Gustave Roussy développe un programme qui élaborera un avatar numérique et biologique de chaque patient. Une sorte de cancer virtuel modélisant tous les mécanismes qui favorisent la progression de la maladie, pour proposer des traitements personnalisés dès le diagnostic. Actuellement, l’institut teste l’efficacité de 25 médicaments différents sur des morceaux de la tumeur d’un patient, cultivée en laboratoire. Cela permettra de déterminer ce qui fonctionnera le mieux sur ce cancer précis. À terme, cette procédure menée dès le diagnostic permettra de savoir exactement quoi prescrire pour mieux guérir.

« À chaque fois qu’une technologie progresse, elle permet d’améliorer la compréhension puis le traitement du cancer, souligne Éric Solary. La prochaine étape viendra sans doute du machine learning qui va déclencher des avancées de ruptures. » Pour réunir les données nécessaires à une bonne intelligence artificielle Cancer, les oncologues lancent un mouvement de partage des données. Déjà, différentes bases d’oncologie se développent. Ainsi, la biotech de Montpellier SeqOne Genomics s’est impliquée dans la base Celia (Comprehensive Genomic profiling impact) aux côtés du géant américain Illumina). Ce projet vise à évaluer l’utilité clinique du profilage génomique complet dans la prise en charge thérapeutique de patients atteints d’un cancer à un stade avancé. La recherche contre le cancer a aussi pris une dimension européenne avec le Plan cancer européen qui espère réduire la mortalité de 3 millions d’ici 2030.

Pour ce plan, la France pilote le projet de plateforme européenne de recherche UNCAN.eu (UNderstand CANcer) avec une base européenne des données de recherche en cancérologie. Enfin, le dernier enjeu de la cancérologie 3.0 consiste à améliorer la vie des patients guéris. À cause des effets secondaires, les traitements sous forme de chimio ou d’immuno-thérapie qui les sauvent fatiguent aussi beaucoup les patients et les vieillissent prématurément. Il est essentiel de trouver le moyen d’améliorer leur qualité de vie après le cancer.

Florence Pinaud

La légitimité du futur président mise en cause

La légitimité du futur président mise en cause

«Sans débat, la question de la légitimité du gagnant de l’élection se posera»

(Dominique Reynié, politologue et directeur général de la Fondation pour l’innovation politique)

La présentation du projet d’Emmanuel Macron ne devrait pas intervenir avant la fin de la semaine prochaine. En revanche, certaines propositions sont d’ores et déjà distillées au fur et à mesure… dont la fameuse réforme des retraites, avec un report de l’âge légal de départ de 62 ans à 65 ans. Mais une telle réforme est-elle envisageable dans une campagne sans débat ? « Il faut bien avoir à l’esprit que cette élection présidentielle ne ressemblera à aucune autre, explique Dominique Reynié, politologue et directeur général de la Fondation pour l’innovation politique. Cette réforme ne peut pas se faire sans débat et elle peut avoir lieu si, après la présidentielle, il y a une recomposition politique. Car l’une des raisons pour lesquelles nous avons du mal à avancer quand on veut réformer, c’est à cause de la manière dont s’est cristallisé l’espace politique français. »

Il ajoute: « Aujourd’hui, on voit l’effondrement spectaculaire de la gauche, la droite de gouvernement qui n’est vraiment pas au mieux. Il est frappant de voir que cinq ans après 2017, le total de la droite de gouvernement et de la gauche de gouvernement se trouvent en dessous du tiers des suffrages potentiels. » Dans ce contexte, le risque n’est-il pas de voir la contestation sociale se réveiller à la rentrée ? « Bien sûr, c’est le grand sujet, confirme Dominique Reynié. Car l’élection va fonctionner, il y aura un titulaire de la charge de désigné, mais elle n’aura pas eu lieu non plus car il n’y aura pas eu de débat ! Donc la question de la légitimité va se poser rétrospectivement. »

Une certaine dynamique semble s’enclencher autour de Jean-Luc Mélenchon. Sa présence au second tour devient-elle envisageable ? « Je suis un peu partagé. Les variations sont énormes selon les sondages. La gauche est absente en dehors de lui donc il agrège une partie du vote de gauche. Mais une grosse partie du vote socialiste est fixée sur Emmanuel Macron. Peut-être que l’annonce du report de l’âge légal de départ à la retraite sera de nature à donner quelques points supplémentaires à Jean-Luc Mélenchon. On ne peut pas exclure sa présence au second tour puisque le seuil de qualification est très, très bas. »

Et alors que l’Allemagne est en train de renoncer à son pacifisme, comment analyser l’évolution des rapports franco-allemands ? « C’est historique, souligne notre invité. Maintenant, je n’ai jamais partagé l’admiration partagée pour Angela Merkel. Elle a fait une faute sur le nucléaire qui empêche l’Europe aujourd’hui. Et ce ne sont pas des décisions qui se corrigent en 24 heures (…) Nous sommes tous un peu les prisonniers de cette décision. Sur le plan militaire, c’est une très bonne nouvelle, il faut réussir à construire quelque chose ensemble même si l’idée d’une véritable Europe de la défense n’est pas si simple que ça (…) Il faudrait quand même une industrie de la défense européenne sans quoi nous retombons dans le problème d’absence de souveraineté. Il est frappant de voir que dans ce monde du XXIè siècle, les Européens sont ceux qui se sont le moins intéressés à la souveraineté et ses fondements (…) Nous n’avons aucun élément de souveraineté et ce n’est pas soutenable. »( L’ »Opinion »)

 

 

 

2022 : un « futur plein d’avenir !!!

2022 : un  « futur plein  d’avenir !!!

 

C’est à peu près le nouveau slogan qu’a choisi Anne Hidalgo pour sa campagne électorale («Ensemble, changeons d’avenir.» ). La plupart des slogans retenus pour les élections sont à peu près aussi vide de sens. Sans doute adaptés pour vendre du fromage ou des assurances, ces slogans ne signifient strictement rien politiquement. 

Les candidats à la campagne présidentielle n’ont pas l’exclusivité de cette nullité qui atteint peut-être encore davantage les élections locales. Tous sont de la même tonalité comme par exemple : « l’avenir, demain avec tartanpion » ou encore « l’avenir , c’est demain ».

La preuve sans doute que le débat démocratique est désormais complètement confisqué par des publicitaires et des conseillers coupés des réalités socio-économiques. La forme doit prendre le pas sur le fond. La musique verbale doit s’imposer sur les paroles.

 L’apparence doit dominer le contenu programmatique. Bref du cirque médiatique caractérisé par l’insignifiance. Il pas étonnant qu’un Français sur deux n’aille  sans doute pas voté y compris pour la future élection présidentielle.

On rêve évidemment d’un candidat président (e) qui s’interdirait toute promesse ferme  se contentant pour sa campagne électorale d’une analyse approfondie de la situation socio économique et sociétale. Un président qui promettrait des transformations mais de manière progressive et surtout participative mais sans entrer dans des détails qui ne rentrent pas forcément dans ses attributions et qui le plus souvent se trouvent contrariées par l’environnement dès le lendemain du vote.

Futur- automobile « Le logiciel va tout changer » !!! (Roland Berger)

Futur-  automobile « Le logiciel va tout changer » !!!  (Roland Berger)

Éric Kirstetter, associé senior chez Roland Berger et spécialiste de l’automobile explique que le logiciel va tout changer dans la voiture du futur. Une stratégie qui peut largement se discuter dans la mesure où l’automobile se bourre  surtout d’informatique pour justifier le maintien de prix à un très haut niveau. En effet ,nombre de ces éléments de l’architecture logicielle sont inutiles et poseront de graves difficultés d’entretien au garagiste du coin. D’où aussi l’accroissement des dépenses d’entretien.En outre l’objectif devrait être de déshabiller l’automobile de tous les gadgets inutiles qui alourdit son poids et son prix et contribuent un bilan carbone encore plus négatif.

 

Extrait de l’interview d’Éric Kirstetter à la Tribune

 

Depuis plusieurs mois, l’actualité automobile est émaillée d’annonces autour des logiciels. En début d’année, Volkswagen a annoncé un plan d’envergure pour reprendre la main sur cette technologie. On a du mal à imaginer l’ampleur de la thématique…

ÉRIC KIRSTETTER - Ce qui est en jeu, c’est l’architecture logicielle de la voiture du futur. C’est une fusée à quatre étages. Le premier étage, c’est ce qu’on appelle le hardware, également appelés les calculateurs. Ce sont eux qui font fonctionner les équipements de la voiture. Le deuxième étage, c’est le middleware, autrement intitulé operating system [le système d'exploitation, Ndlr]. Si on devait comparer une voiture à un ordinateur, c’est ce qui équivaudrait à Windows. Il est nécessaire pour faire fonctionner tous les équipements d’une voiture, du moteur au châssis, en passant par la partie digitale des commandes de bord, ou le GPS. Le troisième étage, ce sont les applications. Elles gèrent tous les équipements de la voiture pour la faire fonctionner et créer « l’expérience utilisateur » (donner une expérience de conduite propre à la marque, proposer une interface utilisateur intuitive et agréable à utiliser…). Enfin, le quatrième étage, c’est le cloud. Cette technologie va s’imposer demain lorsque tous les véhicules seront connectés.

Le cloud est une technologie récente. Que va-t-il changer dans le modèle de l’architecture logicielle d’un véhicule ?

Il va tout changer. Demain, les voitures connectées auront accès à des données qui seront extérieures à la voiture, laquelle pourra consolider ces données pour définir des fonctionnalités spécifiques, en fonction du profil du conducteur, ou des réglages particuliers d’un véhicule. Typiquement, si vous entrez l’adresse d’un restaurant sur votre GPS, la voiture sera capable de vérifier si le temps de trajet, mis à jour en temps réel via les données livrées par le cloud, vous permettra d’arriver à l’heure avant la fermeture du restaurant; dans le cas contraire, le système pourra alors vous proposer des solutions alternatives. L’autre rupture que va apporter le cloud, c’est qu’il va permettre d’externaliser la puissance de calcul nécessaire au fonctionnement de la voiture. Cela va totalement changer la place des calculateurs présents dans une voiture. Aujourd’hui, on compte, en fonction des modèles, entre 50 et 70 calculateurs. Chaque fonction est réalisée avec un calculateur spécifique, celui-ci est vendu par un tier-one [le plus souvent un équipementier, Ndlr] avec des capteurs et des actionneurs. Demain, les calculs seront davantage centralisés dans de plus gros calculateurs de plus haute performance, qui couvriront plusieurs fonctions. Ces calculateurs vont se répartir aux quatre coins de la voiture pour centraliser les fonctionnalités et réduire le câblage des voitures.

Tout sera donc géré de l’extérieur ?

Non. Le middleware restera un élément stratégique majeur pour l’automobile de demain. Là aussi, le secteur s’apprête à basculer dans une nouvelle ère. Pour schématiser le monde d’avant: il y avait autant d’operating system que de modèles disponibles sur le marché. Ainsi, un constructeur devait reconstruire un système d’exploitation depuis le début à chaque fois qu’il mettait sur le marché un nouveau modèle. Mais avec le cockpit de plus en plus digital, le cloud, les assistants de conduite de plus en plus gourmands en données, ces systèmes d’exploitation s’avèrent de plus en plus complexes et coûteux à mettre en œuvre, et il est très difficile de réutiliser les applications déjà développées pour la version antérieure du véhicule. La voie générale que semblent suivre les constructeurs, c’est donc de créer un système d’exploitation en propre qui va pouvoir être réutilisé d’un véhicule à l’autre et qui va permettre de réutiliser et d’améliorer facilement les applications qui avaient été développées pour le véhicule précédent. Si on veut une comparaison, on peut dire que les constructeurs développent leur propre système Windows qui leur permet d’améliorer facilement Word et Excel entre chaque véhicule.

Futur énergétique 2050 : renouvelables et surtout nucléaire

Futur énergétique 2050 :  renouvelables et surtout nucléaire

 

RTE a publié ce 25 octobre les principaux enseignements de son étude prospective intitulée « Futurs énergétiques 2050″ lancée en 2019, à la demande du gouvernement. Cet exercice, d’une ampleur inédite en France et en Europe, donne lieu à un épais rapport dont les chapitres seront mis en ligne progressivement sur le site du gestionnaire du réseau électrique
Il propose plusieurs scénarios pour la production et l’évolution de la consommation d’électricité. Pour cette dernière, RTE retient le scénario de référence d’un niveau de 645 térawattheures (TWh) en 2050, soit une hausse de quelque 35% par rapport à l’époque actuelle. Cette augmentation de la consommation suppose une électrification « progressive » des usages et une ambition forte sur l’efficacité énergétique. Mais RTE imagine aussi une trajectoire axée sur la « sobriété », où la consommation n’atteindrait que 555 TWh. Elle suppose une évolution des habitudes de vie : davantage de télétravail, moindre consommation de biens et moins de déplacements individuels au profit des mobilités douces et des transports en commun. À l’inverse, une forte réindustrialisation de la France et un développement accéléré de la production d’hydrogène pourraient se traduire par une consommation électrique encore plus importante (752 TWh), selon RTE.

Quoi qu’il en soit, être neutre en carbone en 2050 se traduira par une électrification massive des usages – transport, chauffage ou industrie – au détriment du pétrole et du gaz naturel. Même si la consommation totale d’énergie doit baisser, la France consommera donc plus d’électricité en 2050 qu’aujourd’hui, y compris dans le scénario le plus « sobre ».
« La France doit simultanément faire face à deux défis : d’une part, produire plus d’électricité en remplacement du pétrole et du gaz fossile et, d’autre part, renouveler les moyens de production nucléaire qui vont progressivement atteindre leur limite d’exploitation d’ici 2060″, résume Xavier Piechaczyk, président de RTE. Le parc nucléaire français, construit dans les années 1970 à 1990, vieillit en effet et deviendra progressivement obsolète dans les décennies à venir.

Six scénarios de production

Pour « éclairer le débat public », RTE présente six scénarios de production possibles, allant de 100% renouvelables en 2050 à un développement « volontariste » du nucléaire avec la construction de 14 EPR ainsi que des petits réacteurs. « Tous ces chemins sont possibles même si certains sont plus difficiles ou incertains », juge Xavier Piechaczyk.
Ces scénarios prennent en compte les dimensions économique, environnementale et sociétale des choix à faire. RTE ne prend pas partie pour une option plutôt qu’une autre mais présente « leurs avantages, leurs inconvénients, leurs impacts et leurs conséquences », souligne son président. « C’est au personnel politique élu démocratiquement de choisir les orientations pour le pays » et il y a « urgence » à prendre des décisions, a-t-il souligné lors d’une conférence.
« Atteindre la neutralité carbone est impossible sans un développement significatif des énergies renouvelables », estiment les auteurs du rapport. Ainsi, même le scénario de développement le plus massif du nucléaire ne pourra pas se faire sans un essor important des renouvelables, avec une capacité solaire multipliée par 7 et l’éolien terrestre multiplié par 2,5.

Compétitivité du nucléaire

Mais du point de vue économique, nouveauté du rapport, « construire de nouveaux réacteurs nucléaires est pertinent ». En effet, même si les coûts des renouvelables ont fortement baissé, le solaire ou l’éolien nécessitent des investissements plus importants pour les réseaux électriques (car ils sont plus éparpillés) et pour la flexibilité (car ils ne produisent pas en permanence), avec le besoin par exemple de plus de stockage et de centrales thermiques d’appoint à hydrogène ou biométhane. Donc, « les scénarios comprenant de nouveaux réacteurs nucléaires apparaissent plus compétitifs ».
L’écart est de l’ordre de 10 milliards d’euros par an entre un scénario avec de nouveaux réacteurs nucléaires (14 EPR) et un autre sans, s’appuyant sur le développement de grands parcs renouvelables. Le fossé se creuse même à quelque 20 milliards annuels dans certains scénarios.
En plein débat sur le pouvoir d’achat, RTE conclut également que « le système électrique de la neutralité carbone peut être atteint à un coût maîtrisable ». Il se traduirait en effet par une augmentation des coûts de l’électricité (de l’ordre de 15%) mais avec en contrepartie la fin des dépenses en énergies fossiles pour faire le plein de la voiture ou remplir la cuve à fioul.

 
Le rapport de RTE estime que le développement des énergies renouvelables soulève un enjeu d’occupation de l’espace et de limitation des usages. Ce développement « peut s’intensifier sans exercer de pression excessive sur l’artificialisation des sols, mais doit se poursuivre dans chaque territoire en s’attachant à la préservation du cadre de vie ». Les analyses des « Futurs énergétiques 2050″ confirment une plus grande visibilité des infrastructures : les éoliennes pourraient représenter entre 14.000 et 35.000 mâts, et les panneaux solaires entre 0,1% et 0,3% du territoire. Les scénarios avec construction de nouveaux réacteurs nucléaires conduisent à une moindre occupation de l’espace puisque les nouveaux réacteurs seraient a priori construits sur ou à proximité des sites existants. « Ces constats de moindre occupation spatiale par le nucléaire ne doivent toutefois pas occulter les débats d’acceptabilité que ces nouvelles installations ne manqueront pas de provoquer, doublés d’une mise en avant du risque d’accident », nuance toutefois le rapport. 
Plus le scénario comporte d’énergies renouvelables, plus la surface du territoire utilisée par des infrastructures énergétiques augmente. « Néanmoins, les surfaces imperméabilisées et artificialisées, qui cristallisent les inquiétudes pour la biodiversité, restent très faibles à l’échelle du territoire, relativisent les auteurs du rapport. À l’horizon 2050, les surfaces artificialisées dédiées au système électrique représenteront de l’ordre de 20.000 à 30.000 hectares contre plus d’un million pour le seul réseau routier français. Même dans les scénarios générant le plus d’artificialisation, les surfaces en question restent faibles par rapport au flux correspondant à l’habitat, aux zones commerciales ou aux routes (1 à 3%), notent les experts qui soulignent aussi que toute action permettant de limiter l’artificialisation liées aux infrastructures électriques (réutilisation de friches délaissées) contribuera à l’atteinte de l’objectif de « zéro artificialisation nette ».

Pologne : futur « polexit » après le brexit

Pologne : futur « polexit » après le brexit

En considérant la suprématie du droit polonais sur le droit communautaire, la cour constitutionnelle polonaise met les pieds dans le plat de la hiérarchie juridique.

.

En considérant que certains articles du traité de l’UE sont «incompatibles» avec la Constitution polonaise et en appelant les institutions européennes à ne pas agir «au-delà de leurs compétences», la plus haute juridiction polonaise foule aux pieds les principes juridiques européens.

La réplique européenne pourrait être juridique avec la saisine des autorités appelées à juger des différends entre les pays et l’union. Elle pourrait aussi être surtout financière avec la retenue par l’union européenne des  23 milliards d’euros de subventions et les 34 milliards d’euros de prêts à taux préférentiels prévus pour la Pologne dans le plan européen adopté en 2020 .

Ce différend après l’affaire du brexit  concernant les Britanniques, pose la question de l’appartenance de la Pologne à l’UE. Ceci étant justement compte tenu de cette rupture encore récente du Royaume-Uni avec l’union européenne et quel accord est loin d’avoir totalement réglé (voir par exemple les questions de droits de pêche refusée par les Britanniques aux pêcheurs français ou encore les oppositions réciproques quant à la situation douanière de l’Irlande du Nord), il est peu vraisemblable que l’union européenne s’engage dans un bras de fer qui pourrait porter une nouvelle atteinte à l’union.

Si on examine ce conflit de manière positive, on observe que dans nombre de pays l’hégémonie juridique européenne sur tous les sujets est mise  en question. L’Europe de ce point de vue afin de voulu en faire trop sur des champs politiques qui n’étaient pas forcément prioritaires alors que par exemple l’Europe manifeste tous les jours sa grande impuissance en matière de politique diplomatique et de défense, de thèmes nécessitant  d’être associés pour peser un peu face aux grandes puissances notamment la Chine les et les États-Unis.

Un recadrage juridique de l’Europe ne serait pas inutile pour limiter l’influence européenne dans des domaines qui ne sont pas nécessairement stratégiques.

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol