Archive pour le Tag 'Nouvelles'

Nouvelles technologies- Métavers: la cruelle illusion ?

Nouvelles technologies- Métavers: la cruelle illusion ?

Il semble bien que l’immense projet metavers de Facebook va se transformer en véritable catastrophe économique. Facebook ( Meta) avait créé l’illusion d’une véritable révolution technologique grâce à la virtualité. Un an après, tous les projets déçoivent et il n’y a plus d’argent Meta a créé une illusion collective. Un an après, tout le monde a entendu parler de métavers mais peu savent bien le définir, surtout, très peu le fréquentent et pire, encore moins le désirent.

Un échec pourtant prévisible. Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».
Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ¬fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Nouvelles technologies: Une révolution digitale qui va tout changer

Nouvelles technologies: Une révolution digitale qui va tout changer ?

Dans le numérique, une innovation de rupture s’impose tous les 10 ans. La prochaine sera celle de la décentralisation massive de tout, avec avec pour conséquence de voir les « barbares » remplacer les empereurs qui dominent actuellement l’industrie numérique. Par Xavier Dalloz, consultant spécialisé dans les nouvelles technologies. ( dans la Tribune)

Un article intéressant mais cependant un peu confus et excessif sur la révolution digitale en cours.Notons juste un exemple l’amplification de la circulation de l’information n’a pas entraîné jusque-là la baisse de base de la mobilité physique; au contraire elle la favorise. NDLR

Les grands moteurs structurants de la mutation numérique sont l’accroissement continu des puissances disponibles de traitement de l’information, de la suppression des contraintes de temps et de distance, des nouvelles possibilités de collaboration et la chute des coûts de communication, d’interaction et plus généralement de transaction.
Ces grands moteurs s’expliquent par 4 lois :
• Loi de Moore, selon laquelle le nombre de transistors sur une puce doublera tous les deux ans.
• Loi de Kryder, selon laquelle le stockage en mémoire augmenterait de façon exponentielle dans un avenir proche.
• La loi de Robert, selon laquelle le coût de la transmission de données sur le réseau diminuerait chaque année.
• La loi de Metcalfe, selon laquelle, l’utilité d’un réseau est proportionnelle au carré du nombre de ses utilisateurs (N²)
Ces grandes mutations numériques se produisent tous les 10 ans. 1944, avec le premier ordinateur, 1954 avec le mainframe, 1964 avec le mini ordinateur, 1974 avec le micro ordinateur, 1984 avec le Mac, 1994 avec le Web, 2004 avec les réseaux sociaux. Depuis 2014, nous sommes rentrés dans l’ère de l’Internet of Me. Le prochain mouvement tectonique commencera en 2024, avec la décentralisation massive de tout.
Ces mouvements tectoniques sont orchestrés par la nouvelle façon d’accéder à l’information et de communiquer. Un proverbe chinois connu positionne très bien la révolution que nous vivons actuellement.
Il dit la chose suivante :
« Dis-le moi et je l’oublie
Montre-le moi, et je le retiens
Implique-moi, et je comprends »
Dis-le moi et je l’oublie
Ce sont les médias traditionnels. Cette démarche est adaptée au marketing de masse. C’est la presse et la radio. Ils diffusent des textes ou des séquences sonores. Ces modes de communications sont linéaires et induisent un mode de fonctionnement très fortement structuré et réducteur. Le point important est la non interactivité, les auditeurs réagissent peu et difficilement, et pas entre eux L’exemple type de ce mode de communication est la radio.
Montre-le moi et je le retiens
C’est l’audiovisuel avec la télévision mais aussi le cinéma. Le pouvoir de l’image est considérablement plus grand que celui du texte et du son parce que plus émotif, il provoque des réactions rapides et peu réfléchies. Pas d’interactivité et plus de superficialité qu’avec l’écrit. Dans une société de plus en plus entièrement tournée vers l’efficacité au moindre coût, l’audiovisuel est devenu le moyen de communication de base, car il est plus riche et plus performant. La télévision est l’exemple type de ce mode de communication.
Implique-moi et je comprends
C’est l’apport fondamental d’Internet par rapport à la radio et à la télévision. La richesse du média audiovisuel reste limitée, car il rend passif l’utilisateur. Au contraire, les nouvelles technologies de l’information permettent d’impliquer plus fortement l’individu, le rendre plus actif et plus responsable, donc plus autonome et plus efficace.
C’est ici que réside toute l’originalité de ce nouveau média dont il est possible d’imaginer aisément l’impact sur notre société. Le dialogue devient réel et la création de valeur va dépendre de la loyauté. Ce n’est que l’effet David, il y a aussi l’effet Goliath, prise de monopole, manipulation plus efficace et uniformisation (Coca, McDo…).
Les mouvements tectoniques depuis 1985 à 2020
Les effets de la tectonique des médias se sont d’abord faits sentir sur les contenus qui en devenant numériques sont à l’origine d’une transformation des équipements nécessaires à leur restitution mis à la disposition du grand public. Ces équipements associés aux contenus ont nécessité de nouvelles infrastructures qui ont permis des échanges entre les individus beaucoup plus efficaces. Ces nouvelles infrastructures ont ensuite nécessiter de nouveaux services qui à leur tour ont nécessité des contenus.
Les 4 plaques tectoniques ont déjà fait profondément transformer de nombreux secteurs d’activité :
• Les contenus ont commencé à se numériser en 1985 avec les CD-COM et l’interface du Mac
• Les équipements ont commencé à s transformer en 1990 avec la télévision interactive et à haute définition
• Les infrastructures ont commencé à se transformer avec le web en 1995
• Les services ont commencé à se transformer avec les moteurs de recherche en 2000
Depuis 2000, nous sommes de nouveau revenus à un nouvelle série de mouvements tectoniques qui se sont se succédés de la façon suivante :
Le début de la nouvelle ère des contenus a été régi par les réseaux sociaux (2005-2010)
Les fonctions participatives, la liberté d’expression caractéristiques des réseaux sociaux ont libéré la voix des consommateurs non seulement vis-à-vis de la marque mais surtout entre eux.
Les enjeux de ce nouveau paradigme débordent largement le cadre d’Internet puisque les marques vont devoir passer :
• d’une logique transactionnelle à une logique conversationnelle : difficile maintenant d’assurer une vente sans avoir débuté une écoute attentive des besoins du consommateur et une réponse personnalisée à ceux-ci
• d’une logique de distance et d’anonymat à une logique de proximité : de la hot-line standardisée à la conversation humanisée
• d’un marketing de diffusion (écran TV, annonce presse, bannière Web, etc.) à un marketing d’engagement : la mise à disposition pour un client d’une équipe et d’une organisation spécifique
• et probablement de valeurs consuméristes à des valeurs morales et de responsabilité sociale : les promotions sur les prix feront-elles face à des engagements moraux et sociétaux des entreprises ?
Le début de la nouvelle ère du smartphone et de l’ATAWAD (2010-2015)
La nouvelle électronique grand public a permis au client impatient d’accéder aux services dont il a besoin non seulement tout de suite mais n’importe quand et n’importe où et où qu’il soit. Les objets nomades nous ont fait découvrir avec l’ATAWAD que nous pouvons agir au même moment et du même endroit sur notre sphère professionnelle et notre sphère privée, intervenir du bureau et de la maison ou notre lieu de loisir, de commerce.
Le début de la nouvelle ère de l’IoT avec l’atmosphère IP (2015-2020)
Avec l’Atmosphère IP et l’ATAWAD, l’extension des infrastructures de réseaux numériques de toute nature et notamment sans fil a permis au consommateur de prétendre pouvoir affirmer : « ma maison, mon bureau, mes lieux de loisir ou de consommation ne sont plus dans leurs murs, ils sont là où je suis… et mes relations sont toujours à portée de ma voix ou de mon courrier ». Les mobiles ont joué un rôle de en plus important.
Cette ère a été marquée par l’émergence de l’IoT avec les caractéristiques suivantes :
• l’IoT encourage la communication entre divers appareils. Les appareils physiques peuvent rester connectés et offrent une transparence totale avec moins d’inefficacité et une meilleure qualité.
• les objets physiques se connectent, numériquement avec une infrastructure sans fil, il y a donc une grande quantité d’automatisation et de contrôle.
• Plus d’informations, cela aide à prendre de meilleures décisions.
Les prochains mouvements tectoniques devraient être les suivants :
• L’Internet of Augmented Me (2020-2025)
• La décentralisation massive de tout avec le Web3 (2025-2030)
L’Internet of Me
L’Internet of Augmented Me ou en abrégé I.am définit un cadre de vie où le consommateur citoyen est maître de ses choix et influence directement la production de biens et de services par le biais d’interactions électroniques, partout où il est.
Cet univers répond aux besoins primaires des individus et à leurs désirs d’épanouissement. Il s’appuie sur des combinaisons de technologies avancées, mêlant numérique, physique quantique et biologie.
Avec l’Internet of Me, nous sommes maintenant dans la troisième vague où les acteurs ne se laisseront plus obnubiler par les taux d’audience et se concentreront sur les transactions effectivement effectuées.
Ces transactions effectives impliquent une implication suffisante des prospects pour qu’ils passent à l’acte. Le commerce sera notamment d’autant plus efficace qu’il écoutera, donnera la possibilité à la demande de s’exprimer en confiance, de façon individuelle, n’importe où et n’importe quand.
Ce commerce de l’ubiquité exploite pleinement l’économie de réseau, la possibilité d’agréger des offres dans une logique de consommation en se libérant des astreintes de la logique de production, en misant à fond sur le pouvoir d’implication de l’unimédia.
L’implication est essentielle car dans une situation où toute l’offre du monde est à portée de clic, ce qui est rare est le temps de chacun, ce qui est précieux, c’est de réussir à retenir l’attention de quelqu’un pour qu’il veuille bien accorder un peu de son temps à examiner une offre.
La décentralisation massive de tout
25 innovations digitales seront au cœur de la nouvelle vague des innovations digitales :
• 6G
• 5G
• L’AR/VR
• L’autonomie de tout
• La Blockchain
• La connectivité globale
• La DAO
• La datafication
• Les drones
• Les edge computing
• L’énergie harvesting
• Les nouvelles sources d’énergie (hydrogène, solaire, etc.)
• L’intelligence artificielle
• L’identification décentralisée
• L’impression 3D
• Les interfaces naturelles
• L’Internet des comportements
• L’Internet du corps
• L’loT
• Le métaverse
• La nouvelle mobilité
• L’informatiques quantique
• La robotique as a service
• La cyber sécurité et la résilience
• La tokenisation
• Le twin
Au cours des 10 prochaines années, l’impact de cette vague du numérique va complètement transformer les modèles économiques, le commerce immersive, l’industrie, l’agriculture, les super cities, la logistique, les bâtiments intelligents, la supply chain, etc.
Les barbares vont en profiter pour remplacer les empereurs actuels
Le catalyseur de cette nouvelle vague du numérique sera le Web3.
Web3 est l’internet décentralisé qui vient remplacer le web actuel. L’architecture web3 est conçue pour être un réseau décentralisé de nœuds peer-to-peer. La pile web3 se compose de protocoles, de normes et d’interfaces qui constituent l’épine dorsale de ce nouveau type d’Internet.
Web3 est une initiative visant à façonner l’avenir d’Internet. C’est la prochaine étape logique pour donner aux utilisateurs un contrôle total sur leur contenu, leur propriété numérique et leurs personnages numériques dans le domaine numérique.

Les centrales nucléaires: nouvelles cibles de guerre

Les centrales nucléaires: nouvelles cibles de guerre

L’utilisation par Vladimir Poutine des centrales ukrainiennes comme moyen d’intimidation des Occidentaux met en lumière la faiblesse des conventions internationales qui protègent ces installations civiles.( Le Monde)

 

Vladimir Poutine a un art consommé pour jouer de l’effroi qu’inspire le nucléaire, civil et militaire. Le président russe a réitéré ses menaces d’emploi de l’arme atomique, mercredi 21 septembre, trois jours après une frappe de missiles à proximité des réacteurs de la centrale de Pivdennoukraïnsk (Sud). Il avait déjà fait de celle de Zaporijia, la plus puissante d’Europe (6 000 mégawatts), occupée dès le début de la guerre par son armée, un outil d’intimidation des Occidentaux. Pour la première fois depuis le développement à grande échelle des applications civiles de l’atome, dans les années 1950, des sites se retrouvent au cœur d’un conflit armé.

Un nouveau Tchernobyl est improbable, la cuve où se produit la réaction atomique étant mieux protégée ; mais la fonte du cœur est possible en cas de coupure prolongée de l’alimentation électrique et d’un arrêt des circuits de refroidissement. A Zaporijia, la situation a été qualifiée d’« intenable » par le directeur général de l’Agence internationale de l’énergie atomique (AIEA), le 6 septembre. Rafael Grossi réclame une « zone de protection » autour du site, jugeant que « quelque chose de vraiment, vraiment catastrophique pourrait se produire ». Sans succès jusqu’à présent. Qui peut décider une telle sanctuarisation, sinon le maître du Kremlin ?

Si les industriels, les opérateurs de centrales et les autorités de sûreté nucléaires coopèrent à travers le monde, il n’existe pas de gouvernance mondiale digne de ce nom. L’AIEA contrôle et fait des recommandations sans moyens de les imposer. Elle en réfère au Conseil de sécurité des Nations unies qui n’en a pas plus, puisque la Russie en est un des cinq membres permanents et y a droit de veto. « La sûreté nucléaire a fait énormément de progrès depuis les ­accidents de Tchernobyl et de Fukushima, a constaté M. Grossi, dans un entretien au Monde, en août. Mais, au milieu d’une guerre, elle n’est jamais absolue. » Personne ne s’était préparé à ce qu’une centrale « se retrouve au milieu d’une grande confrontation de type conventionnel ».

De longue date, les défenseurs du droit international humanitaire avaient pourtant prévu cette menace. La convention de Genève de 1949 sur la protection des civils, adaptée au fil des décennies, proscrit les agissements reprochés à Moscou. « Les barrages, les digues et les centrales nucléaires de production d’énergie électrique ne seront pas l’objet d’attaques, prévoit l’article 56 du protocole additionnel I de 1977même s’ils constituent des objectifs militaires, lorsqu’[elles] peuvent provoquer la libération de ces forces et, en conséquence, causer des pertes sévères dans les populations civiles. »

Nouvelles technologies : la photonique

Nouvelles technologies : la photonique

La photonique est une technologie clé que l’Europe ne peut se permettre de perdre

OPINION. Pour rester compétitive, l’Europe doit être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Notamment la photonique, ou science de la lumière, qui trouve des cas d’usage dans de nombreux secteurs stratégiques, à commencer par l’agriculture. Par Giorgio Anania, PDG de la startup industrielle Aledia.

 

La photonique, ou science de la lumière, est un outil essentiel pour les ambitions de l’Europe en termes de numérique, de technologie de fabrication (industrie 4.0), d’intelligence artificielle, d’agriculture intelligente, de 5G, etc. En tant que technologie habilitante, elle touche à des éléments essentiels liés à des chaînes de valeurs stratégiques, de l’industrie automobile et médicale à l’aérospatiale et aux ordinateurs quantiques.

Actuellement, une vague de chaleur s’abat sur l’Europe et représente une véritable menace pour l’agriculture. En outre, et depuis quelques années, les sols sont trop secs (y compris en France), ce qui affecte davantage le secteur. Selon les experts du climat, dans les prochaines années, nous serons encore plus souvent confrontés à ces conditions qui risquent d’être plus dramatiques. L’agriculture devra donc devenir beaucoup plus efficace, et pas uniquement au niveau de la consommation d’eau.

La photonique contribue à l’amélioration de l’agriculture moderne. En effet, les lasers, l’imagerie hyperspectrale, les capteurs et les LED sont déjà utilisés quotidiennement dans l’agro-industrie. Grâce à ces produits et solutions photoniques, l’agriculture peut surveiller le niveau d’eau, prédire le taux de protéines dans les récoltes de céréales, déterminer le moment opportun pour la récolte des fruits et analyser les produits pour détecter les polluants.

À l’avenir, la photonique pourra contribuer à gérer les fermes verticales. Il s’agit de la culture de denrées alimentaires sur plusieurs niveaux, par exemple dans des hangars. Les fermes verticales, permettent notamment d’économiser de l’espace et de l’eau par rapport aux serres conventionnelles. Les environnements soigneusement contrôlés amélioreront la qualité et le goût des aliments.

Les exemples cités ci-dessus ne représentent qu’un échantillon de ce que la photonique peut apporter. Ses avantages touchent de nombreux autres secteurs clés en France et dans l’UE. Quelques chiffres permettent d’ailleurs d’illustrer l’importance de l’industrie photonique : les entreprises de photonique de l’UE ont pu passer d’un chiffre d’affaires de 76 milliards d’euros en 2015 à 103 milliards d’euros en 2019 – ce qui correspond à un taux de croissance annuel moyen de 7 % sur cette période. Cette croissance dépasse celle de plusieurs secteurs y compris le secteur de la tech avec 4,5 % ou la technologie médicale avec 4,9 %.

Aujourd’hui, le marché de la photonique est desservi par environ 5000 entreprises, principalement des PME. Celles-ci sont extrêmement compétitives, ont créé plus de 30 000 nouveaux emplois au cours des dernières années et ont l’intention de continuer sur cette lancée. Sur le marché mondial, l’industrie photonique européenne s’affirme comme le deuxième plus grand marché, juste derrière la Chine.

Néanmoins, nous sommes confrontés à une concurrence de plus en plus rude – souvent soutenue par des investissements très importantes de la part des États. Il suffit d’observer les autres pays pour connaitre le soutien dont ils disposent. Selon une étude menée en 2017, le gouvernement chinois a subventionné à lui seul l’industrie photonique locale à hauteur d’un milliard d’euros (au moins), sans compter les aides régionales. Selon cette même étude, la Corée du Sud est également très attachée à la photonique et a injecté au moins 2,8 milliards d’euros de fonds publics afin de la propulser au premier rang mondial. Récemment, les États-Unis ont également conclu un partenariat public-privé d’une valeur de 610 millions de dollars afin de contribuer à renforcer la production high-tech de circuits intégrés photoniques dans le pays.

Nous sommes fermement convaincus que pour rester compétitive, l’Europe devrait être plus ambitieuse et suivre les autres régions du monde en investissant davantage dans les technologies de pointe. Pour cela, Photonics21 a déposé une proposition auprès de la Commission européenne, dénommée « Horizon Europe 2021-2027 ». En effet, les dépenses consacrées aux recherches provenant des fonds européens (dont le montant est d’environ 500 millions d’euros) sont complétées par des investissements « privés » issus d’acteurs de l’industrie photonique dans des services de recherche et d’innovation, ainsi que des investissements (R+I spending et Capex) d’environ 100 milliards d’euros d’ici à 2027 également.

Nous avons récemment assisté à une crise des semi-conducteurs face à la concurrence internationale. En conséquence, une pénurie des puces électroniques a gravement nui à l’économie européenne. Aujourd’hui, une loi européenne sur les puces électroniques est nécessaire pour renverser la donne. Afin d’éviter que cela ne se reproduise avec la photonique, il faut prévoir un « EU Photonics Act ». La photonique étant indispensable pour les différents secteurs et dont la valeur ne fera qu’augmenter avec le temps. La promotion de la recherche au niveau national et européen est par conséquent primordiale.

Régénération cellulaire possible avec les nouvelles technologies ?

Régénération cellulaire possible avec les nouvelles technologies ?

Pour la première fois, un morceau de tissu humain imprimé en 3D a été implanté sur une patiente, ouvrant la voie à la régénération du corps en imprimant ses propres cellules. Pour des greffons accessibles, naturels avec zéro rejet. ( un papier de la Tribune )

 

C’est une première pour la communauté scientifique et médicale. En mars dernier, une équipe américaine a implanté sur une patiente un pavillon d’oreille biologique imprimé en 3D. La greffe visait à corriger la malformation congénitale d’une des oreilles due à ce qu’on appelle la microtie. Fabriquée par la biotech américaine 3DBio Therapeutics, l’implant a été imprimé avec des cellules de cartilage de la patiente. Auparavant la biotech avait aussi imprimé une coque de la même forme que l’autre oreille. Une coque pour que le mélange de cellules et gel de collagène imprimés garde la bonne forme du pavillon en se développant. Faite de matériaux biodégradables, cette coque sera intégrée au corps de la patiente au fil du temps pour laisser libre ce nouveau pavillon d’oreille vivant. Suite à ce premier succès, 3DBio Therapeutics lance un essai clinique à Los Angeles (Californie) et San Antonio (Texas) sur onze patients atteints de microtie.

L’impression de cartilage

Si l’essai décrit est confirmé par les publications à venir, cette greffe de tissus biologiques imprimés fait partie des grandes innovations médicales attendues. La biotech américaine est restée avare sur les détails de sa technologie, mais l’annonce semble sérieuse alors que 3DBio Therapeutics travaille sur l’impression de cartilage depuis plusieurs années. En France, notre pionnière de l’impression de tissus biologique Proietis est également sur les rangs. Elle devrait implanter le premier morceau de peau imprimée en 3D à l’hôpital de Marseille en fin d’année.

Le principe de l’impression biologique semble simple : cultiver différents types de cellules de peau ou de cartilage afin d’obtenir des « encres » biologiques à imprimer en D. En réalité, il s’agit d’une bio technologie très complexe qui a demandé des années de mise au point. D’une part, les cellules sont vivantes et doivent le rester pendant l’impression et après. L’imprimante doit éviter toute contamination microbienne ou chimique qui dégraderait le tissu. Les différentes cellules doivent toutes être imprimées dans le bon ordre pour fonctionner entre elles comme dans notre organisme. Elles doivent aussi disposer des ressources nécessaires pour survivre le temps que le tissu soit utilisé.

L’unité Inserm BIOTIS travaille sur l’impression de tissus biologiques en 3D. Elle imprime notamment des tumeurs cancéreuses pour comprendre comment elles se développent et à quoi elles réagissent. « Avec ces encres biologiques, les tissus évoluent une fois imprimés et il faut bien comprendre comment, souligne son directeur Jean-Christophe Fricain. Ils doivent aussi être alimentés en oxygène et en nutriments pour survivre. Imprimés en couches fines, on peut les alimenter de l’extérieur in vitro et in vivo le corps les revascularisera une fois qu’ils seront implantés. Mais imprimer un organe plus épais nécessiterait d’y adjoindre un circuit veineux vasculaire hiérarchisé à raccorder aux vaisseaux du patient ce qui est un nouveau défi à relever. »

Autorisation réglementaire

Si certains labos et biotechs impriment des tissus biologiques depuis quelques années, ils sont utilisés dans le cadre d’analyses et de recherches. Jusqu’à l’expérience 3DBio Therapeutics, personne n’avait encore reçu l’autorisation réglementaire de les implanter sur des patients. Car l’opération nécessite des autorisations strictes comme dans le cadre des médicaments.

Depuis 2016, la biotech française Proietis imprime de la peau destinée aux recherches pharma, aux tests toxicologiques et à la cosmétique. Elle est passée au stade supérieur en novembre dernier en installant sa plateforme de bio impression dans un hôpital de Marseille pour lancer des essais cliniques. Là encore, un implant de peau imprimée sera une première. Mais l’exercice nécessite de convaincre les instances sanitaires très vigilantes sur sujet : le procédé d’impression doit être conforme aux bonnes pratiques de fabrication (BPF) du médicament pour que le morceau greffé au patient soit parfaitement sans danger.

« Nous sommes en train de boucler le dossier de demande d’essai clinique avec l’APHM (1), affirme le CEO Fabien Guillemot. Avec les essais précliniques sur des souris, nous avons vérifié la capacité à suturer cette peau imprimée et sa bonne prise sur la plaie de l’implant. Nous pensons envoyer la demande d’essai en septembre et, grâce à la procédure fast track, nous pourrions obtenir l’autorisation en fin d’année. » Comme avec de nombreuses biotechnologies aux tarifs difficiles à supporter par les systèmes de santé, ce nouveau traitement posera la question du modèle économique, alors que cultiver des cellules vivantes ou modifier des gènes coûte bien plus cher que le travail de substances chimiques. « Nous avons cherché des moyens de maîtriser le coût de cette nouvelle technologie. Nous proposons d’implanter nos plateformes dans les plus grands hôpitaux afin de produire là où on implante sans coûts de conservation et de transport. En imprimant les propres cellules de peau du patient, nous évitons aussi tout phénomène de rejet. »

Ces premiers essais cliniques, actuels et à venir, font déjà rêver d’une médecine capable d’imprimer des cœurs et des foies en 3D pour remplacer les organes malades, mais on en est encore vraiment très loin. Le laboratoire de recherche CNRS 3DFab étudie les différentes applications de la fabrication 3D en santé : « Si l’on sait imprimer des tissus simples, on ne maîtrise pas du tout la fabrication de ceux qui, par exemple, filtrent le sang ou produisent des substances nécessaire au corps, affirme le Dr Christophe A. Marquette, Directeur adjoint du laboratoire. On va déjà avoir besoin de cinq ou dix ans pour greffer couramment la peau ou le cartilage. Mais de bien plus encore pour pouvoir implanter des organes plus complexes. » En mars dernier, des chercheurs de l’Université d’Utrecht (Pays-Bas) ont imprimé des cellules hépatiques pour créer un tout petit foie au fonctionnement proche d’un organe naturel. Mais l’organe n’était vraisemblablement pas vascularisé pour survivre et lorsque l’on saura fabriquer des foies ou des reins valides, encore faudra-t-il leur apprendre à fonctionner. « Aujourd’hui, la science travaille sur des systèmes de développement in vitro des organes. Au-delà de leur impression, ils doivent être capables d’entrer en fonction comme ceux d’un embryon. Fabriquer et mettre en service ce type d’organe devrait impliquer des coûts très élevés au regard des volumes que l’on pourra vendre. »

En attendant les peaux et les cartilages imprimés – alors que la Chine travaille sur l’impression de vaisseaux sanguins – l’impression 3D au service de la médecine permet déjà de fabriquer des structures pour des greffons sur mesure. Ces coques sont imprimées dans des matériaux naturels type silicone. On y injecte les cellules du patient pour qu’elles se multiplient dans un milieu adapté et à la bonne forme. C’est le cas des bioprothèses mammaires de la biotech française Healshape, des prothèses faites des cellules du corps lui-même qui reprennent la forme souhaitée après une mastectomie (voir article de La Tribune ).

Tout jeune, mais en pleine expansion, le marché semble prometteur. Data Bridge Market Research estime que ce marché des tissus imprimés en 3D devrait connaître une croissance à un taux de croissance annuel composé (TCAC) de 14,32 % entre 2021 et 2028. Il se développerait en médecine régénérative sous l’effet des maladies chroniques et du vieillissement de la population nécessitant davantage de régénérations.

(1) APHM : Assistance publique hôpitaux de Marseille

Nouvelles technologies : mettre fin aux logiciels espion

Nouvelles technologies : mettre fin aux logiciels espion des mobiles

 

La révélation en juillet 2021 de l’ampleur de la surveillance illégale étatique menée par le logiciel espion Pegasus a provoqué une onde de choc mais les mesures prises, notamment en France, ne sont pas à la hauteur dénonce un collectif de responsables d’ONG des droits humains ( dans le Monde)

 

Le « Projet Pegasus », collaboration sans précédent menée par plus de quatre-vingts journalistes de dix-sept médias dans dix pays et coordonnée par Forbidden Stories avec le soutien technique d’Amnesty International, a révélé comment des Etats ont ciblé des journalistes, des militants, des avocats et des personnalités politiques en ayant recours au logiciel espion Pegasus vendu par l’entreprise israélienne de cybersurveillance NSO Group.

Plusieurs journalistes français ont ainsi été illégalement espionnés – des infections confirmées par les autorités françaises – tandis que, selon les médias, le président Emmanuel Macron, le premier ministre d’alors, Edouard Philippe, et quatorze ministres faisaient partie des cibles potentielles en 2019.

Ces révélations ont marqué un véritable tournant et permis l’adoption de mesures fortes en termes de réglementation et de responsabilité. Ainsi, le ministère américain du commerce a placé NSO Group sur sa liste des entités aux cyberactivités malveillantes. Apple et WhatsApp ont tous deux intenté des poursuites contre NSO devant les tribunaux américains pour avoir ciblé leurs utilisateurs.

Par ailleurs, plusieurs enquêtes et procès ont été ouverts en Inde, au Mexique, en Pologne, en Belgique et en France, tandis que le Parlement européen a lancé une commission d’enquête sur l’utilisation de Pegasus et de logiciels espions de surveillance équivalents. Cela n’a cependant pas empêché la liste de personnes illégalement espionnées par le logiciel israélien de s’allonger depuis un an.

 

Autres développements inquiétants : selon le Citizen Lab, des outils d’espionnage d’autres entreprises seraient susceptibles d’être utilisés à des fins de surveillance illégale au regard du droit international. Dans le même temps, selon les médias, Israël ferait pression sur l’administration Biden aux Etats-Unis pour retirer NSO de la liste des entités aux cyberactivités malveillantes.

La France, pourtant directement concernée par les révélations Pegasus, est restée bien silencieuse sur le sujet. Si l’enquête ouverte en juillet 2021 vient tout juste d’être confiée à un juge d’instruction, Emmanuel Macron aurait négocié avec les autorités israéliennes l’exclusion des numéros français des cibles potentielles du logiciel espion de NSO Group. Une réponse qui ignore totalement la portée globale du scandale et des effets dévastateurs de ces technologies sur les droits humains.

Les gouvernements doivent cesser de penser que le problème est dû à une seule entité nuisible et reconnaître que les outils de réglementation actuels ne sont plus adaptés. Une culture de l’impunité propre à la surveillance numérique ciblée s’est développée et doit être combattue de toute urgence.

De nouvelles technologies pour suivre l’évolution de la consommation énergétique et son impact

De nouvelles technologies pour suivre l’évolution de la consommation énergétique et son impact

 

L’industrie manufacturière consomme 54% de l’énergie mondiale et contribue à 20% des émissions de CO2 dans le monde*. Dans ce contexte émergent toutefois de nombreuses technologies liées à l’industrie 4.0 permettant des remontées de données précieuses. Objectif ? Aider les industriels à mieux suivre précisément leur consommation d’énergie, alerter des dérives et intervenir immédiatement, mais également améliorer la gestion de leurs déchets et leur consommation d’eau tout en impliquant leurs collaborateurs. Par Gilles Pacaud, Directeur Rockwell Automation France ( dans la Tribune)
Une réflexion sur les nouveaux outils pour mieux suivre l’évolution de la consommation énergétique et son impact dans l’industrie. Mais des outils dont certains pourraient aussi être utilisés par les particuliers NDLR
 
L’impact environnemental de l’industrie est pointé du doigt. En outre, les contraintes réglementaires se renforcent, à l’exemple de la directive Ecodesign de l’Union européenne, ensemble d’exigences obligatoires visant à améliorer l’efficacité énergétique et à réduire les émissions de gaz à effet de serre.Heureusement, les nouvelles technologies permettent aujourd’hui de rendre beaucoup plus efficiente l’usine et réduire l’empreinte énergétique d’un produit, depuis sa fabrication à sa fin de vie en passant par son utilisation. Les entreprises peuvent ainsi devenir plus « compliant » et se conformer aux exigences applicables en matière de santé, de sécurité, de performance et d’environnement. Ces technologies peuvent les aider à prendre en compte, dès leur conception l’ensemble du cycle de vie des produits, y compris l’installation, l’exploitation, la maintenance et la fin de vie.Des applications d’eau intelligentes permettent par exemple d’améliorer la qualité, l’efficacité et la sécurité des entités municipales et des industries à forte consommation d’eau, à la gestion et au recyclage des déchets pour permettre l’économie circulaire, de nombreuses solutions matures sont à la disposition des entreprises. Ces technologies renforcent la supplychain en donnant à l’entreprise une visibilité et un suivi de toutes les opérations nécessaires à la fabrication d’un produit et impliquent un maximum de personnes autour de l’impact environnemental.

Grâce à la technologie de contrôle et d’automatisation, un important Institut américain de recherche sur l’eau espère transformer le drainage minier acide en une ressource capable d’alimenter la plupart des appareils et systèmes modernes actuels. Les chercheurs ont conçu et construisent actuellement une usine chargée de traiter la contamination due au drainage minier acide et de renvoyer de l’eau propre dans les rivières et les ruisseaux tout en extrayant des éléments de terres rares et des minéraux essentiels.

Un fabricant de panneaux solaires possède aujourd’hui une usine contrôlée par une architecture de type Industrie 4.0 facilitant la communication entre machines et opérateurs, l’utilisation de l’intelligence artificielle et la connectivité de l’Internet des objets (IoT) afin de produire un degré supérieur d’automatisation, de précision et d’amélioration continue.

Des applications logicielles existent également afin d’aider les clients à gérer, signaler, contrôler et optimiser la consommation d’énergie dans leurs processus de production. À partir de tableaux de bord, les utilisateurs peuvent visualiser la consommation à tous les niveaux (site, zone, ligne et machine) et identifier les domaines à optimiser. Intelligentes et évolutives, ces plateformes collectent et intègrent de manière transparente les données de gestion de l’énergie aux systèmes de production, de contrôle et d’information.

Aussi, des contrats de services de durabilité reposant sur le numérique aident les usines à réduire les déchets et à surveiller, gérer et recycler leurs actifs de production d’une manière plus responsable. Autre sujet, la remise à neuf et la réparation d’équipements usagés font l’objet de programmes d’accompagnements. L’Association for Sustainable Manufacturing estime que cette remise à neuf (ou retrofit) permet d’économiser en moyenne 85% d’énergie, de l’eau et des matériaux utilisés par rapport à un produit nouvellement fabriqué.

Naturellement, le développement durable n’inclut pas uniquement le climat et la préservation de l’environnement. Il intègre pleinement l’humain, en particulier, dans le milieu professionnel. À ce titre, l’enquête annuelle Global Voices** a récemment démontré que 85% des personnes ont connu des niveaux plus élevés d’épuisement, tandis que 40% ont signalé une baisse de l’équilibre entre vie professionnelle et vie privée. Cet équilibre et le bien-être au travail apparaissent désormais comme des priorités et des composantes essentielles du développement durable.

 

* Selon le World Economic Forum (« Net-Zero in Manufacturing Value Chains Initiative »)

** Informations complémentaires dans le Rapport 2021 sur le développement durable de Rockwell Automation

Environnement : Alerte avec de nouvelles limites franchies

Environnement : Alerte avec de nouvelles limites  franchies

Depuis le début de l’année 2022, deux nouvelles limites planétaires ont été franchies, celles de la pollution chimique et celle du cycle de l’eau. Retour sur cette notion méconnue. Par Mélanie Mignot, INSA Rouen Normandie. (

 

Au cours des derniers mois, les franchissements de deux limites planétaires ont été annoncés dans les médias à la suite de publications scientifiques. Celle des polluants chimiques, en janvier dernier, puis celle du cycle de l’eau douce, en mai. Aussi inquiétantes qu’elles soient, ces annonces n’ont pas défrayé la chronique. Peut-être en partie car cette notion reste méconnue : qu’entend-on donc par limite planétaire ?

Le concept, défini par une équipe internationale de 26 chercheurs et publié en 2009 dans les revues scientifiques Nature et Ecology and Society, entend fixer des seuils à l’échelle mondiale que l’humanité ne devrait pas dépasser afin de continuer à vivre dans des conditions favorables et préserver un écosystème sûr, autrement dit une certaine stabilité de la planète. L’Holocène est souvent utilisée comme point de comparaison car cette période qui remonte à 11 700 ans apparaît plutôt stable d’un point de vue climatique.

Le dépassement des limites planétaires pourrait entraîner des modifications brutales, non linéaires et difficilement prévisibles sur l’humain et son environnement, compromettant donc la capacité de notre planète à rester dans des conditions semblables à l’Holocène.

À l’heure actuelle, certaines limites apparaissent comme déjà franchies : à savoir le changement climatique, l’intégrité de la biosphère (biodiversité), la perturbation des cycles biochimiques de l’azote et du phosphore, les modifications de l’occupation des sols et l’introduction de nouvelles entités dans l’environnement.

Certains phénomènes n’ont pas encore atteint ce seuil alarmant – ce qui n’empêche pas que les processus soient en cours : c’est le cas de l’acidification des océans, l’appauvrissement de la couche d’ozone stratosphérique, et l’augmentation des aérosols dans l’atmosphère.

La neuvième et dernière limite, le cycle de l’eau, a fait l’objet d’une dernière étude qui apporte un nouvel éclairage en déclinant l’eau douce en eau verte et eau bleue.

Toutes ces notions relatives à l’environnement sont liées, interconnectées, les processus de régulation interagissent et la perturbation de l’un affecte la régulation et/ou la résilience des autres. Une façon très interactive et accessible de percevoir ces notions est de participer un atelier de la Fresque du Climat, un jeu crée par Cédric Ringenbach.

La première étude, publiée le 18 janvier dans la revue scientifique Environmental Science and Technology, émane de scientifiques du Stockholm Resilience Center (SRC) et présente des données relatives à la pollution chimique. Cette dernière désigne toute entité émise lors de rejets de produits chimiques d’origine industrielle et/ou domestique. Elle peut résulter par exemple de l’utilisation de pesticides, de détergents ou encore de métaux lourds. Parfois, elle est aussi engendrée lors d’accidents ponctuels (industriels, marée noire, etc.). Ces polluants en s’accumulant dans l’environnement et/ou en formant des sous-produits de dégradation peuvent présenter un risque pour la santé humaine et l’environnement.

Les plastiques bien sûr, dont l’utilisation a explosé avant une prise de conscience relativement récente, génèrent une pollution pour la faune et la flore lorsqu’ils sont relargués dans l’environnement (micro plastique et formation du « 7ᵉ continent »

Cette étude est la première évaluation publiée des limites planétaires liées aux « entités nouvelles ». Les chercheurs concluent que lla frontière a maintenant été dépassée, augmentant les risques pour la stabilité du système terrestre. Une meilleure gestion des risques, une réduction de la production et des rejets de polluants sont nécessaires, et rapidement, pour revenir dans la zone sûre.

La deuxième étude publiée dans Nature Reviews Earth & Environment le 26 avril dernier, porte sur une nouvelle évaluation réalisée par des chercheurs du Stockholm Resilience Center avec d’autres scientifiques du monde entier au sujet de l’eau verte.

Ils y mettent en lumière que l’eau douce évaluée jusqu’alors portait essentiellement sur l’eau bleue, c’est-à-dire l’eau dans les rivières, les lacs et les eaux souterraines (40 % de la masse totale des précipitations).

L’eau verte quant à elle est stockée dans le sol et la biomasse, évaporée ou absorbée et évapotranspirée par les plantes. Elle retourne directement à l’atmosphère et représente 60 % de la masse totale des précipitations.

Or les chercheurs estiment que le rôle de l’eau verte n’a pas suffisamment été pris en compte dans les précédentes études, malgré son importance capitale : elle contribue à assurer la résilience de la biosphère, préserver les puits de carbone et réguler la circulation atmosphérique.

Ainsi, si l’on s’en tient à la définition actuelle des limites planétaires, la déforestation qui détériore le fonctionnement de l’eau verte en faveur d’une disponibilité accrue d’eau bleue ne participe pas à la transgression des frontières – actuellement établies en fonction de l’eau bleue. Cette contribution de l’eau verte devrait en réalité être prise en compte.

Parmi les exemples concrets, citons la forêt qui perd de son humidité du fait du changement climatique et de la déforestation – il est de plus en plus courant de découvrir des sols anormalement humides ou secs.

Pour conserver une chance de rester dans des conditions favorables à la vie telle qu’on la connaît à l’heure actuelle, il est urgent d’agir sur l’utilisation croissante de l’eau, la déforestation, la dégradation des terres, l’érosion des sols, la pollution atmosphérique et plus globalement, le changement climatique. Le franchissement de ces limites compromet peu à peu la capacité de résilience de la Terre.

De l’espoir et surtout des actions concrètes émergent progressivement : une conscience collective qui prend forme et une éducation au respect de l’environnement dès le plus jeune âge pour enrayer la tendance. En France, des collectifs tels que le Shift Project cherchent à éclairer et influencer le débat sur la transition énergétique.

Ils produisent des rapports, animent des conférences et des ateliers, afin d’accompagner sur les enjeux climatiques et forcer à l’action, pour bâtir un autre modèle économique, décarboné et prouver scientifiquement que des alternatives existent, si l’on s’ouvre au changement.

________

Par Mélanie Mignot, Enseignante chercheuse en chimie au sein du laboratoire COBRA, INSA Rouen Normandie.

La version originale de cet article a été publiée sur The Conversation.

De nouvelles méthodes pour l’hôpital ?

De nouvelles méthodes pour l’hôpital

Pour sauver l’hôpital, il ne faut pas pérenniser des méthodes qui ont échoué.estime dans une tribune  Vincent Bénard, économiste et essayiste.(dans la Tribune)

 

Nous apprenons ces jours-ci que 120 services d’urgence, publics comme privés, font état de difficultés similaires, ou que des cliniques ne sont plus en mesure d’assurer le suivi de certains de leurs patients dans certaines spécialités comme les maternités, faute de pouvoir recruter infirmiers et médecins en nombre suffisant. Depuis quelques années, ce sont environ la moitié des hôpitaux publics qui sont en déficit. Et malheureusement, l’hôpital privé, qui en France représente 23% du personnel hospitalier mais surtout 36% des séjours de patients, est à peine moins mal loti, un tiers des établissements ayant connu au moins un exercice déficitaire depuis trois ans.

Les explications mettent le plus souvent l’accent sur les suites de la pandémie : épuisement des personnels et renvoi d’une proportion faible, mais difficile à remplacer, de soignants non vaccinés. Mais si cette crise a sûrement contribué à exacerber ces difficultés, celles-ci sont bien antérieures. En 2018, l’on constatait une même proportion d’établissements déficitaires dans l’intervalle 2012-2016. La pandémie n’explique pas tout.

La santé n’est pas différente des autres secteurs de l’économie. Comme tout contrôle de prix, la T2A  (« tarification à l’acte », modèle de financement en vigueur pour les établissements de santé) y génère des pénuries : pénuries de recrutement de médecins et d’infirmiers, se traduisant par des files d’attente de plus en plus longues pour les patients, et incapacité de rémunérer les professionnels de santé au niveau espéré après de longues études. Les infirmiers français touchent en moyenne 26% de moins qu’outre-Rhin, et les médecins hospitaliers 40%.

L’assurance maladie annonce régulièrement une « trajectoire pluriannuelle » d’évolution de la T2A. Mais voilà que l’inflation, grande absente des deux dernières décennies, effectue un retour surprenant et violent, prenant de court les décideurs publics. Les dépenses courantes de l’hôpital devraient augmenter 2,5% plus vite que la T2A au minimum en 2022, certains postes de dépense comme l’énergie voyant leur flambée dépasser les 30%.

Les hôpitaux, qui ont déjà vu les tarifs de la T2A décrocher d’environ 6% de l’inflation lors de la dernière décennie, craignent une aggravation de cette perte, et demandent que l’État s’engage sur une correction de la trajectoire prévue de la T2A pour y réintégrer l’inflation réelle. Sans quoi, ils devront rogner soit sur leurs investissements, soit sur leurs recrutements, pourtant déjà insuffisants pour maintenir leur qualité de service.

À très court terme, cette demande est légitime, pour éviter en urgence une catastrophe financière et médicale. Mais dans une perspective plus lointaine, ne faudrait-il pas en finir avec ce régime de contrôle des prix, qui contraint les acteurs de la santé à mendier des faveurs tarifaires à une assurance maladie peu encline à y céder, du fait de sa situation financière elle-même fort dégradée ?

C’est tout le système de financement de la santé qu’il faut réformer, en réintroduisant une vraie liberté des prix, mais avec une vraie transparence permettant aux malades, et surtout à leurs assureurs et mutuelles, d’opérer une mise en concurrence des établissements et des praticiens. Pour compenser l’inévitable hausse du prix de certains actes médicaux, des économies seront à rechercher par la « débureaucratisation » du système de santé.

La liberté tarifaire des hôpitaux fait souvent peur, car les Français ont en tête les problèmes du système de santé américain, où les soins sont prohibitifs et la couverture maladie des classes moyennes incomplète. Mais plus près de nous, les Suisses, les Néerlandais et, dans une moindre mesure, les Allemands ont réussi à mettre en place des formules « raisonnablement libérales », où la couverture des patients est excellente, et où l’assurance maladie privée concurrence au premier euro celle fournie par la puissance publique. L’assureur négocie les tarifs hospitaliers dans le cadre d’une mise en concurrence des établissements, permettant à ceux-ci de facturer un prix leur garantissant d’être profitables, mais sans excès, puisque la concurrence n’est jamais loin. Mieux encore, en pourcentage du PIB, la santé dans ces pays n’est pas plus chère que la nôtre, aux environs de 11%. Et les personnels de santé y sont non seulement mieux rémunérés, nous l’avons vu, mais leurs conditions de travail y sont meilleures, car les hôpitaux y ont intérêt pour pouvoir conserver des effectifs médicaux stables.

Malheureusement, l’idée d’une « grande sécu », synonyme de plus de centralisme, de bureaucratie et de contrôle des prix, semblait mieux vue qu’une évolution plus libérale dans les cercles du pouvoir, avant les élections. Mais on ne vaincra pas les problèmes du système de santé en lui infligeant toujours plus de ce qui a échoué. Puisse l’accumulation actuelle de couacs hospitaliers provoquer une révolution intellectuelle d’inspiration plus libérale chez nos dirigeants !

Vincent Bénard

Nouvelles technologies : Métavers : espérance autant qu’illusion

Nouvelles technologies : Métavers : espérance autant qu’illusion

Une passion triste, tel est le sens de l’utopie développée par le projet métavers, estiment, dans une tribune au « Monde », la philosophe Valérie Julien Grésin et Alexandre Menais, vice-président d’Atos.

Dans son livre Le Jeu vidéo ou l’Aliénation heureuse (Post Editions, 2019), Douglas Hoare décrit avec minutie le processus de dépersonnalisation auquel s’exposent les joueurs : « Plus l’avatar est libre, plus le joueur est esclave. En jouant à un jeu vidéo, on échange une soumission réelle contre une liberté simulée. »

Plus ambitieux que le jeu vidéo (qui compte plus de 2,7 milliards de joueurs), plus constant, plus sérieux, un nouveau monde d’avatars se conquiert dans l’espace numérique, dont le nom, hérité du roman de science-fiction Le Samouraï virtuel [paru aux Etats-Unis en 1992, en France en 1996], de Neal Stephenson, le métavers, donne le « la ».

Le métavers, « au-delà de l’univers », porte l’ambition de faire converger les technologies du numérique existantes ou en cours de développement, pour créer un monde virtuel, persistant, interactif, interconnecté et immersif, soutenu par une volonté d’interopérabilité entre les plates-formes dans la portabilité des données.

Si le métavers n’est pas nouveau, ce qui l’est, en revanche, c’est la valorisation de tout ce que l’on peut y trouver, grâce à la blockchain et aux NFT [pour « non fungible token », « jetons non ­fongibles », des certificats numériques qui authentifient le caractère unique d’objets virtuels, comme des œuvres d’art]. En effet, le marché du métavers représente une fusion de trois technologies existantes, dont les capacités sont évolutives : les plates-formes rendues possibles par une capacité de calcul et une connectivité accrues ; puis la réalité augmentée – réalité virtuelle, réalité mixte ; et enfin les actifs numériques et Web3 activés par la blockchain.

Bien qu’il soit encore trop tôt pour dire exactement quelles technologies ou quelles plates-formes domineront, les grands acteurs des technologies ont pourtant déjà déterminé comment ils comptaient participer à l’écosystème du métavers – en achetant, comme Republic Realm, un terrain sur The Sandbox pour 4,3 millions de dollars (environ 4,07 milliards d’euros). Mais, plus encore, plusieurs grandes marques dans le commerce B to C (business to consumer, de l’entreprise au consommateur, comme les marques Gucci, H&M, etc.) ou B to B (business to business, commerce entre les entreprises) se sont lancées dans ce nouvel eldorado (Microsoft, avec le rachat pour 69 milliards d’Activision).

Société: Protéger les cerveaux des nouvelles technologies

 

Société: Protéger les cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Carburant : de nouvelles hausses à attendre du fait de la guerre en Ukraine

 

 

Carburant : de nouvelles hausses à attendre du fait du pétrole russe

Suite aux sanctions envisagé par l’union Européenne vis-à-vis du pétrole russe, il faut s’attendre à de nouvelles augmentations significatives du carburant d’après Olivier Gantois, président de l’Ufip Énergies et Mobilités, ex-Union française des industries pétrolières.

 

 

La Russie, plus gros exportateur au monde de pétrole, produit quelque 11 millions de barils par jour de brut, dont un peu plus de 5 millions sont exportés. Mais le pays exporte aussi 1,5 million de barils par jour de gazole, dont l’Europe et notamment la France .

La Russie représente ainsi 10 à 12% des importations françaises de pétrole brut et 20 à 25% des importations de gazole en France, selon l’Ufip.

L’Hexagone peut toutefois très bien se fournir ailleurs. « Il existe déjà en temps normal des alternatives qui sont essentiellement pour le pétrole brut le Moyen-Orient et l’Amérique du nord », a expliqué Olivier Gantois. Pour le gazole, s’ajoute à ces deux régions « l’Inde, qui est un gros producteur ».

 

Le président de l’Ufip prédit « un jeu de vases communicants dans lequel le pétrole russe exporté va être détourné vers des pays qui n’ont pas décidé d’embargo, notamment la Chine, l’Inde, la plupart des pays africains, les pays d’Amérique du sud… ce qui libérera des barils non russes achetés normalement par ces pays ».

 

Toutefois, cela aura un prix. « Le schéma d’approvisionnement actuel est un schéma optimisé, dans lequel on fait venir en France les barils qui sont les plus intéressants économiquement. Dès lors qu’on s’écarte de ce schéma, on peut partir sur le principe que ça va coûter plus cher », a mis en garde Olivier Gantois. En clair on pourrait s’orienter vers des hausses pouvant conduire jusqu’à des prix de deux euros le litre de carburant

 

Numérique, pensée et discours

Numérique, pensée et discours 

par David Lacombled est président de la Villa numéris.

 

 

L’oral précède l’écrit. Tel un fleuve, il permet d’irriguer tous les canaux de communication que le numérique a démultiplié. Désormais, les discours se regardent aussi en télévision ou sur des chaînes YouTube, en direct ou en replay. Saucissonnée en punchlines, la parole se retrouve servie à l’envie sur les réseaux sociaux ou les messageries instantanées. Telle une cuisine de restes, rien ne doit se perdre.

Au-delà, la parole agit sans doute comme une des meilleures thérapies de groupe. A condition qu’elle ne soit pas uniquement descendante et que chacun puisse s’exprimer ou pour le moins être représenté. C’était l’intuition du président de la République quand il a initié le Grand débat national pour contribuer à mettre un terme à la crise des Gilets jaunes. Les Français ont besoin de s’exprimer et d’être écoutés. Et cette parole ne saurait être contenue dans le seul geste de déposer un bulletin dans une urne.

Il s’agit d’inventer de nouvelles agoras pour que chacun puisse s’y exprimer selon des méthodes d’intelligence collective qui ont fait leur preuve pour aboutir à des consensus

C’est tout le défi qui se présente aux décideurs publics pour renouer les fils distendus entre les citoyens eux-mêmes, d’une Nation qui ne s’aime plus, pour se parler, s’écouter, s’apprécier. Ce devra être le prélude à l’écriture d’un nouveau destin commun. Dans un monde où globalement tout va mieux, chaque injustice ou déclassement devient insupportable. Les réseaux sociaux en particulier, par leur effet de masse et d’entraînement, par leur réactivité et leur proximité – le téléphone sur le cœur, convoquent les émotions avant la raison. En cela l’esprit critique doit être encouragé. Par chance, la France a hérité de celui des Lumières.

Hâbleurs, aussi parfois, les Français ont besoin de se raconter. Le succès de la série «En thérapie» sur Arte leur offre le miroir d’eux-mêmes en quelque sorte. Ses audiences en témoignent. Plus d’un million de téléspectateurs se rassemblent devant le canapé du Docteur Philippe Dayan, acteur permanent du programme diffusé en linéaire sur la chaîne de télévision le jeudi soir. Les épisodes de la saison 2, intégralement diffusés en ligne, ont déjà été vus plus de 20 millions de fois en un mois. Comme quoi le « binge-watching », qui consiste à avaler les épisodes d’une série sans s’arrêter, n’est pas réservé au seul Netflix. La parole y convoque les faits de société. Exprimée – libérée, pour reprendre un vocable plus militant – elle guérit.

Que les Français donnent de la voix est une bonne nouvelle pour notre avenir. Si le comptoir des cafés a longtemps été le parlement du peuple, pour faire référence à Honoré de Balzac, force est de constater que beaucoup de communes se sont éteintes au fur et à mesure que leurs commerces les plus essentiels disparaissaient et que les liaisons ferroviaires se faisaient plus rares. Il s’agit d’inventer de nouvelles agoras pour que chacun puisse s’y exprimer selon des méthodes d’intelligence collective qui ont fait leur preuve pour aboutir à des consensus. Sans cela, l’opinion, chauffée à blanc par quelques irresponsables, ne pourra qu’être éruptive.

David Lacombled est président de la Villa numéris.

Protéger nos cerveaux des nouvelles technologies

Protéger nos cerveaux des nouvelles technologies

Pour la première fois, la Constitution d’un pays, le Chili, instaure des « neurodroits », destinés à protéger les cerveaux humains des dérives de la technologie. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.( la « Tribune »)

Pas sûr qu’Elon Musk soit le bienvenu à Santiago. L’emblématique patron de Tesla, et depuis peu de Twitter, est également le créateur de la société Neuralink(1) qui a pour objet d’élaborer une connexion directe entre le cerveau de l’Homme et des ordinateurs, et cela, grâce à des implants placés dans le cortex. D’abord à usage médical, pour soigner des troubles neurologiques graves, Elon Musk ne cache pas qu’il a également pour ambition d’implanter des puces dans des cerveaux humains afin de doter l’organisme d’un supplément de capacités digne d’un ordinateur.

Connecteriez-vous votre cerveau ?

Pour l’heure, seule la truie Gertrude(2) eut « l’honneur » d’expérimenter cette interface cerveau-machine (ICM), digne d’un passable ouvrage de science-fiction. Grâce à la puce de 8 millimètres insérée dans son cerveau, les scientifiques ont pu observer l’activité neuronale de l’animal selon que Gertrude se nourrissait, se déplaçait ou encore dormait. Fort de ces premiers essais pratiqués sur des cobayes animaux, le fondateur de Neuralink rêve déjà à l’étape suivante : obtenir les autorisations pour implanter des puces dans les cerveaux d’humains volontaires. Une fois ceci réalisé, ceux-ci pourraient alors « utiliser un smartphone avec leur esprit plus rapidement qu’avec leurs pouces(3) ». Nul besoin de préciser que les conséquences de cette idée de connexion « Hommes-machines » percutent nos convictions éthiques, philosophiques et morales les plus profondes, à commencer par le simple énoncé de ces quelques questions de bon sens : à qui appartiendront les données issues de nos cerveaux, de nos pensées, voire de nos rêves ? A quelles fins pourraient-être utilisées ces technologies ? Et puis, quelles nouvelles inégalités pourraient-elles créer ? Abyssales interrogations…

Modification de l’article 19 de la Constitution du Chili

C’est dans ce contexte, où la techno-réalité dépasse la science-fiction, que l’ex-président de la République chilienne, Sebastian Piñera (les récentes élections de mars 2022 l’ont, depuis, démis de ses fonctions) prit l’initiative de proposer et faire voter une loi, puis de modifier la Constitution de son pays en légiférant sur les «neurodroits» (neuroderechos) ou droits du cerveau. La modification constitutionnelle fut promulguée le 14 octobre dernier et l’ajout d’un nouvel alinéa de quelques lignes à l’article 19(4) suffit à faire du Chili le pionnier dans la protection des « droits du cerveau » en inscrivant que « le développement scientifique et technologique est au service des personnes et doit se faire dans le respect de la vie et de l’intégrité physique et mentale. La loi réglemente les exigences, les conditions et les restrictions de son utilisation chez les personnes, et doit notamment protéger l’activité cérébrale, ainsi que les informations qui en proviennent(5)».

Se prémunir contre le « brain hacking »

Dans ses travaux préparatoires, le Sénat chilien détailla ce qu’il faut entendre par « neurodroits inaliénables ». En l’occurrence, il s’est employé à établir et détailler trois conditions de préservation des individus qui auraient été soumis à un éventuel « piratage de cerveau » (brain hacking) dès lors qu’une machine aurait été connectée, consciemment ou pas, à leurs cerveaux : 1/ affirmer la préservation des données de l’esprit humain afin d’éviter leur trafic, 2/ encadrer le rôle des « neuroalgorithmes » et 3/ limiter les capacités d’écriture dans le cerveau(6). On croirait lire le script du film du réalisateur Christopher Nolan, « Inception », qui met en scène la capacité à lire dans les rêves et à graver des idées dans le cerveau de personnes.

Cerveau connecté : mythe ou réalité ?

Face à Elon Musk qui n’hésite pas à surenchérir en proclamant que nous serions proches d’une sorte de singularité couplant Hommes et machines, il faut se méfier des annonces tonitruantes promptes, d’une part, à faire naître des attentes démesurées chez des patients atteints de pathologies neurologiques et, d’autre part, d’entretenir le mythe d’une machine connectée à notre cerveau capable de sonder notre tréfonds cérébral. La lecture de la littérature scientifique sur ce sujet remet quelque peu les pendules à l’heure(7).

En 2014, des scientifiques européens publièrent une lettre ouverte(8) à l’Union européenne demandant une réorientation urgente du projet « Human Brain Project(9) » qui vise, d’ici à 2024, à simuler le fonctionnement du cerveau humain grâce à un superordinateur qui fournirait des informations capables d’aider à développer de nouvelles thérapies médicales pour soigner les maladies neurologiques. Pour ces scientifiques, il faudra bien plus qu’une machine, aussi puissante soit elle, pour simuler le comportement d’un cerveau entier. Rien que pour le cortex (la partie supérieure du cerveau), ce sont des milliards de neurones, pouvant chacun se connecter à 10.000 autres par le biais de quatre à dix messages chimiques différents. Et, en plus du cortex, il faut ajouter les autres zones du cerveau (cervelet, système limbique…) qui, elles aussi, interagissent les unes avec les autres. Cette lettre ouverte des scientifiques porta ses fruits puisque le projet « Human Brain Project » fut remodelé et l’utopie d’un futur humain connecté passa au second plan au profit de la recherche neurologique.

Éthique des neurotechnologies

En Europe, aux Etats-Unis ou en Asie, de nombreux programmes de recherche en neurosciences sont en cours et drainent des budgets très importants. Du fait de leurs objets qui, parfois, frisent avec la manipulation mentale et la prise de contrôle du cerveau, la seule limite à se fixer est celle de l’éthique.

Pour l’heure, il n’existe pas (encore) de charte mondiale que les Etats s’engageraient à respecter, à l’instar de nombreux traités internationaux sur la non-prolifération d’armes nucléaires.

Les futures grandes règles éthiques à respecter sont néanmoins connues : d’abord, la confidentialité et le consentement des données collectées. Ensuite, la préservation de l’identité et, en cela, la non-altération de notre capacité à choisir nos actions (ce principe renvoi à l’idée que des implants neuronaux pourraient influencer nos effets cognitifs, émotionnels, voire notre personnalité même).

Et enfin, la maîtrise du domaine problématique de l’augmentation cognitive. Ici, il s’agirait de borner ce que les neurotechnologies pourraient apporter en matière d’amélioration des performances cognitives afin d’aboutir à cet humain artificiellement « augmenté ».

Autant de garde-fous éminemment éthiques destinés à éviter qu’un docteur Folamour n’ouvre un jour la boîte de Pandore et qu’un « neuro-charlatanisme » ne devienne la norme. Si tel était le cas, il ne nous resterait alors qu’à traverser l’Atlantique, direction Santiago.

 

 

___
NOTES

1 https://neuralink.com/

2 https://siecledigital.fr/2020/09/02/neuralink-teste-son-implant-neuronal-sur-des-porcs/

3 https://medium.com/geekculture/how-elon-musks-neuralink-could-disrupt-the-smartphone-industry-1b18d4a583d2

4 https://www.senado.cl/proteccion-de-los-neuroderechos-a-un-paso-de-pasar-a-segundo-tramite

5https://www.bcn.cl/leychile/navegar?idNorma=1166983&idParte=10278855&idVersion=2021-10-25

6 Bruno Patino Tempête dans le bocal, Ed Grasset 2022

7 A lire : Les nouvelles frontières du cerveau, Hors Série Le Point

8 https://www.science.org/content/article/updated-european-neuroscientists-revolt-against-eus-human-brain-project

9 https://www.humanbrainproject.eu/en/

Crise démocratique française : La même qu’en Afrique ?

 Crise démocratique française : La même qu’en Afrique ?

Pour le journaliste béninois Francis Laloupo, « nous sommes entrés dans le cycle des revanches ».( « Le Monde »)

L’euphorie qui a accompagné les transitions démocratiques en Afrique a vécu. La mauvaise gouvernance, les crises économiques, les coups d’Etat militaires et constitutionnels ont mis à mal les fragiles édifices politiques nés il y a trente ans dans la foulée des conférences nationales. Sur le continent comme en Occident, les populismes prospèrent.

Mais, souligne Francis Laloupo, journaliste béninois, enseignant et auteur de Blues démocratique, Afrique 1990-2020 (éd. Karthala), ce malaise se nourrit aussi des crises qui touchent les vieilles démocraties. Un phénomène d’autant plus prégnant que les autocraties russes et chinoises ont, dans leurs échanges avec l’Afrique, également exporté leur modèle politique.

Pour la troisième fois en vingt ans, l’extrême droite se retrouve au second tour de l’élection présidentielle en France. Comment cette montée en puissance est-elle perçue en Afrique francophone ?

Francis Laloupo Les démocraties africaines émergentes ne peuvent que constater la fragilité des démocraties anciennes. La prise du Capitole par les partisans de Donald Trump en a été un bon exemple. La présence de Marine Le Pen au deuxième tour en est un autre. Mais, si le processus n’est jamais complètement achevé, la démocratie a montré qu’elle était aussi un système capable de dépasser les épreuves. Aux Etats-Unis comme en Europe, elle tient malgré les assauts des partis d’extrême droite. Les gens continuent de voter même si l’abstention reste forte.

Néanmoins, cette flambée populiste qui balaie le monde, des Etats-Unis au Brésil en passant par l’Europe, résonne aussi en Afrique. On s’inquiète pour les diasporas confrontées aux discours racistes, en France notamment. Mais il y a aussi, sur le continent, une fascination trouble à l’égard des discours d’extrême droite qui a tendance à renforcer les populismes émergents. On peut se dire que, puisque les Français se défendent contre l’étranger, nous, Africains, sommes également fondés à le faire, en particulier contre la France. Nous sommes entrés dans le cycle des revanches. Le repli sur soi que promeuvent les lepénistes et des zemmouriens légitiment le positionnement nationaliste des autorités maliennes actuelles et leur discours anti-français.

Sciences: nouvelles cathédrales ?

Sciences: nouvelles  cathédrales ?

Dans une tribune au « Monde »,  Stéphane Van Damme , (Professeur d’histoire des sciences à l’Ecole normale supérieure (Paris), retrace l’évolution des infrastructures de recherche, jadis promesses de modernisation infinie, aujourd’hui outils incontournables d’une géopolitique de la science.

Un hymne à la science internationale, nouvelles cathédrales,  un peu coloré de corporatisme NDLR

Tribune  

Dans quelles mesures les infrastructures scientifiques sont-elles un des piliers de la politique de recherche ? A l’occasion du 20e anniversaire du Forum stratégique européen sur les infrastructures de recherche (Esfri), un colloque organisé à l’Académie des sciences, à Paris, le 25 mars, a rappelé les réalisations concrètes de la recherche européenne dans ce domaine, du synchrotron de l’ESRF à Grenoble utilisé en archéologie et en paléontologie à la spectroscopie de la source de spallation européenne (ESS) en construction à Lund (Suède), en passant par l’European Social Survey en sciences sociales.

Cet anniversaire nous invite à revenir sur le champ des infrastructure studies qui s’est affirmé depuis la fin des années 1990. On doit à Geoffrey C. Bowker et Susan Leigh Star d’avoir reconceptualisé la notion d’infrastructure pour montrer qu’elle recoupe aussi bien des réalités physiques et matérielles comme des équipements, des instruments que des concepts et des normes qui visent à classer et hiérarchiser les flux d’informations. En insistant sur les pratiques de coopération et de coordination de l’activité scientifique, les infrastructures matérialisent une dimension relationnelle des sciences.

Certes, la notion d’infrastructure n’est pas nouvelle puisqu’elle apparaît dans le vocabulaire scientifique de l’ingénieur comme dans le lexique philosophique avec Marx dès le XIXe siècle. Au XXe siècle, elle sera associée aux champs de l’économie et de la planification. Elle est souvent considérée comme impure, partagée entre le monde de la recherche et le monde des décideurs publics et du management.

Pour les historiens des sciences, les infrastructures posent une double difficulté : elles sont célébrées dans des grands discours qui lissent les difficultés à imposer ces projets, les anomalies, voire les défaillances ; elles sont le plus souvent perçues comme invisibles dans le temps ordinaire de la recherche. Sociologues et historiens ont ainsi bien mis en évidence ce paradoxe des infrastructures oscillant entre l’imaginaire du « sublime » et de la grandeur et les représentations d’infrastructures en ruine.

Dans les années 2000, le terme « infrastructure » va resurgir de manière massive dans le vocabulaire étatique, accolé aux adjectifs « vitale » ou « critique »

Sur une perspective longue, ces études opposent l’émergence, dans le sillage de la révolution scientifique, d’une révolution de l’organisation des sciences à l’absence d’une logique toujours fonctionnelle qui présidait à leur création. C’est l’époque où se multiplient aussi les petites technologies intellectuelles qu’ont en commun les sciences et les premières bureaucraties : des fiches de papier aux listes. Des grandes cathédrales des sciences du XIXe siècle aux équipements géants de la big science des années 1950, elles sont désormais associées à une nouvelle économie de la promesse, indicateurs de prospérité et d’efficacité. C’est le moment d’émergence des grands systèmes techniques qui annoncent une modernisation infinie.

 

Le Pen: Le soutien de nouvelles couches sociales

 

 Le Pen: Le soutien de nouvelles couches sociales

 

La candidature d’Eric Zemmour n’a pas constitué un handicap insurmontable pour la tête de liste du Rassemblement national, qui a progressé de près de deux points par rapport à son score de 2017, analyse le politiste Florent Gougou, dans une tribune au « Monde »

 

Tribune.

 

 Ce n’est plus une surprise. Pour la deuxième fois consécutive, Marine Le Pen participera au second tour de l’élection présidentielle. Pour la troisième fois sur les cinq dernières présidentielles, la droite radicale [terme consacré dans le champ des sciences sociales] sera en situation d’accéder à l’Elysée. Le 21 avril 2002, la sidération dominait. Le 23 avril 2017, la banalité se profilait. Le 10 avril 2022, l’ordinaire s’est imposé.

Les contours d’un nouveau monde politique se dessinent. Pour la deuxième fois consécutive, Marine Le Pen retrouvera Emmanuel Macron au second tour. L’opposition entre « mondialistes » et « nationaux », pour reprendre les termes de la candidate du Rassemblement national (RN), entre « progressistes » et « nationalistes », pour reprendre les termes du président de la République sortant, semble être devenue la principale ligne d’affrontement dans la vie politique française au niveau national. Imposer ce nouveau dualisme était un objectif assumé (et partagé) par les deux protagonistes depuis 2017. Les résultats du premier tour ont brutalement rappelé aux forces de gauche, une nouvelle fois écartées du second tour, qu’ils sont en passe d’y parvenir.

Avec plus de 23 % des suffrages, Marine Le Pen réalise la meilleure performance d’une candidature de droite radicale à l’élection présidentielle, progressant de près de 2 points par rapport à son score de 2017. Surtout, en ajoutant les quelque 7 % rassemblés par Eric Zemmour (Reconquête !), les forces de droite radicale franchissent les 30 %, seuil qu’elles n’avaient jamais atteint en France, tous types de scrutins confondus. Le premier tour de la présidentielle de 2022 constitue un nouveau point haut dans la dynamique ouverte depuis les européennes de 2014, quand les listes Front national avaient, pour la première fois, dépassé la barre des 20 %.

La dynamique de la droite radicale s’appuie sur trois mouvements principaux, qui indiquent une forme de complémentarité entre la candidature de Marine Le Pen et celle d’Eric Zemmour. Premier mouvement, l’accentuation de la domination de Marine Le Pen dans ses fiefs ouvriers situés dans le nord et dans l’est du pays. En 2017, l’Aisne, le Pas-de-Calais et la Haute-Marne étaient les trois départements les plus favorables à Marine Le Pen ; en 2022, elle progresse encore dans ces départements pour atteindre respectivement 39,3 % (+ 3,6 points), 38,7 % (+ 4,4) et 36,6 % (+ 3,4). Deuxième mouvement, des transferts significatifs de la fraction rurale de l’électorat Fillon de 2017, notamment dans l’ouest du pays. Dans la Sarthe, en Mayenne et en Vendée, où François Fillon avait systématiquement obtenu plus de 25 % en 2017 et où Valérie Pécresse s’effondre autour de 5 %, Marine Le Pen progresse respectivement de 6,9 points (27,7 %), de 5,5 points (22,4 %) et de 4,7 points (23,2 %), tandis qu’Eric Zemmour y obtient entre 5 et 6 %. Troisième mouvement, l’attraction Zemmour au sein de la fraction aisée de la droite classique. La dynamique est particulièrement évidente dans le 16e arrondissement de Paris, où le candidat de Reconquête ! obtient 17,5 %, alors que Marine Le Pen y reste marginalisée à 5,8 %.

 

Nucléaire : 7 nouvelles centrales au Royaume-Uni

Nucléaire : 7 nouvelles centrales au Royaume-Uni

La guerre en Ukraine aura au moins convaincu d’accélérer la transition énergétique afin d’assurer une plus grande indépendance de l’Europe. Ainsi la France a déjà décidé de construire six nouvelles centrales nucléaires et d’en étudier la construction de huit autres.
Aujourd’hui disposer d’électricité d’origine nucléaire constitue un atout indispensable d’indépendance économique. A contrario, on peut voir que l’Allemagne est complètement engluée dans ses relations avec la Russie via le gaz.

Le Royaume-Uni pourrait construire jusqu’à sept centrales nucléaires d’ici 2050 tout en misant sur l’éolien en mer dans le cadre d’une nouvelle stratégie pour accroître son indépendance énergétique après l’invasion russe de l’Ukraine, a indiqué dimanche le ministre de l’Énergie.

«L’idée est que, vu ce que (le président russe Vladimir) Poutine est en train de faire, nous ne voulons pas vivre dans un monde où nous dépendons des hydrocarbures russes», a déclaré Kwasi Kwarteng dans le Sunday Telegraph, soulignant que «l’éolien en mer, et surtout le nucléaire» étaient «des moyens d’avoir des capacités de génération électrique au Royaume-Uni».

Selon le journal, après d’intenses discussions en son sein, le gouvernement du premier ministre conservateur Boris Johnson doit présenter jeudi sa stratégie pour réduire la dépendance énergétique du Royaume-Uni et atteindre l’objectif de zéro émission nette d’ici 2050. «

Poutine : De nouvelles menaces vis-à-vis de l’Europe

Poutine : De nouvelles menaces vis-à-vis de l’Europe

 

Vladimir Poutine menace l’Europe affirmant que les sanctions imposées à son pays s’apparentaient « à une déclaration de guerre ».

Sans doute contrarié par la lenteur de l’invasion russe en Ukraine, Poutine multiplie les menaces y compris contre l’Europe. Poutine a déclaré qu’il parviendrait à atteindre ses objectifs soit par la guerre ,soit par la négociation. En clair il conteste le statut d’État à l’Ukraine.

En même temps il menace les pays européens qui apporteraient un soutien trop significatif à Kiev.

Les états voisins de l’Ukraine sont particulièrement inquiet de l’évolution du conflit.

Après la Pologne, Blinken en Moldavie. Le secrétaire d’État américain Antony Blinken est arrivé samedi en Moldavie pour montrer le soutien des États-Unis à ce pays submergé par une vague de réfugiés en provenance d’Ukraine et qui craint de tomber sous la menace Moscou.

Pékin a appelé de son côté à des négociations directes entre la Russie et l’Ukraine lors d’un entretien téléphonique samedi entre le ministre chinois des Affaires étrangères Wang Yi et son homologue américain Antony Blinken, selon un communiqué officiel chinois.

Les forces russes se rapprochent de Kiev, rencontrant une tenace résistance et bombardant parfois des immeubles d’habitation, notamment à Tcherniguiv, à 150 km au nord de la capitale, où des dizaines de civils ont été tués ces derniers jours.

. L’armée russe continue de pilonner les alentours de Kiev, au nord-ouest et à l’est notamment.

 

Entourage de Sarkozy : nouvelles condamnations notamment de Guéant

Entourage de Sarkozy : nouvelles condamnations notamment de Guéant

 

Un vent juridique mauvais souffle toujours autour de Sarkozy et de son entourage. Sarkozy doit toujours rendre compte de plusieurs inculpations dans différentes affaires. Son entourage est lui aussi visé par la justice en particulier l’ancien ministre de l’intérieur Claude Guéant actuellement en prison.

Un  tribunal a encore condamné Claude Guéant à un an d’emprisonnement dont quatre mois avec sursis, assorti d’un mandat de dépôt, dans le procès des sondages de l’Élysée. Dans cette affaire, le tribunal a jugé que les millions d’euros en conseil politique et sondages facturés à l’Élysée entre 2007 et 2012 par les sociétés de Patrick Buisson et Pierre Giacometti, ainsi que par l’Institut Ipsos, avaient bien fait l’objet de favoritisme. Deux contrats signés par Patrick Buisson constituent en outre bien un détournement de fonds publics à hauteur de 1,4 million d’euros, a expliqué le président Benjamin Blanchet.

Quatre autres anciens conseillers ou collaborateurs de Nicolas Sarkozy, soupçonnés de favoritisme, recel de favoritisme et détournement de fonds publics, comparaissaient à ce procès. Le tribunal a décidé de condamner Patrick Buisson, absent également pour le rendu du verdict, à deux ans d’emprisonnement avec sursis, ainsi qu’à une amende de 150.000 €. Patrick Buisson a été condamné pour détournement de fonds publics et abus de biens sociaux au préjudice de ses sociétés. Sa peine est assortie d’une interdiction de diriger ou de gérer une entreprise commerciale pendant dix ans.

L’ex-sondeur Pierre Giacometti a quant à lui été condamné à six mois de prison avec sursis ainsi qu’à 70.000 € d’amende. Enfin, l’ancienne directrice de cabinet de Nicolas Sarkozy à l’Élysée, Emmanuelle Mignon, a été condamnée à six mois de prison avec sursis, une peine bien plus lourde que les 10.000 euros d’amende requis

12345...9



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol