Archive pour le Tag 'danger'

Covid: Le danger d’une nouvelle vague

Covid: Le danger d’une nouvelle vague

Encore 50 000 contamination supplémentaire en 24 heures hier 16 juin 2022 et une moyenne journalière qui tourne autour de 30 000 de toute évidence la pandémie est encore loin d’être terminée. Pire, une nouvelle vague assez forte pourrait intervenir au début de l’automne car la plupart des indicateurs sont déjà à la hausse.

 

Le taux de positivité, soit la proportion des tests qui sont positifs parmi l’ensemble des tests, est aussi en hausse. Au 12 juin, il était à 18,33%, souligne Covid-Tracker. Tandis que du côté des hopitaux, on recensait ce mercredi en moyenne 55 admissions en soins critiques pour Covid-19 chaque jour, en hausse de 22% en une semaine.

D’après France Info,pour  le moment, pas de saturation, mais les médecins alertent sur le risque d’une nouvelle vague à l‘automne. « La courbe épidémique est exponentielle en France, cela ressemble à une nouvelle vague qui a l’air d’être menée par ces nouveaux variants BA.4 et BA.5 d’Omicron. La vague va concerner toutes les régions de France métropolitaine », alerte auprès de nos confrères de France info Antoine Flahault, épidémiologiste.

« Le véritable risque, c’est de tomber dans une espèce de complaisance, qu’en fin de compte on passe le cap de l’été et qu’on se retrouve rattrapés par une vague automnale. Il faut donc anticiper et ça, c’est inédit », prévient Benjamin Davido, infectiologue à l’hôpital Raymond-Poincaré de Garches.

 

Sondage législatives : la majorité absolue en danger pour Macron

Sondage législatives : la majorité absolue en danger pour Macron

 

Selon un nouveau sondage réalisé par Elabe pour BFMTV, l’Express , la coalition Ensemble (Renaissance, le MoDem, Horizons et Agir) n’est pas assurée de parvenir à remporter la majorité absolue à l’Assemblée nationale

.

Ensemble pourrait en effet obtenir entre 255 et 295 sièges, ce qui représenterait entre 55 et 95 sièges de moins qu’en 2017. En cause, la Nouvelle union populaire écologique et sociale (Nupes, composée de la France Insoumise, Europe Ecologie Les Verts, du Parti socialiste et du Parti communiste) qui parviendrait à obtenir entre 150 et 200 sièges, soit entre 77 et 127 de plus qu’en 2017.

Les Républicains et l’UDI, eux, n’obtiendraient qu’entre 55 et 75 sièges, ce qui représente 61 à 81 sièges de moins par rapport à 2017. Quant au Rassemblement National, il progresse en nombre de sièges par rapport à 2017, puisqu’il pourrait dégoter entre 30 et 50 sièges, ce qui représenterait 22 à 42 sièges supplémentaires par rapport à il y a cinq ans.

Par ailleurs, la projection du taux de participation se situe entre 44 et 47% des Français pour le second tour du scrutin, puisque 47% des sondés inscrits sur les listes électorales se disent « tout à fait certains d’aller voter », et 11% l’envisagent sérieusement. Pour rappel au premier tour, la projection du niveau de participation était également située entre 44 et 47%. Au final, le taux de participation à l’échelle nationale s’est élevé à 52,49%: soit une abstention record pour un premier tour.

Lélislatives: Le danger des trois blocs (Piketti)

Lélislatives: Le danger des trois blocs (Piketti)

 

 

L’économiste explique, dans sa chronique au « Monde », pourquoi la partition de l’espace politique en trois blocs – social-écologique, libéral et nationaliste – est un danger pour la démocratie.

tribune 

Est-il possible de sortir de la démocratie en trois tiers et de reconstruire un clivage gauche-droite centré sur les questions de redistribution et d’inégalité sociale, en France et plus généralement à l’échelle européenne et internationale ? Tel est l’enjeu central des élections législatives en cours.

Rappelons d’abord les contours de la démocratie en trois tiers, telle qu’elle s’est exprimée lors du premier tour de la présidentielle. Si l’on additionne les résultats des différents candidats issus des partis de gauche et écologistes, on obtient 32 % des voix pour ce bloc, que l’on peut qualifier de social-planificateur ou social-écologique. En rassemblant les voix portées sur Macron et Pécresse, on obtient également 32 % des voix pour le bloc libéral ou de centre droit. On arrive exactement au même score de 32 % en additionnant les trois candidats du bloc nationaliste ou de droite extrême (Le Pen, Zemmour, Dupont-Aignan). Si l’on répartit entre les trois blocs les 3 % du candidat ruraliste inclassable (Lassalle), on parvient à trois tiers presque parfaitement égaux.

Cette tripartition s’explique en partie par les spécificités du système électoral et de l’histoire politique du pays, mais ses soubassements sont plus généraux. Précisons que la démocratie en trois tiers ne signifie aucunement la fin des clivages politiques fondés sur la classe sociale et sur des intérêts économiques divergents, bien au contraire. Le bloc libéral réalise de loin ses meilleurs scores chez les électeurs socialement les plus favorisés, quel que soit le critère retenu (revenu, patrimoine, diplôme), notamment parmi les plus âgés. Si ce « bloc bourgeois » parvient à rassembler un tiers des suffrages, cela doit aussi beaucoup à l’évolution de la participation, qui est devenue nettement plus forte parmi les plus aisés et les plus âgés que dans le reste de la population au cours des dernières décennies, ce qui n’était pas le cas auparavant.

De facto, ce bloc a fait la synthèse entre les élites économiques et patrimoniales votant anciennement pour le centre droit et les élites diplômées qui avaient pris un peu partout le contrôle du centre gauche depuis 1990, comme le montre la World Political Cleavages and Inequality Database. Avec une participation égale dans tous les groupes sociodémographiques, ce bloc ne rassemblerait toutefois qu’à peine un quart des suffrages et ne pourrait prétendre gouverner seul. A l’inverse, le bloc de gauche serait largement en tête, car il fait ses meilleurs scores au sein des classes populaires, et surtout parmi les plus jeunes. Le bloc nationaliste progresserait aussi mais plus légèrement, car le profil de son vote populaire est plus équilibré parmi les classes d’âge.

Inde et Pakistan : Le danger de sécheresse extrême

Inde et Pakistan : Le danger de sécheresse extrême

 

 

. La vague de chaleur actuelle n’est pas anormale par rapport aux températures usuelles. Les suivantes risquent d’être plus intenses encore, alors que les populations sont déjà vulnérables. Par Vikki Thompson, University of Bristol et Alan Thomas Kennedy-Asser, University of Bristol

 

Une vague de chaleur frappe l’Inde et le Pakistan – l’une des régions les plus densément peuplées du monde – depuis avril, obligeant plus d’un milliard de personnes à affronter des températures bien supérieures à 40 °C. Ces températures ne constituent pas encore des records historiques pour ces régions, mais la période la plus chaude de l’année reste à venir.

Alors que la canicule met déjà en danger la vie des populations, et provoque demauvaises récoltes et des pannes d’électricité, la situation pourrait s’aggraver : si l’on se base sur ce qui se passe ailleurs, l’Inde est vouée à connaître une canicule encore plus intense.

Notre équipe de climatologues s’est récemment intéressée aux vagues de chaleur les plus extrêmes dans le monde au cours des 60 dernières années, mais en prenant en considération les écarts par rapport aux températures attendues dans cette zone, plutôt que la simple température maximale. L’Inde et le Pakistan ne figurent pas dans nos résultats, publiés dans la revue Science Advances. Bien que les températures et les niveaux de stress thermique montent régulièrement à des niveaux très élevés en valeurs absolues, les vagues de chaleur en Inde et au Pakistan n’ont pas été si extrêmes jusqu’à présent si l’on compare aux normales régionales.

De fait, la région se caractérise par un historique d’extrêmes météorologiques plutôt modeste. Dans les données que nous avons examinées, nous n’avons trouvé aucune vague de chaleur en Inde ou au Pakistan s’écartant de plus de trois écarts types par rapport à la moyenne, alors que statistiquement, un tel événement serait attendu une fois tous les 30 ans environ. La vague de chaleur la plus sévère que nous ayons identifiée, en Asie du Sud-Est en 1998, s’éloignait à cinq niveaux de la moyenne. Une vague de chaleur aussi extraordinaire en Inde aujourd’hui équivaudrait à atteindre des températures de plus de 50 °C sur de larges pans du pays – de telles températures n’ont été observées qu’en points localisés jusqu’à présent.

Nos travaux suggèrent donc que l’Inde pourrait connaître des chaleurs encore plus extrêmes. Considérant que la répartition statistique des températures maximales quotidiennes est globalement la même dans le monde entier, il est probable, toujours d’un point de vue statistique, qu’une vague de chaleur record frappe l’Inde à un moment donné ; la région n’a pas encore eu l’occasion de s’adapter à de telles températures et serait donc particulièrement vulnérable.

Récoltes et santé

Bien que la vague de chaleur actuelle n’ait pas battu de records historiques, elle reste exceptionnelle. De nombreuses régions de l’Inde ont connu leur avril le plus chaud jamais enregistré. Une telle chaleur si tôt dans l’année aura des effets dévastateurs sur les cultures dans une région où beaucoup dépendent de la récolte de blé pour se nourrir et gagner leur vie. Habituellement, les chaleurs extrêmes dans cette région sont suivies de près par des moussons rafraîchissantes – mais celles-ci n’arriveront pas avant plusieurs mois.

Les cultures ne seront pas les seules à être affectées par la canicule, qui touche aussi les infrastructures, les écosystèmes et la santé humaine. Les répercussions sur la santé humaine sont complexes, car des facteurs météorologiques (chaleur et humidité) et socio-économiques (mode de vie et capacité d’adaptation) entrent en jeu. Nous savons que le stress thermique peut entraîner des problèmes de santé à long terme tels que des maladies cardiovasculaires, une insuffisance rénale, une détresse respiratoire et une insuffisance hépatique, mais nous ne pourrons pas savoir exactement combien de personnes mourront pendant cette vague de chaleur en raison d’un manque de données sanitaires de la part de l’Inde et du Pakistan.

Ce que l’avenir nous réserve

Pour envisager l’impact de la chaleur extrême au cours des prochaines décennies, nous devons nous pencher à la fois sur le changement climatique et sur la croissance démographique, car c’est la combinaison des deux qui amplifiera les impacts des canicules sur la santé humaine dans le sous-continent indien.

 

Les zones d’augmentation importante de la population au cours des 50 prochaines années (cercles rouges), coïncident toutes avec des endroits où il n’existe aucune donnée quotidienne sur la mortalité (jaune).

Dans notre nouvelle étude, nous avons cherché à comprendre comment les extrêmes devraient évoluer à l’avenir. En utilisant un vaste ensemble de simulations de modèles climatiques, nous avons obtenu beaucoup plus de données que celles disponibles en réalité. Nous avons constaté que le réchauffement climatique global sous-jacent n’affectait pas la répartition statistique des extrêmes. Dans les modèles climatiques, les extrêmes de température quotidiens augmentent de la même façon que le climat moyen. Le dernier rapport du GIEC indique que les vagues de chaleur deviendront plus intenses et plus fréquentes en Asie du Sud au cours de ce siècle. Nos résultats le confirment.

La vague de chaleur actuelle touche plus de 1,5 milliard de personnes tandis que la population du sous-continent indien devrait encore s’accroître de 30 % au cours des 50 prochaines années. Cela signifie que des centaines de millions de personnes supplémentaires naîtront dans une région amenée à connaître des vagues de chaleur plus fréquentes et plus graves. Étant donné qu’un nombre encore plus important de personnes sera affecté par des canicules encore plus intenses, les mesures de réponse au changement climatique doivent être accélérées – de toute urgence.

_____

Par Vikki Thompson, Senior Research Associate in Geographical Sciences, University of Bristol et Alan Thomas Kennedy-Asser, Research Associate in Climate Science, University of Bristol.

La version originale de cet article a été publiée en anglais.

Zone euro : Le danger inquiétant de l’inflation

Zone euro : Le danger inquiétant de l’inflation

 L’inflation a de nouveau surpris à la hausse au mois de mai. La BCE pourrait être incitée à aller plus vite et plus fort dans le resserrement de sa politique monétaire, avec le risque de fragiliser encore plus les économies de la zone euro. Par Clémentine Gallès, Cheffe Économiste et Stratégiste de Société Générale Private Banking ( dans la Tribune)

Les pressions sur les prix restent très élevées ce mois-ci et continuent de progresser de façon généralisée sur l’ensemble des biens et services - il ne s’agit plus seulement de prix de l’énergie (graphique 1). L’inflation en Zone euro a ainsi affiché 8,1% pour le mois de mai et continue donc de progresser (après 7,4% au mois d’avril), de surprendre à la hausse (le consensus s’attendait à 7,7% d’inflation) et de largement dépasser les projections de la BCE (graphique 2). Bien que la hausse reste principalement alimentée par l’inflation énergétique et alimentaire, l’inflation sous-jacente a également augmenté pour atteindre 3,8%, un niveau de plus en plus inconfortable pour la Banque Centrale européenne. Cette situation contraste avec celle des Etats-Unis où le point haut semble en train d’être passé avec notamment un ralentissement de l’inflation sous-jacente au mois d’avril qui devrait être confirmé à la publication des chiffres de mai.

Des indicateurs d’activité toujours positifs mais des risques de plus en plus élevés sur les perspectives économiques. En effet, si les indices PMI pour le mois de mai sont en baisse, ils demeurent au-dessus du seuil de 50 points, indiquant une activité qui ralentit mais qui reste en croissance. Le secteur des services notamment continue de bénéficier de la normalisation des conditions sanitaires et apparaît particulièrement moteur. Le sous-indice de la création d’emploi reste également très favorable, faisant état d’un marché du travail solide et résilient en Zone euro. Néanmoins, cette situation relativement bonne des entreprises contraste avec une confiance des ménages au plus bas dans un environnement de contraction de leur revenu disponible réel. La question de la capacité de résistance des économies de la Zone euro à cette nouvelle surprise à la hausse sur l’inflation est bien réelle.

Une BCE qui pourrait vouloir aller plus vite dans la normalisation de sa politique monétaire. Au cours des dernières semaines, la BCE a fait évoluer sa communication, poussant les observateurs à anticiper une hausse des taux d’intérêt directeurs de 25 points de base au mois de juillet ainsi qu’au mois de septembre. Les tous derniers chiffres d’inflation alimentent même les spéculations quant à une potentielle hausse de 50 points de base (au lieu de 25 points de base) en juillet prochain. Si une normalisation de la politique monétaire semble tout à fait logique dans le contexte actuel d’inflation, la BCE devra rester très vigilante à ne pas durcir trop vite et trop fort les conditions monétaires, au risque de faire basculer définitivement en récession des économies déjà bien fragilisées.

Le danger d’une remontée trop brusque des taux

Le danger d’une remontée trop brusque des taux 

 

Le financier Daniel J. Arbess s’inquiète, dans une chronique au « Monde », d’une trop vive remontée des taux aux Etats-Unis au moment où la croissance s’effondre.

 

Les banques centrales sont vivement critiquées pour s’être laissé aller et être « en retard » sur l’inflation. Mais ce n’est pas le cas. Les politiques publiques et la géopolitique ont empêché les banquiers centraux de normaliser leur politique monétaire avant que l’inflation ne fonde sur eux. Les perturbations sur les chaînes d’approvisionnement chinoises et russes ont heurté de plein fouet la demande artificielle créée par les chèques que le département du Trésor a envoyés aux Américains.

La marge de manœuvre pour un resserrement monétaire qui n’entraînerait pas l’économie dans la récession est très faible, d’autant que les modestes restrictions financières opérées lui font déjà perdre de la vitesse. Dans un environnement économique de long terme caractérisé par la dette (en hausse), la démographie (vieillissante) et la disruption technologique (qui déplace le travail et la demande), une désinflation persistante est plus dangereuse qu’une inflation épisodique.

 

Rétrospectivement, il est évident que les banques centrales ont été contraintes par les directions politiques de retarder leurs mesures de normalisation quand l’économie était encore forte, en 2018. Lorsque la pandémie a frappé, l’administration Trump et le Congrès, pris de panique, ont ordonné au Trésor d’emprunter des milliers de milliards de dollars pour financer les versements directs aux ménages. En 2021, l’administration Biden a réitéré le dispositif. Ces nouvelles émissions de titres ont été achetées par la Réserve fédérale (Fed), dont le bilan est passé au cours des deux dernières années de 4 000 à 9 000 milliards de dollars (neuf fois le niveau de la mi-2008). Les conséquences étaient prévisibles. Comme l’affirmait Milton Friedman, plus d’argent en quête d’une production inchangée de biens et de services, cela signifie des prix plus élevés.

Normalement, la Fed pourrait augmenter ses taux pour ralentir l’excès de la demande le temps nécessaire pour rattraper le retard de l’offre. Mais, cette fois, la coïncidence de la géopolitique et de la dynamique de reprise post-pandémie a produit non seulement une brusque hausse de la demande, mais un retard de l’offre.

Heureusement, comme les consommateurs ont dépensé leurs chèques de relance, les dernières données disponibles suggèrent que l’inflation atteint son maximum. Et elle devrait baisser à mesure que les entreprises rétablissent les chaînes d’approvisionnement.

Le système financier chinois en danger

Le système financier chinois en danger

 

A Wall Street, Washington a remporté un bras de fer discret mais essentiel contre Pékin, en contraignant les entreprises chinoises cotées aux Etats-Unis à faire certifier leurs comptes par les auditeurs de la SEC, le « gendarme » américain de la Bourse, explique la juriste Isabelle Feng, dans une tribune au « Monde ».

 

 

La China Securities Regulatory Commission (CSRC) a abandonné une réglementation qui interdisait aux entreprises chinoises de divulguer leurs données comptables aux auditeurs étrangers, par un communiqué publié le 2 avril.

L’annonce du régulateur boursier chinois a fait sursauter le petit monde boursier transpacifique, qui avait prédit la radiation massive desdites entreprises dont les comptes étaient fermés, jusqu’alors, aux auditeurs américains. Si la CSRC justifie son « ouverture » par le souci de mieux protéger les investisseurs, personne n’est dupe que, menacé par le législateur de Washington, Pékin a bel et bien déposé les armes pour éviter le « découplage » financier avec son rival idéologique.

L’origine de l’histoire s’apparente à un simple conflit de lois : selon la loi fédérale Sarbanes-Oxley votée en 2002 à la suite des crashs financiers d’Enron, une entreprise cotée aux Etats-Unis, quelle que soit sa nationalité, doit faire certifier ses comptes par les auditeurs de la SEC (Securities and Exchange Commission), le « gendarme » de Wall Street ; or, les entreprises chinoises cotées à New York ne peuvent pas respecter cette loi américaine sans violer la loi de sécurité nationale de Pékin, qui estampille de telles données « secrets d’Etat ».

Il s’ensuit alors un bras de fer sino-américain qui, depuis une bonne décennie, tient en haleine le milieu capitalistique par de nombreux rebondissements liés au degré de priorité accordé par Washington dans son duel avec Pékin.

On est loin de l’époque où un Wall Street exsangue, en convalescence de la crise de 2008, accueille à bras ouverts les entreprises chinoises qui ont traversé le Pacifique pour puiser dans les liquidités de la Bourse new-yorkaise – 55 % de la capitalisation mondiale – pour se doter des moyens de prospérer, et ce, avec la bénédiction de l’Etat-parti qui voit en ces cotations chinoises – dont le nombre s’élève à 281 à ce jour – le reflet de sa propre puissance sur la scène mondiale.

Et la victoire ne se serait pas produite sans l’indulgence de la SEC, qui les exonère des obligations légales de leur pays hôte en prenant en considération la loi de leur pays d’origine, ni sans le très cher concours des cabinets d’audit et des grandes banques qui ne craignent pas les eaux troubles d’un capitalisme planifié méthodiquement par un régime totalitaire et y nagent joyeusement.

Certes, la SEC a tenté d’éradiquer cette « exception chinoise » qui finit par discréditer l’institution fédérale elle-même. Mais, des années durant, les pourparlers avec son homologue chinois ont eu l’air d’un interminable dialogue de sourds : quand l’un réclamait la transparence des comptes et la protection des actionnaires, l’autre y opposait la vertu du dialogue et la souveraineté nationale.

Rachat de Twitter par Elon Musk , le danger démocratique

Rachat de Twitter par Elon Musk  , le danger  démocratique

Le chercheur Olivier Ertzscheid, spécialiste des nouvelles technologies à l’Université de Nantes, décrypte les conséquences de l’achat de Twitter par le milliardaire Elon Musk, qui prône une vision radicale de la liberté d’expression. Fin connaisseur du modèle économique des médias sociaux, l’universitaire explique la différence entre la liberté d’expression et son amplification algorithmique, qui justifie selon lui la modération. Il dénonce également le problème de la gouvernance des réseaux sociaux, qui permet à leurs dirigeants de concentrer un pouvoir démesuré.

 

LA TRIBUNE – Quelles conséquences du rachat  de Twitter par Elon Musk

Olivier ERTZSCHEID - Il faut bien comprendre qu’il existe deux conceptions de la liberté d’expression. La première, plutôt américaine, est radicale : la liberté est au-dessus de tout, ce qui signifie que tout point de vue, quel qu’il soit, peut être exprimé dans l’espace public. Y compris, donc, un point de vue raciste, xénophobe, antisémite ou la diffusion d’une fake news. La deuxième conception, plutôt européenne et française, est qu’il y a des limites légales à ce qu’on peut dire dans l’espace public.

La plupart des patrons des entreprises de la tech américaine, y compris Jack Dorsey [le fondateur et premier CEO de Twitter, qui a quitté la direction fin 2021, Ndlr] pensent que la liberté d’expression doit être totale. C’est pour cela qu’ils combattent l’idée que les réseaux sociaux sont des médias responsables des contenus qu’ils diffusent, et qu’ils se montrent si réticents à les modérer. Mark Zuckerberg [le fondateur et patron de Meta qui comprend Facebook, Instagram, WhatsApp et Messenger, Ndlr], Jack Dorsey, ou encore les dirigeants de Google/YouTube, estiment que leur plateforme est un outil technique avant tout. Pour eux, leur rôle est simplement de mettre en relation les utilisateurs, grâce à des algorithmes qui mettent en avant des contenus liés à leurs centres d’intérêts.

 

La conception radicale de la liberté d’expression, telle que la défend Elon Musk, est-elle toujours tenable étant donné l’impact négatif, prouvé par de multiples études, des réseaux sociaux sur le débat démocratique ?

Non ce n’est plus tenable, car quel que soit le camp que l’on défend, il faut distinguer le « free speech » (la liberté d’expression) du  »free reach » (la libre portée) des réseaux sociaux, c’est-à-dire l’amplification algorithmique des contenus. Le fait qu’un propos raciste ou qu’une fake news puisse, par le simple fait de son existence, atteindre une audience énorme, pose manifestement un problème. Ce constat est largement partagé dans la classe politique. L’enjeu est donc de trouver le juste équilibre, c’est-à-dire garantir à chacun la possibilité de dire ce qu’il veut, sans offrir à chaque parole la même capacité à toucher une grande audience.

L’Histoire récente a démontré que les algorithmes des réseaux sociaux ne sont pas neutres et qu’ils peuvent avoir un impact négatif majeur sur la vie démocratique, partout dans le monde, des Etats-Unis à l’Inde en passant par les Ouïghours en Chine, ou en Europe. Les Facebook Files, révélés l’an dernier par la lanceuse d’alerte Frances Haugen à partir de documents internes à Facebook, ont confirmé l’ampleur du phénomène et surtout, la complicité de Facebook lui-même. On a pu constater lors de l’élection présidentielle américaine de 2016, où les électeurs indécis ont été abreuvés de fake news, ou lors du référendum du Brexit la même année, que les réseaux sociaux peuvent être manipulés. De nombreux travaux scientifiques font également le lien entre la mise en avant des contenus haineux et polémiques, et le modèle économique même des Facebook, Twitter et consorts. Car celui-ci se base sur l’engagement de l’utilisateur : plus les contenus génèrent une émotion, plus l’utilisateur passe de temps sur la plateforme et dissémine des données personnelles que l’entreprise monétise.

Face à ces constats, les plateformes sociales comme Facebook et Twitter subissent la pression des régulateurs depuis quelques années. Des deux côtés de l’Atlantique, les pouvoirs publics les incitent à intervenir sur les contenus, notamment pour réduire le cyberharcèlement et les fake news.

Globalement, ils ne font pas un bon travail, surtout Twitter qui a le pire ratio de modérateurs humains par utilisateur. Mais cette « brèche » dans la conception américaine de la liberté d’expression, a déclenché un mouvement contestataire selon lequel les réseaux sociaux dominants entraveraient la liberté d’expression, et dont Donald Trump et Elon Musk sont des porte-voix.

 

En prenant le contrôle de Twitter, Elon Musk pourrait-il appliquer sa conception radicale de la liberté d’expression sans que rien ne l’en empêche ?

La régulation progresse des deux côtés de l’Atlantique pour imposer des obligations aux plateformes. En Europe, le Digital Services Act (DSA), entièrement dédié à ce sujet, sera bientôt voté au Parlement européen. Des travaux similaires sont menés aux Etats-Unis. Mais pour l’heure, le fonctionnement des réseaux sociaux reste principalement de leur propre responsabilité.

Je pense donc que le principal problème démocratique aujourd’hui est avant tout un problème de gouvernance. Au regard de leur poids politique, de leur puissance économique, et de leur capacité extraordinaire à façonner les opinions de centaines de millions de personnes [Facebook est utilisé par 2,9 milliards de personnes par mois, 330 millions pour Twitter, Ndlr], leurs dirigeants disposent de beaucoup trop de pouvoir.

Dans ce contexte, la personnalité des dirigeants et de leur conseil d’administration est cruciale. Le moindre soubresaut idéologique d’un Mark Zuckerberg, d’un Parag Agrawal [l'actuel CEO de Twitter, Ndlr] ou demain peut-être d’Elon Musk, peut avoir un impact sur la vie de millions de personnes.

A ce titre, le fait qu’Elon Musk soit si près d’obtenir un tel pouvoir peut légitimement inquiéter tant l’homme est connu pour son imprévisibilité. C’est un euphémisme de dire qu’il n’est ni le plus calme, ni le plus stable, ni le plus modéré des patrons de la tech américaine. En obtenant 100% du capital de Twitter et en sortant l’entreprise de la Bourse, il sera libre de la gouverner comme bon lui semble et de choisir qui siège à son Conseil d’administration.

En attendant la régulation, pourrait-il toutefois être limité dans sa volonté de détruire toute forme de modération, par la pression des pouvoirs publics voire par les propres utilisateurs de Twitter ?

Le fait que Facebook et Twitter se soient mis à la modération après avoir été fortement mis en cause pour des dysfonctionnements majeurs, montre que la pression politique peut être efficace.

Il est vrai aussi que les réseaux sociaux ne sont que ce qu’en font leurs utilisateurs. Même si la présence sur les réseaux sociaux est addictive, nous sommes libres de partir ou de rester. Nous évoluons tous dans notre propre bulle algorithmique, en fonction des personnes que nous avons choisi de suivre et des contenus avec lesquels nous interagissons via nos commentaires, nos « likes » et nos retweets. Donc il y a autant de « Twitters » que d’utilisateurs de Twitter, et malgré tous les problèmes de modération, ce réseau social est aujourd’hui prisé par de nombreux activistes, journalistes, universitaires, chercheurs et citoyens lambda qui le considèrent comme une source importante d’accès à l’information.

Elon Musk ne peut donc pas faire n’importe quoi, car il n’aurait pas intérêt à ce que le service perde des utilisateurs. Mais des changements majeurs pourraient tout de même être décidés car Musk est persuadé que la direction actuelle n’exploite pas le plein potentiel de Twitter. Il a déjà déclaré que les changements qu’il souhaite vers une liberté d’expression plus radicale seraient bénéfiques pour recruter de nouveaux utilisateurs et mieux engager les utilisateurs actuels.

Quoi qu’il en soit, ce qui changera de manière certaine si Elon Musk contrôle Twitter, c’est qu’il fera beaucoup moins de concessions dans certains contextes, comme récemment lors de la guerre en Ukraine, ou encore la fermeture du compte de Donald Trump en 2021. Musk estime qu’exclure l’ancien président des Etats-Unis de Twitter est une aberration, malgré le fait que Trump ait utilisé ce réseau social pour contester le résultat de l’élection présidentielle de 2020, ce qui a contribué à l’insurrection du Capitole en janvier 2021.

Pensez-vous qu’Elon Musk a un agenda politique ? L’entrepreneur met en scène sa proximité avec Donald Trump, partage son opinion sur la liberté d’expression, et mène une OPA hostile sur Twitter alors que les Etats-Unis s’apprêtent à entrer en période électorale avec les élections de mi-mandat de fin d’année.

Je n’en sais rien car je ne suis pas dans sa tête, mais il faut se poser la question. Des études de chercheurs ainsi que les Facebook Files ont révélé que l’amplification algorithmique des contenus favorise l’extrême-droite. Pourquoi ? Parce que les contenus les plus extrêmes déclenchent des émotions, donc des réactions -d’autant plus si les émotions sont négatives. Ce sont eux qui bénéficient le plus des mécanismes de la viralité, ce qui contribue à diffuser les idées qu’ils véhiculent.

Aucune plateforme sociale ne peut être pensée indépendamment de son poids politique. Ceci dit, il faut prendre en compte qu’aux Etats-Unis, les grands patrons ont un rapport différent à la politique qu’en France. Il est tout à fait accepté dans les mœurs américaines qu’une entreprise finance massivement les deux camps ou donne plus d’argent à l’un par rapport à l’autre. Ce n’est pas du tout perçu comme un danger pour la démocratie.

Mais nous sommes entrés dans une nouvelle ère depuis 2016. La société américaine est extrêmement fracturée. Donald Trump a changé la donne dans le sens où pour la première fois, les patrons de la tech américaine ont massivement rejeté sa candidature en 2020, à quelques exceptions près comme Peter Thiel [un investisseur phare de la Silicon Valley, Ndlr]. Il y a donc une instrumentalisation du rôle des réseaux sociaux et de leur allégeance politique supposée. Parce qu’ils se plient -même mal et de manière très insuffisante- à des impératifs de régulation des contenus, Facebook et le Twitter de la période Jack Dorsey puis Parag Agrawal, sont perçus par certains comme faisant le jeu des Démocrates, ce qui est une déduction très contestable.

Peut-être y-a-t-il la volonté d’un « rééquilibrage » de la part d’Elon Musk. Gardons toutefois en tête que les réseaux sociaux partisans, créés par et pour un camp, ne décollent pas de leur cercle d’adhésion idéologique, à l’image du réseau social d’extrême-droite Gab ou de celui lancé cette année par Donald Trump. Ces plateformes ont été créées justement pour garantir la liberté d’expression qu’il manquerait à Twitter, mais il est très difficile de percer dans l’univers bouché des réseaux sociaux. C’est peut-être pour cela qu’Elon Musk a jeté son dévolu sur Twitter plutôt que sur l’un de ces acteurs ou sur la création d’un nouveau réseau social.

Quid des conflits d’intérêts ? En plus d’être l’homme le plus riche du monde, Elon Musk est également le patron de deux entreprises, Tesla et SpaceX, qui ont de forts enjeux avec les pouvoirs publics. Récemment, Musk a critiqué le président démocrate Joe Biden, qu’il accuse de ne pas assez soutenir Tesla, et SpaceX est sous contrat avec la Nasa…

Elon Musk est un entrepreneur milliardaire à la tête de deux entreprises plus ou moins stratégiques. S’il devait posséder un média social et la puissance qui va avec, cela représenterait un conflit d’intérêts très clair, mais ce n’est pas illégal. Ce ne serait d’ailleurs pas une première dans le secteur des médias. En France comme aux Etats-Unis, un nombre non-négligeable de médias sont détenus par des milliardaires qui sont aussi des grands patrons [Jeff Bezos, le fondateur d'Amazon, détient le Washington Post ; Bernard Arnault, le patron du géant du luxe LVMH, détient Les Echos et Le Parisien, Ndlr] voire même par des capitaines d’industries stratégiques [la famille Dassault, active dans la défense, détient Le Figaro, Ndlr].

 

Si la concentration des médias entre les mains de milliardaires est un sujet majeur, il est très clair que dans le domaine des réseaux sociaux au moins, on se dirige vers un contrôle plus strict des plateformes via la régulation, même si on n’y est pas encore. Un corpus doctrinaire est en train de se réinventer autour des lois antitrust pour voir de quelles manières on pourrait produire de nouvelles législations adaptées à la réalité de ce qu’est une plateforme technologique aujourd’hui, et des nouveaux défis démocratiques qu’elles posent. Cette évolution va dans le sens inverse de ce que souhaite Elon Musk. Il est certain que ni lui ni Mark Zuckerberg n’en seront des alliés.

Economie: danger mortel du retour de l’inflation

Economie:  danger mortel du retour de l’inflation

 

 

Pour Patrick Artus, économiste, une inflation à nouveau forte va modifier les comportements de tous les agents économiques.

 

Chronique.

 

 Le prochain président de la République, quel qu’il soit, risque d’être confronté à une situation économique bien proche de celle des années 1970-2008, une « économie d’autrefois » très éloignée de celle que nous avons connue ces dernières années – entre 2010 et la crise due au Covid-19.

Dans cette économie d’autrefois, il y avait de l’inflation. Elle était alors due à l’accélération des salaires, quand les économies se rapprochaient du plein-emploi, et à l’indexation des salaires sur les prix. En effet, le pouvoir de négociation des salariés était élevé ; cela impliquait, d’une part, que les salariés pouvaient bénéficier des périodes de plein-emploi pour obtenir des hausses de salaires plus rapides, d’autre part, que les gains de productivité étaient redistribués aux salariés, et enfin que les salaires étaient protégés contre l’inflation par l’indexation de ceux-ci sur les prix.

La seconde caractéristique de l’économie d’autrefois était que les chocs inflationnistes (hausse des prix des matières premières et de l’énergie, conflits sociaux) étaient essentiellement supportés par les entreprises et conduisaient surtout à un recul des profits, puisque l’indexation des salaires épargnait les salariés des conséquences de ces chocs.

Enfin, dans cet environnement marqué par l’inflation et la lutte entre salariés et entreprises pour le partage des revenus, les banques centrales, surtout à partir de 1980, avaient comme objectif premier de lutter contre l’inflation. Chaque fois que l’inflation augmentait (1973-1974, 1980-1982, 1998-2000, et même 2006-2008), les taux d’intérêt grimpaient fortement ; les taux d’intérêt à long terme étaient en moyenne plus élevés que les taux de croissance de l’économie.

En conséquence, la politique budgétaire ne pouvait pas rester durablement expansionniste : elle était contracyclique, mais devait en moyenne stabiliser le taux d’endettement public. Les Etats devaient assurer la soutenabilité des dettes publiques en revenant à des politiques budgétaires restrictives dans la seconde moitié des périodes d’expansion.

Tout change à partir de la crise des subprimes de 2008-2009, mais certaines évolutions apparaissent dès le début des années 2000. Le point de départ est la perte de pouvoir de négociation des salariés, avec la désindustrialisation et la création d’emplois dans de petites entreprises de services, où les syndicats sont peu présents, et avec la déréglementation des marchés du travail (réduction de la protection de l’emploi, facilitation des licenciements). Il en résulte une déformation du partage des revenus au détriment des salariés dans tous les pays de l’OCDE, sauf en France et en Italie. Les moindres hausses des salaires conduisent à une inflation plus faible. Mais le coût des chocs inflationnistes (hausse des prix de l’énergie, de l’alimentation, du transport…) est, comme actuellement, subi par les salariés plus que par les entreprises, car, à partir du début des années 2000, les salaires sont faiblement indexés sur les prix. Enfin, le plein-emploi n’amène plus à l’inflation – on l’a clairement vu en 2018-2019, la baisse du chômage n’entraînant plus (ou moins) de hausse des salaires.

Le danger mortel du retour de l’inflation

Le danger mortel du retour de l’inflation

 

 

Pour Patrick Artus, économiste, une inflation à nouveau forte va modifier les comportements de tous les agents économiques.

 

Chronique.

 

 Le prochain président de la République, quel qu’il soit, risque d’être confronté à une situation économique bien proche de celle des années 1970-2008, une « économie d’autrefois » très éloignée de celle que nous avons connue ces dernières années – entre 2010 et la crise due au Covid-19.

Dans cette économie d’autrefois, il y avait de l’inflation. Elle était alors due à l’accélération des salaires, quand les économies se rapprochaient du plein-emploi, et à l’indexation des salaires sur les prix. En effet, le pouvoir de négociation des salariés était élevé ; cela impliquait, d’une part, que les salariés pouvaient bénéficier des périodes de plein-emploi pour obtenir des hausses de salaires plus rapides, d’autre part, que les gains de productivité étaient redistribués aux salariés, et enfin que les salaires étaient protégés contre l’inflation par l’indexation de ceux-ci sur les prix.

La seconde caractéristique de l’économie d’autrefois était que les chocs inflationnistes (hausse des prix des matières premières et de l’énergie, conflits sociaux) étaient essentiellement supportés par les entreprises et conduisaient surtout à un recul des profits, puisque l’indexation des salaires épargnait les salariés des conséquences de ces chocs.

Enfin, dans cet environnement marqué par l’inflation et la lutte entre salariés et entreprises pour le partage des revenus, les banques centrales, surtout à partir de 1980, avaient comme objectif premier de lutter contre l’inflation. Chaque fois que l’inflation augmentait (1973-1974, 1980-1982, 1998-2000, et même 2006-2008), les taux d’intérêt grimpaient fortement ; les taux d’intérêt à long terme étaient en moyenne plus élevés que les taux de croissance de l’économie.

En conséquence, la politique budgétaire ne pouvait pas rester durablement expansionniste : elle était contracyclique, mais devait en moyenne stabiliser le taux d’endettement public. Les Etats devaient assurer la soutenabilité des dettes publiques en revenant à des politiques budgétaires restrictives dans la seconde moitié des périodes d’expansion.

Tout change à partir de la crise des subprimes de 2008-2009, mais certaines évolutions apparaissent dès le début des années 2000. Le point de départ est la perte de pouvoir de négociation des salariés, avec la désindustrialisation et la création d’emplois dans de petites entreprises de services, où les syndicats sont peu présents, et avec la déréglementation des marchés du travail (réduction de la protection de l’emploi, facilitation des licenciements). Il en résulte une déformation du partage des revenus au détriment des salariés dans tous les pays de l’OCDE, sauf en France et en Italie. Les moindres hausses des salaires conduisent à une inflation plus faible. Mais le coût des chocs inflationnistes (hausse des prix de l’énergie, de l’alimentation, du transport…) est, comme actuellement, subi par les salariés plus que par les entreprises, car, à partir du début des années 2000, les salaires sont faiblement indexés sur les prix. Enfin, le plein-emploi n’amène plus à l’inflation – on l’a clairement vu en 2018-2019, la baisse du chômage n’entraînant plus (ou moins) de hausse des salaires.

Le danger mortel de la croissance incontrôlée

Le danger mortel de la croissance incontrôlée

Dans un entretien au « Monde », le physicien, coauteur il y a cinquante ans du rapport du Club de Rome « Les Limites à la croissance », estime que l’impératif est aujourd’hui de changer « les valeurs et les objectifs » des sociétés contemporaines, qui courent à leur perte.(intreview Le Monde )

 

C’est un texte qui a fait date. En 1972, répondant à une commande du Club de Rome, un think tank basé en Suisse, des chercheurs du Massachusetts Institute of Technology (MIT) publiaient The Limits to Growth, un rapport montrant que la croissance économique ne pouvait se poursuivre indéfiniment dans un monde aux ressources finies. Il prévoyait que la population et la production industrielle et de nourriture finiraient par ralentir puis reculer, contraintes par les limites de la planète – disparition des ressources naturelles et capacité limitée de la Terre à absorber les émissions.

L’un de ses coauteurs, le physicien américain Dennis Meadows, 79 ans, a répondu aux questions du Monde, à l’occasion du cinquantième anniversaire du rapport, et de la publication d’une nouvelle version de ce best-seller, le 3 mars, Les Limites à la croissance (dans un monde fini), aux éditions Rue de l’Echiquier (488 pages, 14,90 euros).

Quel bilan tirez-vous, cinquante ans après la publication du rapport de 1972 ?

Notre empreinte écologique est trop élevée : nous consommons plus de ressources que la Terre ne peut en régénérer, qu’il s’agisse de combustibles fossiles, de sols fertiles, d’eau propre, etc. En 1972, nous avions encore une chance de ralentir ce processus, et de garder la démographie et la consommation à des niveaux soutenables. L’une de nos principales conclusions était que plus nous agissions tôt, meilleurs seraient les résultats. Mais pendant cinquante ans, nous n’avons pas agi. Nous sommes donc au-delà de la capacité de la Terre à nous soutenir, de sorte que le déclin de notre civilisation à forte intensité énergétique et matérielle est inévitable. Le niveau de vie moyen va baisser, la mortalité va augmenter ou la natalité être réduite et les ressources diminueront.

La plupart des gens pensent que l’épuisement des ressources ne nous affecte que lorsqu’il n’y a plus rien dans le sol. C’est plus complexe que cela. Les limites à la croissance sont liées au fait que, progressivement, le coût des ressources devient si élevé que nous ne pouvons plus nous permettre de les utiliser en si grandes quantités. Nous sommes actuellement dans cette situation où, par exemple, le prix du pétrole devient trop cher pour les consommateurs.

L’un de vos scénarios prévoyait que la croissance s’arrêterait autour de 2020. Est-ce vraiment ce que l’on observe maintenant ?

Cette possibilité est en train de se réaliser : les ressources sont de plus en plus chères, la demande est de plus en plus importante, de même que la pollution. La question est désormais de savoir non pas si mais comment la croissance va s’arrêter. Ce que nous voyons, c’est que la population diminue maintenant dans certains pays, au Japon, en Russie et bientôt en Chine. Bien sûr, le PIB continue de croître, mais ce n’est pas un bon indicateur du bien-être humain, car il augmente avec les activités néfastes telles que la réparation des dégâts de la guerre en Ukraine.

Franglais: danger pour le français ?

Franglais:    danger pour le français ?

 

Le philosophe Ferry et l’académicien Rouart débattent dans le Monde de l’opportunité de faciliter l’emploi de l’anglais à l’université.

 

Adopté en première lecture à l’Assemblée nationale, le projet de loi sur l’enseignement supérieur facilite l’emploi de l’anglais à l’université. La polémique qu’il suscite relève-t-elle d’un folklore français ?

Jean-Marie Rouart : La France est un pays d’idées. Et les idées ont toujours été explosives. Quant à la langue française, elle est dans une situation effroyable. D’autant plus effroyable que les gouvernants et les Français ne s’en rendent pas compte.

Cette loi touche à l’être même du pays : la France est une idée. Et cette idée sans mots, eh bien, elle n’est plus rien ! Faut-il rappeler qu’il y a cinquante ans Emile Cioran, un Roumain, a lancé cet appel désespéré : « Aujourd’hui que cette langue est en plein déclin, ce qui m’attriste le plus, c’est de constater que les Français n’ont pas l’air d’en souffrir. Et c’est moi, rebut des Balkans, qui me désole de la voir sombrer. Eh bien, je coulerai inconsolable avec elle ! »

Là est le plus grave. Le problème n’est pas celui des anglicismes, c’est-à-dire du vocabulaire. Nous utilisons beaucoup de mots anglais, et cela peut être acceptable. Même si un snobisme fait rage, celui de créer des mots pseudo-anglais qui, dans cette langue, ne veulent rien dire.

Luc Ferry : Il y a une passion pour la langue française, et je la partage. Les fautes sont de plus en plus fréquentes. Nos hommes politiques les plus éminents n’y échappent pas : « Nous avons convenu… », « Vous vous en rappelez… », « La décision que j’ai pris », etc. Ce déclin m’est extraordinairement pénible. La langue, c’est un patrimoine et un espace de pensée communs. Mais ce phénomène n’a aucun rapport avec l’enseignement en anglais. Parler mal l’anglais n’est pas un gage de parfaite maîtrise du français. Le triste état de notre langue s’explique par deux grandes causes : derrière la prédominance de l’anglo-américain, il y a le fait que la culture contemporaine est devenue, pour l’essentiel, et pour son malheur, une culture scientifique et commerciale. Or, dans ce domaine, l’anglo-américain est dominant.

Par ailleurs, ni vous ni moi n’avons inventé le français. Tout comme la civilité (ou la politesse), il constitue un patrimoine héréditaire. Hélas, ils sont tous les deux en perdition sous les effets de l’immense mouvement de déconstruction des traditions et des patrimoines qui a caractérisé le XXe siècle.

Pour en revenir au projet du gouvernement, ne fallait-il pas adapter le droit à la réalité, l’emploi répandu de l’anglais dans l’enseignement supérieur ?

Autre problème, ce texte détricote la loi Toubon, seul geste d’indignation pour essayer de protéger la langue française. [Adoptée en 1994, elle vise à en protéger l'usage, notamment dans l'enseignement supérieur.]

L. F. : C’est la loi la plus absurde que l’on ait adoptée concernant l’université depuis que celle-ci existe ! Pourquoi, d’ailleurs, l’Académie française ne s’est-elle pas mobilisée lorsque les grandes écoles ont commencé à donner des cours en anglais ?

L’usage de l’anglais ne risque-t-il pas de se généraliser peu à peu, comme cela s’est vu dans le nord de l’Europe ?

L. F. : Le gouvernement assure qu’il n’y aura que 1 % de cours en anglais. Il n’y a donc pas de risque de généralisation.

M. Ferry affirme que les étudiants étrangers emporteront un morceau de la France dans leur cartable même s’ils reçoivent leur enseignement en anglais. Cela me paraît une bien étrange conception de la langue française et donc de la France.

On touche ici à l’idée de la France, et c’est ce qui déchaîne les passions. La langue française porte quelque chose de plus grand qu’elle-même, quelque chose de généreux que n’a pas l’anglais. L’anglais porte avec lui le commerce.

L. F. : La constitutionnalité de cette loi ne fait aucun doute. Je me suis intéressé aux écoles bilingues lorsque j’étais ministre de l’éducation nationale. Elles ont le droit d’utiliser l’allemand, l’italien, aussi bien que l’anglais, pourvu que cela ne dépasse pas un certain pourcentage. Elles n’enfreignent aucun principe constitutionnel.

J.-M.R. : Il est affligeant de constater l’absence de politique de la francophonie. Si l’on souhaite attirer des étudiants étrangers, que l’on commence par cela. Les pays francophones sont navrés de voir à quel point nous sommes laxistes, à quel point nous ne défendons pas notre langue. Les étudiants francophones préféreraient entendre cette langue, qui reste un chef-d’oeuvre. Ils ont l’impression que l’on met un drugstore dans la cathédrale de Chartres. D’ailleurs, beaucoup d’étrangers se sont convertis à notre langue : Eugène Ionesco, Romain Gary et bien d’autres. Descartes ne doit pas son succès au fait qu’il écrivait en latin. Montaigne et Rousseau n’ont-ils pas eu une égale renommée alors qu’ils écrivaient en français ?

L. F. : Si Spinoza, Leibniz et Descartes ont pu lire les ouvrages les uns des autres, c’est parce qu’ils s’exprimaient en latin, car la langue maternelle de Leibniz était l’allemand, celle de Spinoza le hollandais, et celle de Descartes le français. La langue commune était alors le latin. Aujourd’hui, c’est une position occupée par l’anglais. M. Rouart et moi-même nous entendons pour défendre le français. Ce qui nous différencie, c’est la question de la finalité de la loi sur l’enseignement supérieur.

Ce débat ne montre-t-il pas le malaise de la France dans la mondialisation ?

Nous avons une tradition jacobine qui s’est incarnée à gauche, même chez les communistes, autant qu’à droite chez les gaullistes – si tant est que l’on puisse considérer que le gaullisme est de droite. Cette tradition est présente dans le code Napoléon : le droit va de l’Etat vers la société civile. Il faut rappeler que la France est le plus vieil Etat-nation du monde.

J.-M. R. : La mondialisation est une catastrophe.

L. F. : Pas du tout.

Le danger des plateformes de streaming (Cate Blanchett )

 Le danger  des plateformes de  streaming  (Cate Blanchett )

 

 

L’actrice australienne Cate Blanchett a défendu, samedi 12 février, le cinéma confronté à la domination des plateformes de streaming et des séries dopées par la pandémie, s’inquiétant de l’émergence d’un modèle créatif unique. ( dans le Figaro)

 

«Les monopoles sont désastreux et dangereux», a-t-elle déclaré samedi à Valence (est de l’Espagne), où elle devait recevoir en soirée le prix Goya international décerné par l’Académie espagnole du cinéma. «Nous devons faire en sorte de continuer à développer de bons projets» sans «devenir des esclaves du format de la série», a-t-elle plaidé.

 

Cate Blanchett – qui a joué dans le récent succès de la plateforme de streaming Netflix Don’t Look Up - a évoqué la qualité de telles productions mais juge qu’il serait «négligeant» de ne pas réfléchir aux conséquences de cette nouvelle donne du marché.

L’actrice et productrice de 52 ans, qui a notamment remporté deux Oscars et de trois Golden Globes, n’a jamais hésité à s’engager pour des causes telles que le féminisme, l’écologie et le mouvement #MeToo.

Avant de se rendre à Valence pour le grand gala du cinéma espagnol, Blanchett est passée par Madrid pour commencer à travailler sur le prochain film du cinéaste espagnol Pedro Almodóvar. Selon le magazine de cinéma Variety, l’Australienne tiendra non seulement le rôle vedette dans ce qui est le premier long-métrage en anglais d’Almodovar, mais va aussi le coproduire.

Il s’agira d’une adaptation du livre de nouvelles de l’Américaine Lucía Berlín, Manuel à l’usage des femmes de ménage. «Je connais Pedro depuis 20 ans et cela fait longtemps que nous parlons de la possibilité de travailler sur un projet», s’est félicité Cate Blanchett.

Recrutement et Entreprises : Le danger du copinage

Recrutement et Entreprises : Le danger du copinage 

 

Les trois chercheuses en management Cyrlene Claasen, Helena Gonzalez-Gomez et Sarah Hudson montrent, dans une tribune au « Monde », que le fait d’accepter que les relations soient plus utiles que les compétences pour « faire carrière » a un impact négatif sur les entreprises.

 

Tribune.

Le « copinage » est aujourd’hui en France un non-sujet politique. Chacun sait combien les relations sont utiles pour trouver un stage, un job ou simplement grimper les échelons. Beaucoup souffrent de la situation, exaspérés de rester sur le carreau, de se faire doubler par des proches du chef de service, ses camarades de promo, ses amis d’amis, ou par des courtisans pas forcément compétents…

Mais ce favoritisme, contrairement à la discrimination avérée, ne tombe pas sous le coup de la loi. On s’en désole à bas bruit, et on fait avec. Notre enquête montre pourtant les conséquences globalement délétères de ces pratiques contestables, qui minent la motivation au travail d’un grand nombre de salariés, en poussent certains à la démission faute de voir leur apport reconnu à sa juste valeur, et nourrissent plus globalement un large sentiment de frustration.

Menée dans plusieurs pays en parallèle, auprès de quelque 700 salariés, notre recherche met d’abord en évidence un lien fort entre cette pratique du copinage et le niveau des inégalités sociales. Aux Etats-Unis et en Chine, par exemple, les compétences professionnelles sont affichées comme les déterminants majeurs des recrutements et des promotions, mais un système de faveurs réciproques assez puissant fonctionne en sous-main, sans provoquer beaucoup d’émoi.

L’acceptation de ce copinage reste liée au niveau général de la corruption. Dans des pays très corrompus comme la Russie, par exemple, le favoritisme est d’autant mieux accepté dans l’entreprise que toute la société fonctionne sur cette base. Sans piston, sans relations, on ne peut rien obtenir.

On ne s’étonnera pas que la tolérance au copinage soit beaucoup plus faible dans un pays comme l’Allemagne, assez peu inégalitaire (indice de l’ONU) et peu corrompu (Transparency International). Recruter ou promouvoir un copain y suscite une intense réprobation du collectif et amène les salariés à vouloir quitter rapidement un environnement professionnel considéré comme malsain.

En France, pays assez proche de l’Allemagne, en matière d’inégalité et de corruption, le favoritisme devrait donc logiquement engendrer aussi des réactions virulentes. Une étude que nous menons actuellement suggère, en réalité, un double mouvement : une tolérance apparente et, sournoisement, chez les salariés confrontés au phénomène, une diminution de l’engagement affectif envers l’organisation qui les emploie, au risque d’un fort turn-over dans des périodes, comme la période actuelle, où le marché du travail s’avère porteur.

Robots et machines parlantes : le danger de manipulation

Robots et machines parlantes : le danger de manipulation

 

Pour le psychiatre Serge Tisseron, l’installation à domicile d’enceintes connectées, de plus en plus perfectionnées et dotées d’une subjectivité artificielle, va accroître considérablement les pouvoirs de suggestion de ces machines. (tribune Le Monde)

 

Demain, toutes les machines qui nous entourent vont être progressivement dotées de la voix. Et, comme rien ne mobilise autant l’être humain que de pouvoir parler de lui et d’être écouté, certaines d’entre elles deviendront probablement nos confidents privilégiés. Le problème est que plus ces machines bénéficieront de compétences réelles dans le domaine de la compréhension et de la simulation émotionnelle, plus certains d’entre nous seront tentés de leur accorder par projection des compétences imaginaires. Personne, bien entendu, ne les confondra avec des humains, mais nous nous habituerons, à leur contact, à de nouvelles formes de relations qui modifieront peu à peu notre fonctionnement psychique et nos liens avec nos semblables.

Tout d’abord, l’installation d’enceintes connectées de plus en plus perfectionnées dans l’espace domestique va accroître considérablement le potentiel d’« intimité » entre l’homme et ses machines. Même si leurs utilisateurs continuent à les considérer comme des objets perfectionnés, beaucoup risquent de leur octroyer dans leur vie quotidienne des formes de prévenance traditionnellement réservées aux humains, à commencer par la politesse, et de les intégrer au monde de leurs relations sociales. Certains pourraient même être tentés de leur attribuer un peu « d’humanité », selon une gradation pour laquelle j’ai proposé de parler de degrés de « personnéité », puisque l’objet n’aura évidemment pas de personnalité, et encore moins d’humanité. L’homme qui parle à la machine parle en réalité toujours à l’homme qui est derrière la machine.

Il en résultera évidemment des problèmes inédits liés à la sécurité et à la préservation de la vie privée. Comment évoluera la représentation que nous avons de ce qu’est notre intimité ? Et que deviendra notre désir de partage quand une machine se présentera à tout moment comme attentive, disponible et jamais fatiguée de nous écouter ? Comment accepterons-nous d’avoir des émotions non partagées quand des machines capables de simuler l’attention et la compréhension humaine rendront à tout moment possible ce partage ? Et même, pourrons-nous encore éprouver une émotion sans la partager ?

Les capacités d’autorégulation, qui permettent à l’être humain d’organiser ses choix, risquent d’être, elles aussi, fortement impactées par la révolution des machines parlantes. La machine « sujetisée », c’est-à-dire partiellement perçue comme un sujet parce qu’elle est dotée d’une subjectivité artificielle, peut rapidement acquérir des pouvoirs de suggestion. Google, Amazon, Facebook et Apple – les fameux GAFA – ne cachent d’ailleurs pas leur ambition de faire de leurs enceintes connectées un cheval de Troie capable non seulement de capturer nos données les plus intimes, mais aussi de nous faire accepter, à terme, d’autres technologies plus invasives encore, utilisant des avatars numériques, puis des robots physiques dotés de capacités « empathiques ».

 

Ukraine: le réel danger Poutine

Ukraine: le réel danger Poutine

Les inquiétantes gesticulations militaires russes le long de l’Est ukrainien doivent être appréciées à l’aune des convictions affichées par le président de la Russie, observe dans sa chronique Alain Frachon, éditorialiste au « Monde ». (extraits )

 

L’Ukraine reviendra à la Russie, un jour. Vladimir Poutine en est convaincu. Le président russe ne supporte pas l’indépendance de son grand voisin du sud. Dans un article publié en juillet, il écrit : « Russie, Ukraine, un même peuple. » Les inquiétantes gesticulations militaires russes le long de l’Est ukrainien doivent être appréciées à l’aune des convictions ainsi affichées. Et pas autrement.

Poutine a marqué des points. Le déploiement de ses forces en bordure de la région ukrainienne du Donbass, que contrôlent des sécessionnistes affidés à Moscou, a payé. Joe Biden a concédé à son homologue russe l’ouverture d’un débat sur ses griefs concernant l’Ukraine. Le président américain propose qu’on en parle entre les Etats-Unis et quatre autres pays de l’OTAN, d’un côté, la Russie, de l’autre. La position de départ du Kremlin est connue : la non-appartenance de l’Ukraine à l’OTAN doit faire l’objet de « garanties » écrites et contraignantes. C’est une « ligne rouge » que Poutine veut en noir sur blanc.

Dans un « mémorandum » adopté à Bucarest en 2008, l’OTAN reconnaît la vocation de la Géorgie et de l’Ukraine à appartenir un jour à l’organisation. Elle ne fixe cependant aucun calendrier ni n’a ouvert, depuis, la moindre procédure d’adhésion. L’Allemagne et la France sont opposées à cet élargissement et les décisions se prennent à l’unanimité. Mais le Kremlin accuse l’OTAN, notamment les Etats-Unis et la Turquie, de surarmer l’Ukraine de façon menaçante pour la Russie. Il y aurait « otanisation » rampante.

Poutine est fidèle à la démarche stratégique qu’il poursuit depuis 2000. Il entend revenir sur ce que les Russes ont concédé aux Occidentaux au lendemain de la guerre froide, « quand nous étions faibles », dit-il en substance. A tout le moins, il s’agit d’empêcher une extension de l’Alliance atlantique à l’Ukraine, ce pays intimement proche de la Russie par l’histoire, la religion, la culture, la langue et tant de liens familiaux. En jargon « kremlinien », on parle d’arrêter « la tentative d’endiguement de la Russie par le collectif occidental » – lequel « collectif » est accusé d’avoir renié sa promesse post-guerre froide de ne pas élargir l’OTAN.

Le problème avec ce récit est qu’il est pour le moins contestable. Fin mai 1990, alors que ni l’URSS ni son alliance militaire, le pacte de Varsovie, ne sont encore dissoutes, le président Mikhaïl Gorbatchev est en visite d’Etat aux Etats-Unis. Son hôte, George H. W. Bush, défend l’idée que l’Allemagne, alors en voie de réunification, doit rester dans l’OTAN. L’Américain se réfère aux principes arrêtés lors des accords d’Helsinki en 1975 qui codifiaient les relations entre l’Est et l’Ouest : un pays est libre du choix de ses alliances. Le lendemain, lors d’une conférence de presse commune avec Gorbatchev, Bush déclare : « Nous sommes pleinement en accord l’un et l’autre pour dire que, conformément à l’Acte final d’Helsinki, la question des alliances [de l’Allemagne] relève des Allemands. » Qui veulent rester dans l’OTAN.

 

Finances: Le danger du bitcoin

Finances: Le danger  du bitcoin 

 

Nicolas Dufrêne,  Jean-Michel Servet, économistes estiment

qu’en n matière d’alternative monétaire, la valeur ajoutée de cette cryptomonnaie par rapport aux moyens de paiement existants est nulle.

 

Tribune.

 

 L’histoire monétaire est traversée d’expérimentations, d’évolutions et… de retours en arrière. Cachées sous des habits techniques, certaines « innovations » constituent en réalité de dangereuses régressions. Ce fut le cas, par exemple, du Coinage Act de 1873 aux Etats-Unis. Cette loi entérina l’abandon du bimétallisme en restreignant l’usage monétaire de l’argent au seul profit de l’or, soi-disant afin de protéger la valeur de la monnaie. Il en résulta une réduction de la masse monétaire et une grande dépression économique. Aujourd’hui, un nouveau danger nous guette : la fascination pour le bitcoin, qualifié d’« or numérique ».

Car si l’or est définitivement une « relique barbare », selon l’expression de John Maynard Keynes (1883-1946) – le métal jaune n’exerce plus aujourd’hui qu’un rôle de réserve de valeur –, sa version 2.0 n’est certes pas plus utile, mais elle est bien plus dangereuse. Le bitcoin a certes joué un rôle-clé dans l’essor de la blockchain, ce système numérique de certification et de sécurisation des échanges, mais celui-ci se développe aujourd’hui sans lui. Ceci mis à part, il devient un danger pour le système monétaire, financier et même pour l’égalité entre les citoyens.

Rappelons d’abord qu’en douze ans d’existence, soit une durée infinie à l’ère du numérique, il ne sert toujours qu’à un nombre infime de transactions non spéculatives. En 1945, dans le Berlin ruiné d’après-guerre, la cigarette n’avait pas mis deux semaines à s’étendre à quasiment toutes les transactions possibles. Le bitcoin ne finance rien d’économiquement et socialement utile et ne permet aucune création monétaire concertée pour un but précis (tel que le financement des dépenses de la transition écologique).

Contrairement aux grands systèmes de paiement comme Visa ou Mastercard, son interface technique est de toute façon incapable de gérer plusieurs centaines de milliers de transactions de manière simultanée. S’il se voulait monnaie, le bitcoin a donc clairement échoué. Et il ne peut l’être, du fait des fluctuations erratiques de son cours. En matière d’alternative monétaire, la valeur ajoutée du bitcoin par rapport à l’existant est nulle.

Le bitcoin servirait-il, au moins, d’outil de lutte contre l’affaiblissement de la monnaie, provoquée par une création monétaire excessive ? C’est là un joli paradoxe : cet actif spéculatif, vivant essentiellement des politiques expansionnistes des banques centrales, serait anti-inflationniste. Or il ne doit la croissance de son cours qu’à sa capacité à détourner des centaines de milliards d’euros de l’économie réelle pour des motifs spéculatifs. Il participe donc de l’inflation des produits financiers, et il est déflationniste pour l’économie réelle : c’est la pire configuration possible pour un développement économique sain. Selon Chainanalysis, près de 98,7 % des transactions en bitcoin se font pour un motif de spéculation et non de transaction.

Le danger Omicron: surtout en février-mars (Bruno Lina, virologue)

Le danger  Omicron: surtout en février-mars (Bruno Lina, virologue)

 

. Le chercheur Bruno Lina, virologue, membre du conseil scientifique explique le variant Omicron pourrait être une menace en février-mars mais que l’ennemi numéro un de Noël, c’est Delta  contre lequel nous pouvons agir. (Interview JDD)

 

Omicron circule-t-il déjà en France?
Il est partout, oui. Vendredi, 12 cas avaient été confirmés en France et 109 sur le continent européen. Pour l’instant, tous les cas détectés dans notre pays sont des cas d’importation mais ça va probablement changer. Les résultats de l’avant-dernière enquête flash sur les variants, une opération que nous réalisons chaque semaine pour surveiller les variants sur une part importante des tests positifs d’une journée donnée, seront publiés en début de semaine. Ils devraient montrer que, la semaine du 14 au 20 novembre, c’est-à-dire celle précédant l’alerte sur Omicron du 25 novembre, ce virus n’était pas encore présent. Ce week-end, nous allons analyser les les 12.000 séquences effectuées du 23 au 30 novembre

12.000 séquençages sur 50.000 nouveaux cas environ chaque jour et donc 100.000 possibles, est-ce suffisant?
C’est une proportion suffisante et significative! Je ne veux pas rentrer dans un débat sans fin. Oui, les Anglais séquencent plus que nous mais leur système a été mis en place il y a dix ans. Nous pouvons nous réjouir d’avoir considérablement accru nos capacités de séquençage depuis le début de la pandémie. Tout séquencer ne sert à rien. Le système de surveillance est aujourd’hui bien calibré. Ce qui importe, c’est de suivre l’évolution des différentes souches. En France, Delta est toujours ultra-dominant avec environ 99% des séquences mais nous surveillons également, depuis trois à quatre semaines, un autre variant, le B.1.640, détecté pour la première fois au Congo et en France. Il porte beaucoup de mutations, sans atteindre le nombre record d’Omicron, et il a lui aussi un potentiel de transmission important. Nos collègues européens nous demandent régulièrement des informations à son sujet. L’Institut Pasteur, qui effectue des tests en laboratoire sur ce virus, va rendre publics ses résultats dans de brefs délais. On espère qu’ils seront rassurants.

 

Combien de temps faut-il pour séquencer un prélèvement suspect?
Certains chercheurs vendent du rêve en disant que cette opération peut être effectuée en douze heures! C’est possible en cas d’extrême urgence mais pas en routine. Aujourd’hui, il existe deux technologies de séquençage. La première, à haut débit, permet d’étudier en même temps 1.500 échantillons mais il faut ensuite interpréter les résultats obtenus. Bref, cinq à huit jours sont nécessaires avant d’obtenir la totalité des résultats. La deuxième, beaucoup plus rapide, peut les fournir en vingt-quatre à trente-six heures mais on ne peut pas étudier plus de 10 à 15 prélèvements par jour.

Une étude sud-africaine prépubliée sur Internet et relayée par le New York Times suggère qu’Omicron serait deux fois plus contagieux que Delta. Qu’en pensez-vous?
Il est impossible de générer aussi rapidement des données robustes d’épidémiologie descriptive, des modélisations. Les études prépubliées et non revues par d’autres scientifiques sont parfois très bonnes ; d’autres fois, sont biaisées. On peut rarement faire vite et bien pour calculer le R0, c’est-à-dire le nombre moyen de personnes contaminées par un cas. Il faut en général analyser plusieurs épisodes de transmission pour parvenir à un résultat solide. Pour déterminer la transmissibilité d’Omicron et savoir s’il peut se répandre à travers le monde, il faut scruter l’évolution de l’épidémie en Afrique du Sud, mais ça ne suffit pas. Car ce pays était, avant l’arrivée du variant, dans un creux épidémique avec une incidence très basse, de l’ordre de 5 nouveaux cas par jour pour 100.000 habitants. Un élément important sera d’observer comment il va se comporter par rapport à Delta, notamment en Europe où ce virus flambe. Le cluster d’Omicron identifié en Norvège après un dîner d’entreprise où plus de la moitié des 120 convives ont été testés positifs va nous aider à évaluer son potentiel de diffusion. Mais tout ça va prendre du temps.

Lire aussi - Covid-19 : à Marseille, des soignants épuisés au chevet des patients non-vaccinés

Anthony Fauci, le conseiller médical en chef du président américain, a pourtant promis de premières données solides pour la fin de cette semaine. Les aura-t-on?
On devrait avoir très vite de premières données de laboratoire venues du monde entier. Chez nous, une équipe de l’Institut Pasteur à Paris et une autre de l’université d’Aix-Marseille se chargent de faire ces tests dits de séroneutralisation. Il s’agit de cultiver du virus puis de voir, dans le tube à essai, comment il se comporte avec les anticorps monoclonaux. Ces médicaments prescrits dans les hôpitaux pour prévenir les formes sévères marchent-ils encore ou pas avec Omicron? Les chercheurs mettent aussi Omicron en présence de sérums de personnes vaccinées, avec deux ou trois doses. Leur but est de voir si cela empêche le virus de pousser ou pas, c’est-à-dire s’il y a une bonne protection ou si la protection diminue. Ces analyses de laboratoire sont ce qu’il y a de plus simple à faire ; c’est pourquoi elles vont donner rapidement des résultats.

Le variant Omicron remet-il en question l’efficacité des vaccins?
Des données préliminaires communiquées par des collègues israéliens suggèrent que non mais je reste très prudent. Pour le moment, on l’ignore.

Les experts britanniques appellent leur gouvernement à durcir les restrictions sans attendre de savoir si Omicron est plus transmissible que Delta. Avons-nous pris la pleine mesure de la menace constituée par ce variant?
Les échanges informels que nous avons avec les scientifiques européens en général et britanniques en particulier me laissent penser qu’ils cherchent d’abord à convaincre le gouvernement de Boris Johnson de réduire drastiquement le niveau de circulation du virus. Là-bas, Delta court depuis plusieurs semaines et même plusieurs mois. Un taux d’incidence très élevé est devenu acceptable. Ce n’est pas le choix qu’a fait la France.

Comment freiner la cinquième vague et retarder l’arrivée d’Omicron?
On peut minimiser l’impact de cette vague. Une somme de petites actions simples, comme un effort sur le port du masque, sur l’aération, l’utilisation de gel hydroalcoolique, la pratique du télétravail dans les semaines précédant les fêtes peuvent nous permettre d’y parvenir. Les modélisations de l’Institut Pasteur montrent que nos efforts n’ont pas besoin d’être démesurés. Car, contrairement à l’an dernier, nous sommes massivement vaccinés. Et les gestes barrière et les mesures de distanciation sont très efficaces dans une population ainsi immunisée. De récentes études scientifiques montrent que le schéma à trois doses offre de très bons niveaux de protection et peut freiner la diffusion du virus. Les personnes qui ont reçu un rappel le transmettent nettement moins que celles qui n’ont eu que deux injections. Cet atout incroyable s’ajoute au reste de l’arsenal disponible. Il n’y a pas de fatalité à ce que nous soyons soumis à un couvre-feu ou confinés. Si nous ne faisons pas un effort collectif, il se pourrait que les hôpitaux ne tiennent pas le choc. Les personnels des services qui prennent en charge les malades du Covid-19 sont épuisés par quatre vagues successives et désespérés de voir que la majorité de ces patients ne sont pas vaccinés.

Ce nouveau variant peut-il gâcher Noël?
Omicron sera peut-être une menace en février, mars ou pour Pâques! Lorsque j’ai vu sa séquence génétique la semaine dernière, j’ai pensé : « Ce n’est pas du tout une bonne nouvelle. » Mais ce n’est pas pour autant une catastrophe annoncée. Notre problème, pour les fêtes, c’est Delta. Le pic est attendu pour début janvier car il y a une inertie dans l’évolution de l’épidémie.

Omicron remet-il en cause l’intérêt d’un rappel vaccinal?
Attendre d’hypothétiques vaccins adaptés à un variant dont on n’a pas la certitude qu’il va devenir dominant n’a aucun sens. Quand un incendie démarre, on jette de l’eau sur le feu au plus vite. Ce genre de discours attentiste relève de l’hésitation vaccinale. Les vaccins actuels sont très efficaces contre Delta. L’immunité stérilisante, au niveau du nez et de la bouche, celle qui permet de limiter la transmission du virus, remonte à 90% après la troisième dose.

Les tests antigéniques gardent-ils leur efficacité avec Omicron?
Une étude réalisée par des scientifiques autrichiens et une autre effectuée par un groupe de recherche européen suggèrent qu’ils continuent de très bien fonctionner avec ce variant. Ce n’est pas surprenant car ces kits ciblent la protéine N du virus et pas la protéine de surface Spike sur laquelle les mutations sont plus nombreuses. Du côté des tests PCR, tout va très bien aussi. La méthode de criblage permettant de détecter Omicron est déployée dans tout le pays.

 

Les écoliers sont-ils le moteur de cette cinquième vague?
Les enfants, dans les tranches d’âge non vaccinées, sont désormais le principal moteur de la reprise épidémique. Faut-il pour autant fermer les écoles ou rallonger les vacances? Je ne le crois pas. Les élèves ont beaucoup souffert des fermetures, même si la France peut s’enorgueillir d’être le pays de l’OCDE qui les a gardées ouvertes le plus longtemps. Une des solutions, c’est le développement du dépistage. Dans ma région Auvergne-Rhône-Alpes, nous testons, depuis la rentrée de la Toussaint, le dépistage systématique hebdomadaire des enfants dans une trentaine d’écoles. L’équipe de Vittoria Colizza, à l’Inserm, a montré que ça pouvait en théorie réduire la circulation du virus car les écoliers asymptomatiques sont repérés. Dans l’attente de nos résultats ainsi que de ceux d’expériences menées en Ile-de-France et en Nouvelle-Aquitaine, il semble que les parents adhèrent plutôt bien à cette expérience. Le dépistage réactif mis en place récemment par le ministère de l’Éducation nationale, c’est-à-dire le fait de tester toute une classe en cas de découverte d’un enfant positif, est utile mais moins efficace car il ne permet de détecter que le sommet de l’iceberg. Beaucoup d’enfants sans symptômes diffusent le virus. Ce n’est sans doute pas l’option la plus protectrice, surtout quand l’incidence dépasse 800 nouveaux cas quotidiens pour 100.000 enfants.

Certains se méfient du vaccin de Moderna. Comprenez-vous ces réticences?
Pour les plus de 30 ans, il n’y a aucun risque, que des bénéfices. Durant une période de reprise épidémique comme celle que nous vivons, la vaccination offre non seulement une protection individuelle mais une protection collective. N’oublions pas qu’au cœur de notre devise républicaine, il y a la notion de liberté mais aussi, et au même niveau, celle de fraternité.

Le danger du bitcoin

Le danger  du bitcoin 

 

Nicolas Dufrêne,  Jean-Michel Servet, économistes estiment

qu’en n matière d’alternative monétaire, la valeur ajoutée de cette cryptomonnaie par rapport aux moyens de paiement existants est nulle.

 

Tribune.

 

 L’histoire monétaire est traversée d’expérimentations, d’évolutions et… de retours en arrière. Cachées sous des habits techniques, certaines « innovations » constituent en réalité de dangereuses régressions. Ce fut le cas, par exemple, du Coinage Act de 1873 aux Etats-Unis. Cette loi entérina l’abandon du bimétallisme en restreignant l’usage monétaire de l’argent au seul profit de l’or, soi-disant afin de protéger la valeur de la monnaie. Il en résulta une réduction de la masse monétaire et une grande dépression économique. Aujourd’hui, un nouveau danger nous guette : la fascination pour le bitcoin, qualifié d’« or numérique ».

Car si l’or est définitivement une « relique barbare », selon l’expression de John Maynard Keynes (1883-1946) – le métal jaune n’exerce plus aujourd’hui qu’un rôle de réserve de valeur –, sa version 2.0 n’est certes pas plus utile, mais elle est bien plus dangereuse. Le bitcoin a certes joué un rôle-clé dans l’essor de la blockchain, ce système numérique de certification et de sécurisation des échanges, mais celui-ci se développe aujourd’hui sans lui. Ceci mis à part, il devient un danger pour le système monétaire, financier et même pour l’égalité entre les citoyens.

Rappelons d’abord qu’en douze ans d’existence, soit une durée infinie à l’ère du numérique, il ne sert toujours qu’à un nombre infime de transactions non spéculatives. En 1945, dans le Berlin ruiné d’après-guerre, la cigarette n’avait pas mis deux semaines à s’étendre à quasiment toutes les transactions possibles. Le bitcoin ne finance rien d’économiquement et socialement utile et ne permet aucune création monétaire concertée pour un but précis (tel que le financement des dépenses de la transition écologique).

Contrairement aux grands systèmes de paiement comme Visa ou Mastercard, son interface technique est de toute façon incapable de gérer plusieurs centaines de milliers de transactions de manière simultanée. S’il se voulait monnaie, le bitcoin a donc clairement échoué. Et il ne peut l’être, du fait des fluctuations erratiques de son cours. En matière d’alternative monétaire, la valeur ajoutée du bitcoin par rapport à l’existant est nulle.

Le bitcoin servirait-il, au moins, d’outil de lutte contre l’affaiblissement de la monnaie, provoquée par une création monétaire excessive ? C’est là un joli paradoxe : cet actif spéculatif, vivant essentiellement des politiques expansionnistes des banques centrales, serait anti-inflationniste. Or il ne doit la croissance de son cours qu’à sa capacité à détourner des centaines de milliards d’euros de l’économie réelle pour des motifs spéculatifs. Il participe donc de l’inflation des produits financiers, et il est déflationniste pour l’économie réelle : c’est la pire configuration possible pour un développement économique sain. Selon Chainanalysis, près de 98,7 % des transactions en bitcoin se font pour un motif de spéculation et non de transaction.

Variant Omicron: le danger sera surtout en février-mars (Bruno Lina, virologue)

Variant Omicron: le danger sera surtout en février-mars (Bruno Lina, virologue)

 

. Le chercheur Bruno Lina, virologue, membre du conseil scientifique explique le variant Omicron pourrait être une menace en février-mars mais que l’ennemi numéro un de Noël, c’est Delta, contre lequel nous pouvons agir. (Interview JDD)

 

Omicron circule-t-il déjà en France?
Il est partout, oui. Vendredi, 12 cas avaient été confirmés en France et 109 sur le continent européen. Pour l’instant, tous les cas détectés dans notre pays sont des cas d’importation mais ça va probablement changer. Les résultats de l’avant-dernière enquête flash sur les variants, une opération que nous réalisons chaque semaine pour surveiller les variants sur une part importante des tests positifs d’une journée donnée, seront publiés en début de semaine. Ils devraient montrer que, la semaine du 14 au 20 novembre, c’est-à-dire celle précédant l’alerte sur Omicron du 25 novembre, ce virus n’était pas encore présent. Ce week-end, nous allons analyser les les 12.000 séquences effectuées du 23 au 30 novembre

12.000 séquençages sur 50.000 nouveaux cas environ chaque jour et donc 100.000 possibles, est-ce suffisant?
C’est une proportion suffisante et significative! Je ne veux pas rentrer dans un débat sans fin. Oui, les Anglais séquencent plus que nous mais leur système a été mis en place il y a dix ans. Nous pouvons nous réjouir d’avoir considérablement accru nos capacités de séquençage depuis le début de la pandémie. Tout séquencer ne sert à rien. Le système de surveillance est aujourd’hui bien calibré. Ce qui importe, c’est de suivre l’évolution des différentes souches. En France, Delta est toujours ultra-dominant avec environ 99% des séquences mais nous surveillons également, depuis trois à quatre semaines, un autre variant, le B.1.640, détecté pour la première fois au Congo et en France. Il porte beaucoup de mutations, sans atteindre le nombre record d’Omicron, et il a lui aussi un potentiel de transmission important. Nos collègues européens nous demandent régulièrement des informations à son sujet. L’Institut Pasteur, qui effectue des tests en laboratoire sur ce virus, va rendre publics ses résultats dans de brefs délais. On espère qu’ils seront rassurants.

 

Combien de temps faut-il pour séquencer un prélèvement suspect?
Certains chercheurs vendent du rêve en disant que cette opération peut être effectuée en douze heures! C’est possible en cas d’extrême urgence mais pas en routine. Aujourd’hui, il existe deux technologies de séquençage. La première, à haut débit, permet d’étudier en même temps 1.500 échantillons mais il faut ensuite interpréter les résultats obtenus. Bref, cinq à huit jours sont nécessaires avant d’obtenir la totalité des résultats. La deuxième, beaucoup plus rapide, peut les fournir en vingt-quatre à trente-six heures mais on ne peut pas étudier plus de 10 à 15 prélèvements par jour.

Une étude sud-africaine prépubliée sur Internet et relayée par le New York Times suggère qu’Omicron serait deux fois plus contagieux que Delta. Qu’en pensez-vous?
Il est impossible de générer aussi rapidement des données robustes d’épidémiologie descriptive, des modélisations. Les études prépubliées et non revues par d’autres scientifiques sont parfois très bonnes ; d’autres fois, sont biaisées. On peut rarement faire vite et bien pour calculer le R0, c’est-à-dire le nombre moyen de personnes contaminées par un cas. Il faut en général analyser plusieurs épisodes de transmission pour parvenir à un résultat solide. Pour déterminer la transmissibilité d’Omicron et savoir s’il peut se répandre à travers le monde, il faut scruter l’évolution de l’épidémie en Afrique du Sud, mais ça ne suffit pas. Car ce pays était, avant l’arrivée du variant, dans un creux épidémique avec une incidence très basse, de l’ordre de 5 nouveaux cas par jour pour 100.000 habitants. Un élément important sera d’observer comment il va se comporter par rapport à Delta, notamment en Europe où ce virus flambe. Le cluster d’Omicron identifié en Norvège après un dîner d’entreprise où plus de la moitié des 120 convives ont été testés positifs va nous aider à évaluer son potentiel de diffusion. Mais tout ça va prendre du temps.

Lire aussi - Covid-19 : à Marseille, des soignants épuisés au chevet des patients non-vaccinés

Anthony Fauci, le conseiller médical en chef du président américain, a pourtant promis de premières données solides pour la fin de cette semaine. Les aura-t-on?
On devrait avoir très vite de premières données de laboratoire venues du monde entier. Chez nous, une équipe de l’Institut Pasteur à Paris et une autre de l’université d’Aix-Marseille se chargent de faire ces tests dits de séroneutralisation. Il s’agit de cultiver du virus puis de voir, dans le tube à essai, comment il se comporte avec les anticorps monoclonaux. Ces médicaments prescrits dans les hôpitaux pour prévenir les formes sévères marchent-ils encore ou pas avec Omicron? Les chercheurs mettent aussi Omicron en présence de sérums de personnes vaccinées, avec deux ou trois doses. Leur but est de voir si cela empêche le virus de pousser ou pas, c’est-à-dire s’il y a une bonne protection ou si la protection diminue. Ces analyses de laboratoire sont ce qu’il y a de plus simple à faire ; c’est pourquoi elles vont donner rapidement des résultats.

Le variant Omicron remet-il en question l’efficacité des vaccins?
Des données préliminaires communiquées par des collègues israéliens suggèrent que non mais je reste très prudent. Pour le moment, on l’ignore.

Les experts britanniques appellent leur gouvernement à durcir les restrictions sans attendre de savoir si Omicron est plus transmissible que Delta. Avons-nous pris la pleine mesure de la menace constituée par ce variant?
Les échanges informels que nous avons avec les scientifiques européens en général et britanniques en particulier me laissent penser qu’ils cherchent d’abord à convaincre le gouvernement de Boris Johnson de réduire drastiquement le niveau de circulation du virus. Là-bas, Delta court depuis plusieurs semaines et même plusieurs mois. Un taux d’incidence très élevé est devenu acceptable. Ce n’est pas le choix qu’a fait la France.

Comment freiner la cinquième vague et retarder l’arrivée d’Omicron?
On peut minimiser l’impact de cette vague. Une somme de petites actions simples, comme un effort sur le port du masque, sur l’aération, l’utilisation de gel hydroalcoolique, la pratique du télétravail dans les semaines précédant les fêtes peuvent nous permettre d’y parvenir. Les modélisations de l’Institut Pasteur montrent que nos efforts n’ont pas besoin d’être démesurés. Car, contrairement à l’an dernier, nous sommes massivement vaccinés. Et les gestes barrière et les mesures de distanciation sont très efficaces dans une population ainsi immunisée. De récentes études scientifiques montrent que le schéma à trois doses offre de très bons niveaux de protection et peut freiner la diffusion du virus. Les personnes qui ont reçu un rappel le transmettent nettement moins que celles qui n’ont eu que deux injections. Cet atout incroyable s’ajoute au reste de l’arsenal disponible. Il n’y a pas de fatalité à ce que nous soyons soumis à un couvre-feu ou confinés. Si nous ne faisons pas un effort collectif, il se pourrait que les hôpitaux ne tiennent pas le choc. Les personnels des services qui prennent en charge les malades du Covid-19 sont épuisés par quatre vagues successives et désespérés de voir que la majorité de ces patients ne sont pas vaccinés.

Ce nouveau variant peut-il gâcher Noël?
Omicron sera peut-être une menace en février, mars ou pour Pâques! Lorsque j’ai vu sa séquence génétique la semaine dernière, j’ai pensé : « Ce n’est pas du tout une bonne nouvelle. » Mais ce n’est pas pour autant une catastrophe annoncée. Notre problème, pour les fêtes, c’est Delta. Le pic est attendu pour début janvier car il y a une inertie dans l’évolution de l’épidémie.

Omicron remet-il en cause l’intérêt d’un rappel vaccinal?
Attendre d’hypothétiques vaccins adaptés à un variant dont on n’a pas la certitude qu’il va devenir dominant n’a aucun sens. Quand un incendie démarre, on jette de l’eau sur le feu au plus vite. Ce genre de discours attentiste relève de l’hésitation vaccinale. Les vaccins actuels sont très efficaces contre Delta. L’immunité stérilisante, au niveau du nez et de la bouche, celle qui permet de limiter la transmission du virus, remonte à 90% après la troisième dose.

Les tests antigéniques gardent-ils leur efficacité avec Omicron?
Une étude réalisée par des scientifiques autrichiens et une autre effectuée par un groupe de recherche européen suggèrent qu’ils continuent de très bien fonctionner avec ce variant. Ce n’est pas surprenant car ces kits ciblent la protéine N du virus et pas la protéine de surface Spike sur laquelle les mutations sont plus nombreuses. Du côté des tests PCR, tout va très bien aussi. La méthode de criblage permettant de détecter Omicron est déployée dans tout le pays.

 

Les écoliers sont-ils le moteur de cette cinquième vague?
Les enfants, dans les tranches d’âge non vaccinées, sont désormais le principal moteur de la reprise épidémique. Faut-il pour autant fermer les écoles ou rallonger les vacances? Je ne le crois pas. Les élèves ont beaucoup souffert des fermetures, même si la France peut s’enorgueillir d’être le pays de l’OCDE qui les a gardées ouvertes le plus longtemps. Une des solutions, c’est le développement du dépistage. Dans ma région Auvergne-Rhône-Alpes, nous testons, depuis la rentrée de la Toussaint, le dépistage systématique hebdomadaire des enfants dans une trentaine d’écoles. L’équipe de Vittoria Colizza, à l’Inserm, a montré que ça pouvait en théorie réduire la circulation du virus car les écoliers asymptomatiques sont repérés. Dans l’attente de nos résultats ainsi que de ceux d’expériences menées en Ile-de-France et en Nouvelle-Aquitaine, il semble que les parents adhèrent plutôt bien à cette expérience. Le dépistage réactif mis en place récemment par le ministère de l’Éducation nationale, c’est-à-dire le fait de tester toute une classe en cas de découverte d’un enfant positif, est utile mais moins efficace car il ne permet de détecter que le sommet de l’iceberg. Beaucoup d’enfants sans symptômes diffusent le virus. Ce n’est sans doute pas l’option la plus protectrice, surtout quand l’incidence dépasse 800 nouveaux cas quotidiens pour 100.000 enfants.

Certains se méfient du vaccin de Moderna. Comprenez-vous ces réticences?
Pour les plus de 30 ans, il n’y a aucun risque, que des bénéfices. Durant une période de reprise épidémique comme celle que nous vivons, la vaccination offre non seulement une protection individuelle mais une protection collective. N’oublions pas qu’au cœur de notre devise républicaine, il y a la notion de liberté mais aussi, et au même niveau, celle de fraternité.

12345...9



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol