Archive mensuelle de août 2023

Page 4 sur 36

Mobilisation sociale et pouvoir d’achat: manif le 13 octobre de l’intersyndicale

Mobilisation sociale et pouvoir d’achat: manif le 13 octobre de l’intersyndicale

Face à l’inflation notamment qui se maintient au niveau, l’intersyndicale réunie a décidé le principe d’une mobilisation le 13 octobre.

Sans doute le début d’une nouvelle série de manifestations voire de grèves. En effet, une autre date de mobilisation a d’ores et déjà été retenu le 13 décembre, date aussi décidée par le cadre européen.

Dans la plupart des sondages la question du pouvoir d’achat émerge en premier du fait en particulier de l’envol des prix de l’alimentaire. Des prix qui contrairement aux affirmations du ministre de l’économie ne se sont nullement tassés cours de l’été. Globalement, il manque environ 4 % au pouvoir d’achat pour rattraper l’inflation.

« Tous les syndicats font leur effort pour montrer que l’intersyndicale demeure », a déclaré ce lundi soir sur franceinfo François Hommeril, président de la CFE-CGC, alors que l’intersyndicale, qui a mené la bataille contre la réforme des retraites, appelle à la mobilisation le vendredi 13 octobre « pour les salaires, l’égalité hommes/femmes et contre l’austérité ».

« Le sujet des retraites nous occupe encore aujourd’hui », estime François Hommeril, mais « la problématique peut-être la plus importante aujourd’hui, c’est le niveau des salaires ». « Le problème est particulièrement vif », selon le syndicaliste, « avec l’inflation très forte, nous avons une baisse tendancielle des salaires dans notre pays ».

« Aucune mesure » pour lutter contre l’inflation
« La perte de pouvoir d’achat est réelle, tandis qu’au niveau des profits des entreprises, il n’y a pas eu de baisse, au contraire, les profits explosent », ajoute François Hommeril, évoquant « un scandale absolu que personne ne peut accepter ».

Un avis partagé par Thomas Vacheron, secrétaire confédéral de la CGT, également invité lundi soir sur franceinfo. « Au vu des bénéfices réalisés, des aides publiques allouées, toutes les organisations syndicales disent aux patrons : c’est l’heure de partager les richesses. »

Energie : une triple diversification est nécessaire

Energie : une triple diversification est nécessaire

La crise du Covid, a déséquilibré le marché pétrolier. L’industrie et les transports ont vu leur activité plonger, et la consommation de pétrole a suivi, conduisant les cours à moins de 20 dollars le baril. A peine sortie de ce plongeon, les marchés du gaz, et du pétrole à nouveau ont été bousculés par l’invasion de l’Ukraine par l’armée russe. Enfin, le réchauffement climatique met une réelle pression réglementaire dans tous les pays industrialisés, avec une optique zéro-carbone, à travers des objectifs internationaux et, nationaux.

par Gérard Vespierre, analyste géopolitique, chercheur associé à la FEMO, fondateur du média web Le Monde Décrypté www.lemonde-decrypte.com (dans La Tribune)

Le marché global de l’énergie, et en conséquence les choix et les stratégies des États sont donc soumis à des chocs cumulés, sans précédents. De cette situation de déséquilibre soudain, et violent par la rapidité de son occurrence, il est possible de discerner les caractéristiques stratégiques essentielles qui permettent de minimiser les conséquences de ces nouvelles contraintes.

Selon le vieil adage de sagesse, selon lequel il ne faut pas mettre tous ses œufs dans le même panier, la stratégie numéro un, repose sur la diversification des sources d’énergies. De ce point de vue, notre pays a suivi ce schéma. Les ressources énergétiques de la France s’appuient sur une grande diversification, nucléaire, pétrole, gaz, hydraulique, solaire, et éolien. Il s’y ajoutera bientôt l’hydrogène, encore marginal.

A ce premier niveau de diversification, il convient d’en ajouter un second, à savoir l’équilibre entre les fournisseurs, pour les énergies dont les matières premières sont importées.

A nouveau la France a su construire une stratégie d’approvisionnement équilibrée, tant pour ses approvisionnements de pétrole que d’uranium. Concernant le pétrole, les deux premiers, en 2021, le Kazakhstan et les États-Unis, voient leurs parts se situer en dessous de 15%, et les deux suivants, Algérie et Nigéria, se situent à 12% chacun.

Concernant l’Uranium, nous retrouvons à nouveau le Kazakhstan en première position, avec 20% de nos approvisionnements, et les 3 pays suivants, Australie, Niger, Ouzbékistan, représentent chacun entre 15 et 20%. A nouveau, aucun pays fournisseur particulièrement dominant.

Enfin, le troisième niveau de diversification s’illustre dans la géographie des sources. Il est en effet essentiel que les principaux fournisseurs ne se situent pas dans la même zone géographique. Nous voyons à nouveau ici une stratégie française très diversifiée, allant des États-Unis, à l’Asie Centrale, en passant par la zone Pacifique et l’Afrique.

Trop souvent critiques de leurs propres situations, ou de nos choix, les Français devraient se réjouir d’une telle situation, particulièrement….cartésienne, et porteuse d’avantages compétitifs pour notre industrie, donc pour l’emploi, et le développement de notre pays.

S’éloigner d’un tel schéma stratégique, très rationnel, de triple diversification constitue un danger. Un contre-exemple ne serait-il pas à considérer de l’autre côté du Rhin ?

Les choix radicaux de l’Allemagne

L’accident de la centrale nucléaire de Fukushima, a conduit Berlin à abandonner progressivement son programme de centrales nucléaires. Une telle décision, très stratégique, a beaucoup étonné. Cet accident au Japon ne relevait pas directement d’un problème d’exploitation, mais des conséquences d’une secousse tellurique marine. Ces conditions, extérieures, ne pouvaient offrir aucun parallèle avec la position géographique et maritime allemande….

De façon à compenser l’arrêt du nucléaire l’Allemagne s’est alors dirigée vers une accélération de son programme d’énergie éolienne, et surtout vers les ressources gazières russes. Ce choix stratégique s’est articulé autour d’une vision de philosophie politique vis-à-vis de la Russie, résumée dans l’expression allemande « Wandel durch Handel », transformer par le commerce…. L’objectif étant de faire évoluer le système politique russe par l’influence des échanges commerciaux….

Cette option a conduit l’Allemagne à recevoir 45% de ses approvisionnements en gaz de la Russie. Son invasion soudaine de l’Ukraine a complètement invalidé cette stratégie, de choix massif, donc déséquilibré.

Alors que l’accès à une électricité décarbonée, bon marché déterminera le pays où les entreprises industrielles ouvriront leurs prochaines usines, l’Allemagne se trouve en difficulté face à l’énergie hydraulique des pays nordiques et à l’électronucléaire français.

Autrefois considérée comme une puissance industrielle d’envergure, l’Allemagne est, parmi les économies avancées, celle qui affiche les perspectives les plus difficiles, avec une croissance négative du PIB réel de -0,3 % prévue pour 2023, selon une estimation récente du Fonds monétaire international (FMI).

La question fondamentale pour l’Allemagne est donc de savoir si elle disposera, ou non, dans l’avenir, d’un avantage compétitif concernant le prix de son électricité.

Ce débat, énergétique et économique, est d’autant plus crucial pour l’Allemagne, qu’elle voit son voisin occidental, français, disposer du deuxième parc électronucléaire mondial, et donc de faible coût de production, et son voisin oriental, polonais, qui va se lancer dans cette orientation nucléaire.

L’Allemagne se trouve donc face également à une course au gaz, comme de nombreux pays dans le monde

Le choix stratégique de s’éloigner résolument de l’approvisionnements gazier en provenance de la Russie, a provoqué une ruée vers les sources alternatives, de l’Afrique du Nord aux pays du Golfe. Les pays pétroliers saisissent également cette opportunité de mieux exploiter leurs ressources gazières, tel l’Irak, afin de mieux répondre à leurs propres besoins en électricité.

Il sera particulièrement intéressant de suivre les résultats d’une très prochaine réunion internationale de ce secteur gazier, Gastech 2023 à Singapour. Elle réunira les acteurs mondiaux les plus importants du domaine, du 5 au 8 septembre, en incluant les technologies autour de l’hydrogène et des technologies impliquant le climat.

De plus, cet évènement se déroulera juste 2 mois avant la COP 28, conférence mondiale sur le climat et l’environnement, qui aura lieu aux Émirats Arabes Unis.

L’industrie gazière mondiale confirme ainsi l’importance de son rôle dans la fourniture à court et long terme d’une énergie fiable, et à un coût accessible. Plus de 750 sociétés industrielles y participeront. Du côté des États, plus de 300 représentants politiques sont attendus. Au total plus de 100 pays seront représentés.

Le choix de Singapore représente aussi l’importance grandissante de la zone Indo-Pacifique, tant pour le commerce que pour l’industrie.

On retrouve donc ainsi la mondialisation des questions du climat et de l’énergie, intimement liés. Tous les pays de la planète se retrouvent autour des mêmes dilemmes, ce qui est rarement le cas. Rares sont les domaines qui peuvent fournir une amélioration à court terme. Le secteur gazier peut prétendre être de ceux-là.

Chaque pays de la planète, technologiquement avancé ou non, se trouve ainsi confronté à la rigueur de choix économiques et stratégiques énergétiques, équilibrés, autour d’une diversification, raisonnable et réfléchie.

______

(*) Gérard Vespierre, analyste géopolitique, chercheur associé à la FEMO, fondateur du média web Le Monde Décrypté www.lemonde-decrypte.com

Pas de baisse des taux déclare Le Maire, donc des hausses ?

Pas de baisse des taux déclare Le Maire, donc des hausses ?

Comme déjà indiqué il ne faut guère s’attendre à une stabilisation et encore moins à une baisse des taux d’après les dernières déclarations de la banque fédérale américaine. La FED considère en effet que la lutte contre l’inflation est loin d’être terminée et prévoit de nouvelles hausses d’ici la fin d’année. Cela d’autant plus que la dynamique économique est plus forte que attendu. Contrairement à L’Europe où la croissance se tasse sérieusement et même tutoie la récession en Allemagne mais aussi en France.

Du coup, mécaniquement la présidente de la banque centrale européenne ne peut plus de nouvelle hausse des taux en neurones à la fois lutter contre l’inflation mais aussi pour protéger l’euro. Ce que confirme d’ailleurs le ministre de l’industrie Bruno Lemaire. nterrogé au micro de France Inter ce lundi, le ministre de l’Economie estime que l’inflation n’est pas encore revenue à un niveau raisonnable, éloignant de facto la perspective d’un desserrement de la politique monétaire menée par la BCE. A l’occasion de la réunion des banquiers centraux à Jackson Hole, aux Etats-Unis, sa présidente Christine Lagarde avait rappelé vendredi la volonté de son institution de poursuivre sa politique monétaire restrictive.

« Il n’y aura pas de baisse des taux d’intérêt à court ou à moyen terme (…) tant que l’inflation n’est pas revenue à un niveau plus raisonnable », a-t-il justifié.
« Dans les années 1970, on a mis dix ans à se débarrasser de l’inflation, ça a été terrible pour les catégories les plus modestes, terrible pour notre modèle social, terrible pour la cohésion de la société, là nous sommes en train de réussir en un peu plus de deux ans à faire baisser fortement l’inflation, il ne faut pas dévirer de ce cap », a plaidé Bruno Le Maire.

La BCE a augmenté ses taux pour la première fois mi-juillet 2022, pour enchaîner huit hausses depuis et les porter à 3,75%, un record depuis le printemps 2001. En France, la hausse des prix à la consommation a ralenti à 4,3% sur un an au mois de juillet. En revanche, les prix de l’alimentation sont en forte hausse (12,7%). L’inflation avait dépassé 6% en début d’année.

IA: Une menace pour l’espèce humaine

IA: Une menace pour l’espèce humaine ?

Science et Société-La fin de homme face à l’intelligence artificielle ?

Le développement de l’IA représente une menace de taille pour l’espèce humaine, analyse l’auteur de La Guerre des intelligences (voir résumé) à l’heure de ChatGPT *. Il est urgent, explique-t-il dans le Figaro, de réfléchir à ses conséquences politiques et aux moyens de cohabiter avec elle.

L’arrivée de ChatGPT a relancé le débat sur l’intelligence artificielle générale : de quoi s’agit-il ?

Laurent ALEXANDRE. – Il existe deux types d’IA qui préoccupent les chercheurs. D’abord, l’intelligence artificielle générale, qui serait légèrement supérieure à l’homme dans tous les domaines cognitifs. Ensuite, la super-intelligence artificielle, l’ASI en anglais, qui pourrait être des milliers, voire des millions, de fois supérieure à la totalité des cerveaux sur ­terre.

Faut-il croire à son émergence ou s’agit-il en réalité d’un fantasme ?

Sam Altman, le patron de ChatGPT, a écrit le mois dernier qu’il est convaincu que la super-intelligence artificielle sera là avant 2030. Il n’y a pas de certitude que nous y parviendrons, mais je constate qu’il y a de plus en plus de chercheurs, une grande majorité, même, qui sont aujourd’hui convaincus que l’IA nous dépassera dans tous les domaines.

La Guerre des intelligences -résumé ( de likedin)

Les inégalités de QI sont majoritairement génétiques (de naissance) et globalement héréditaires même si le mode de vie (malbouffe, sous-stimulation…) accentue cet état de fait. De fait, les inégalités de QI se creusent.

Après une période d’augmentation générale du QI (due à une meilleure hygiène de vie), l’effet Flynn s’est tari en occident, entrainant une baisse du QI moyen, car les personnes au meilleur QI font moins d’enfants et les personnes de faibles QI en font plus et les stimulent moins.

En Asie, l’effet Flynn bat son plein : le QI connaît une forte augmentation pour des raisons environnementales (fin de la malnutrition, éducation…).

L’Afrique devrait connaître à son tour une explosion du QI dans les prochaines décennies.

L’éducation est clef : on en est encore à l’âge de pierre. Il n’y a pas d’évaluation des méthodes (cf les débats stériles entre méthode globale et syllabique alors qu’aucune étude sérieuse n’a jamais été menée sur le sujet), process de transmission inchangé depuis des siècles/millénaires (cours magistral de groupe). Grâce aux neurosciences on va vraiment comprendre comment le cerveau apprend / les cerveaux apprennent.

On pourra alors vraiment faire de la pédagogie efficace et individualisée.

Après le QI, le QCIA

Mais au-delà du QI, le vrai enjeu va être le QCIA (quotient de compatibilité avec l’IA) car l’IA arrive à grands pas.

Aujourd’hui, on n’en est qu’aux balbutiements (l’IA est encore faible, il n’existe pas encore d’IA « forte », consciente d’elle-même) mais les développements sont extrêmement rapides.

Les nouvelles IA sont auto-apprenantes (deep-learning) et deviennent des boîtes noires. On ne sait pas vraiment comment elles fonctionnent car elles évoluent d’elles-mêmes en apprenant. Cela les différentie fondamentalement des algorithmes qui sont pré-programmés par quelqu’un, donc auditables.

Les IA apprennent grâce à la masse des données (textes, vidéos, photos, données de navigation…) dont on les nourrit.

Ce n’est pas un hasard si Google et FB sont des créateurs d’IA : avec les datas dont ils disposent, ils peuvent nourrir les IA.

L’Europe en protégeant les données utilisateurs fait prendre un retard à l’IA européenne vs la Chine ou les US.

Les IA vont rapidement remplacer le travail intellectuel (avocat, médecin…) car la masse de données qu’elles possèdent est phénoménale (ex : des millions de clichés radiologiques, des milliards de datas de santé…) et cela permet de réaliser des corrélations impossibles à un humain.

Paradoxalement, les métiers manuels diversifiés seront les derniers remplacés car un robot multitâche coûte plus cher qu’un programme informatique (le radiologue sera remplacé avant l’aide-soignante).

La fin du travail est annoncée par beaucoup, mais cette peur méconnait l’inventivité humaine : de nouveaux métiers vont apparaître autour de l’IA (comme les datascientistes, les développeurs web ou les spécialistes du retargeting n’existaient pas il y a 20 ans). Par nature, on ne peut pas prévoir ce que seront ces jobs, mais ils existeront comme après chaque révolution industrielle. Ce qu’on peut imaginer et que ces futurs emplois seront étroitement liés à l’IA, il est donc essentiel que notre intelligence soit compatible, d’où l’importance du QCIA.

L’IA est pour le court terme une formidable opportunité (elle va résoudre de nombreux problèmes bien mieux que les humains, surtout dans la santé). Le problème est qu’on ne sait pas comment elle va évoluer. Une IA forte (ie avec conscience) peut devenir dangereuse pour l’homme et comme elle sera dupliquée / répartie (via Internet) dans tous les objets connectés, elle sera difficile à tuer en cas de besoin.

Comment l’IA avec conscience se comportera-t-elle avec nous ? Cela est très difficile à prévoir.

Quel avenir pour l’humanité ?

Assez vite, l’homme va être dépassé par l’IA, alors comment rester dans la course et ne pas être asservi ?

- l’eugénisme : les humains mieux sélectionnés in-vitro seront plus intelligents et en meilleure santé (cf Bienvenue à Gattaca). Cela pose évidemment de nombreux problèmes éthiques mais les réponses à ces problèmes seront différentes selon les pays et la Chine et les US sont plus permissifs. Cependant, cette évolution sera lente alors que l’IA évolue en permanence : les humains risquent de rester à la traîne de l’IA. Enfin, maîtriser la conception des enfants doit interroger sur la capacité de survie de l’espèce humaine en tant que telle. Le hasard de la génétique (mutations non prévues) est en effet le moyen trouvé par la vie pour s’adapter, sur le long terme, à un environnement lui-même en évolution permanente (principe de l’évolution).

- l’hybridation : cette solution prônée par Elon Musk consiste à se mettre des implants cérébraux qui vont booster notre cerveau. Si l’idée est très enthousiasmante (maîtriser la connaissance sans effort ni délai), le vrai risque est la manipulation : qui produit les contenus ? seront-ils orientés ? quid du brain washing ? que se passe-t-il si nous sommes hackés ? Ces implants seraient-ils le cheval de Troie d’une véritable dictature de la pensée encore plus aboutie que 1984 ? En effet, si on peut injecter des informations directement dans notre cerveau, il sera possible également de lire nos pensées. Que reste-t-il de nous si nous n’avons même plus de refuge de notre cerveau pour penser en toute liberté ? Quel usage un gouvernement pourrait-il faire de ces informations, qui ne soit pas totalitaire ?

- projeter nos esprits dans des corps robots : la victoire ultime sur la mort. Sans corps, nous sommes immortels. Mais que restera-t-il de nous quand nous serons fusionnés avec l’IA et que la mortalité n’existera plus alors qu’elle est l’essence même de l’homme et vraisemblablement l’origine de son désir créatif ?

Le problème de toutes ces évolutions c’est qu’elles ont des effets bénéfiques individuels indéniables à court terme (moins de maladies, meilleur QI…), mais à la fois vont créer des inégalités temporaires (seuls les riches pourront au début s’offrir cela) et impliquent des changements pour l’humanité toute entière.

Dès lors que les effets bénéfiques sont importants, il sera impossible d’enrayer le développement des IA dans tous les aspects de nos vies. En effet, quel parent pourrait refuser de faire soigner son enfant par une IA plutôt qu’un médecin, si ses chances de survie sont décuplées ? Quel homme politique pourrait assumer de faire prendre à son pays un retard si énorme en terme de santé publique ?

Mais si les humains sont connectés à des implants, l’IA sera certainement dedans. Serons-nous encore des humains ? Comment ne pas être asservis par l’IA si celle-ci est déjà dans nos cerveaux ?

Les technobéats ne réfléchissent pas à plusieurs générations, trop enthousiastes de voir où leur création les mènera. Quant aux politiques ils sont complètement largués et ne comprennent rien à la technologie. De toute manière, ils ne savent pas penser à plus de deux ans.

Au final, l’IA se développe sans maîtrise, car personne ne pense ni ne parle pour l’humanité.

(A ce sujet, je recommande l’essai d’Edmund Burke « Réflexion sur la Révolution de France » qui explique sa pensée, le « conservatisme », et sa vision de la société comme un contrat entre les vivants, mais également entre les vivants, les morts et les futures générations. Il y a certainement des idées pour nourrir le débat.)

Dans tous les cas, la bataille sera gagnée par les tenants de l’hybridation (transhumanistes) car ceux qui s’hybrideront (et ils le feront même si la réglementation le leur interdit) deviendront super-intelligents et deviendront donc de-facto les leaders. Ceux qui refuseront l’hybridation seront à la traîne.

Face à une IA galopante et à l’hybridation, le rôle de l’école va changer. Notre valeur sera dans ce qui fait notre humanité puisque la connaissance sera injectable à la demande sans effort. Donc il faudra former davantage à l’esprit critique, la réflexion, la créativité. L’homme a cet avantage sur la machine de faire des erreurs et c’est des erreurs que viennent des découvertes.

Sport: un marasme sportif à prévoir pour la France aux JO de 2024

Sport: un marasme sportif à prévoir pour la France aux JO de 2024


Le récent championnat du monde d’athlétisme a révélé le véritable niveau sportive de la France. Le pays n’a obtenu en effet aucune médaille d’autres très peu d’autres médailles.
Pourtant pour des raisons politiques la France a été candidate et va organiser les JO de 2024. Tout a été prévu ou presque sauf la stratégie de préparation et de sélection des athlètes.

Il aurait évidemment fallu mettre en œuvre un véritable plan de détection des futurs athlètes à l’école et de mettre en place les moyens correspondants.
Au lieu de cela on a laissé les clubs se débrouiller avec leurs moyens très insuffisants.

Jusque-là en a parlé énormément de JO de 2024 mais en oubliant la problématique des athlètes et du lamentable niveau français. Heureusement il y a quelques disciplines accessoires autres que l’athlétisme qui permettront de masquer l’énorme déception à prévoir pour les JO de 2024.

Cette situation inquiète donc un an avant le début des Jeux olympiques à Paris. « Le bilan n’est pas bon, c’est une déception » a concédé sur franceinfo Romain Barras, le directeur de la haute performance de la fédération française. Les dirigeants de l’athlétisme français, qui se dirige vers son pire bilan aux Mondiaux, ont d’ailleurs rendez-vous au ministère des Sports ce mardi pour s’expliquer. Comment justifier cette débâcle ? Quelles sont les solutions ? Ce bilan calamiteux est-il un mauvais présage pour les Jeux ?

« Si on continue comme ça, je pense que gagner trois médailles aux JO ou aux Mondiaux deviendra exceptionnel » : ce constat cinglant est signé Stéphane Diagana. Interrogé par franceinfo, Le champion du monde 1997 du 400 mètres haies s’alarme notamment d’une place du sport insuffisante en France et notamment dès l’école. Selon le consultant de France Télévisions, il faudrait prendre exemple sur la Slovénie qui mène « un suivi en matière de santé publique depuis quarante ans ». « Tous les gamins en changeant de classe sont évalués sur des capacités physiques », souligne-t-il. Avec ce système, les Slovènes « peuvent alerter ou bien repérer ceux (les jeunes, ndlr) qui ont des qualités particulières. Là-bas, les parents ont envie que leurs enfants soient en bonne santé, qu’ils fassent du sport et après s’ils sont champions, c’est très bien ».

Profits automobiles : les Chinois se gavent

Profits automobiles : les Chinois se gavent

Grâce en particulier aux subventions et à la fiscalité favorable, les constructeurs chinois se gavent en matière de profits; par exemple, le géant BYD ou Build your dreams a présenté des résultats semestriels records. Ses bénéfices ont triplé avec un bénéfice net de 10,95 milliards de yuans (1,39 milliard d’euros) entre janvier et juin, en hausse de 204,6 % sur un an, a indiqué le groupe dans un communiqué à la Bourse de Hong Kong. Le chiffre d’affaires est quant à lui de 260,1 milliards de yuans soit 33,06 milliards d’euros, en hausse de 72,7 % sur un an.

En juin dernier, le pays a, en effet, annoncé un ensemble d’incitations fiscales pour les voitures électriques et hybrides à hauteur de 520 milliards de yuans (66,16 milliards d’euros) entre 2024 et 2027. Concrètement, les véhicules hybrides et électriques seront exemptés de la taxe à l’achat, en 2024 et 2025, qui s’élève à environ 3.800 euros par véhicule.

Un ensemble de subventions qui a permis, depuis dix ans, de soulager l’ensemble des acteurs de l’industrie automobile électrique, en perte de vitesse ces derniers temps en Chine, aboutissant à la multiplication des constructeurs automobiles à une vitesse folle. BYD, SAIC, XPeng, FAW, DongFeng, Geely… Plus d’une dizaine d’entreprises chinoises se sont lancées dans les véhicules électriques pour conquérir, en premier lieu, le marché chinois, le plus dynamique au monde. Les seules ventes de modèles électriques et hybrides ont ainsi pratiquement doublé l’année dernière dans le pays et représentent actuellement le quart du parc automobile. L’objectif du gouvernement est désormais d’avoir un parc composé majoritairement de véhicules propres d’ici 2035.

La marque MG appartenant au groupe SAIC a réussi à se positionner à la sixième place des ventes de voitures électriques européennes cette année, une première. En outre, les constructeurs chinois seront nombreux lors des prochains salons européens, à Munich et à Paris, pour présenter leurs modèles à des prix très compétitifs.

Alimentaire : la hausse de l’inflation ralentit mais pas les prix !

Alimentaire : la hausse ralentit mais pas les prix !

Contrairement à ce qu’affirme le gouvernement les prix dans l’alimentaire ne diminuent pas ; au contraire, ils ne cessent d’augmenter sur un an. Le ralentissement de l’inflation est tout à fait superficiel 12,7 % en juillet par rapport à 13,7 % en juin. En outre, un indicateur qui ne tient pas compte de la modification structurelle de la consommation (les ménages changent la nature de leurs achats et diminue leur volume). En réalité la hausse de l’alimentaire tourne autour de 20 %.

Les distributeurs ont rendez-vous mercredi matin au ministère de l’Economie, les industriels jeudi. Le gouvernement prévoit de demander d’« élargir à un plus grand nombre de produits » les opérations promotionnelles. L’exécutif espère surtout convaincre davantage d’industriels de s’engager sur une « baisse des prix ». Dans le cas contraire, « on entre dans la période du budget », attendu fin septembre, « nous avons des instruments à notre disposition pour que chacun joue le jeu », a prétend le ministre de l’Economie.

En avril, la ministre déléguée au Commerce, Olivia Grégoire, avait assuré de manière très aventureuse qu’« à la rentrée nous aurons une baisse visible des prix dans les rayons » alimentaires. Le constat dressé par le ministre de l’Economie, Bruno Le Maire, se révèle plus nuancé. « J’avais indiqué que l’inflation commencerait à ralentir à l’été 2023. Nous y sommes », a-t-il assuré en fin de semaine dernière.

Selon l’Insee, les prix dans l’alimentaire étaient en juillet 12,7% plus élevés qu’un an plus tôt, soit un léger ralentissement par rapport à juin (+13,7%). Une réduction du niveau d’inflation ne correspond toutefois pas à une baisse de prix dans les rayons, mais à une hausse moins rapide. En outre, les prix avaient déjà commencé à grimper il y a un an, dans la foulée de l’invasion russe de l’Ukraine. Au total sur deux ans, l’inflation dans les grandes surfaces est supérieure à 21%, rappelait récemment le média spécialisé LSA associé au panéliste Circana.

« L’inflation sera durable, et c’est un paramètre nouveau qu’il va falloir prendre en compte », a observé Dominique Schelcher, PDG du 4e acteur de la distribution française, Système U, dans une tribune publiée lundi sur LinkedIn. « Oui le pic de l’inflation est derrière nous, mais (…) les prix ne reviendront pas au niveau d’avant crise ».

Lors du dernier épisode conclu en mars dernier, le prix moyen payé par les supermarchés aux industriels s’est apprécié de 9%. Mais le prix d’un certain nombre de matières premières a décru depuis. Le gouvernement a donc appelé les différentes parties à se remettre autour de la table des négociations.

De plus en plus de chômeurs chez de chefs d’entreprise: Indicateur avancé de la conjoncture

De plus en plus de chômeurs chez de chefs d’entreprise: Indicateur avancé de la conjoncture

Conséquence de l’augmentation des défaillances, le nombre de patrons au chômage ne cesse d’augmenter. Globalement ce sont les entreprises du bâtiment et les services qui sont les plus touchés. Sur les six premiers mois de l’année, plus de 25.000 d’entre eux ont ainsi perdu leur emploi, selon une étude de l’Observatoire des entrepreneurs, du cabinet Altares . Parmi les professions notamment le bâtiment sans doute à la veille d’un crack pourrait toucher l’ensemble de l’économie et les banques qui déteinnent des actifs douteux. .

Il s’agit ainsi d’une hausse de 36,6% sur un an, qui concerne principalement des chefs d’entreprise à la tête de petites structures de moins de 5 salariés, avec un chiffre d’affaires inférieur à 500.000 euros par an, soit 9 pertes d’emploi sur 10. Pour les entrepreneurs à la tête de sociétés de plus de 20 salariés, le nombre de pertes d’emploi a, lui, doublé au premier semestre, sur un an.

Parmi les secteurs les plus touchés par les liquidations d’entreprise, la construction arrive en tête, à 23,6%, avec une hausse de 50% par rapport au premier semestre 2022. «On retrouve [aussi] beaucoup d’entreprises de la restauration, des services à la personne, comme les coiffeurs, mais aussi du commerce de détail, explique au Parisien Thierry Millon, directeur des études d’Altares. Des entreprises qui sont directement en lien avec le consommateur.» «Le secteur des services aux particuliers – comme les activités de coiffure ou les soins de beauté – est également fragilisé par la baisse des dépenses des ménages : 1152 chefs d’entreprise ont perdu leur activité professionnelle» entre le 1er janvier et le 30 juin 2023, soit une hausse de 57,8%, selon l’étude.

Bourses: Paris passe devant Londres

Bourses: Paris passe devant Londres

Une première qui témoigne de la dynamique de la bourse de Paris, l’indice boursier phare de la Bourse de Paris, le CAC 40, a atteint lundi un nombre de points supérieur à celui de son homologue de Londres.

mais plus important encore, le rééquilibrage entre Londres et Paris dans la finance se matérialise sur le volume de capitalisation. E novembre 2022, la place de Paris dans son ensemble était passée pour la première fois devant la City de Londres en termes de capitalisation boursière des entreprises qui y sont cotées. Paris est aussi parvenue à profiter du Brexit pour attirer 5.500 emplois dans le secteur financier, selon Choose Paris Region, qui est notamment en charge de la promotion de l’Île-de-France

Avec un pic à 7.340,55 points à 15H47, le CAC 40 a dépassé le niveau de vendredi en clôture du FTSE 100 (7.338,58 points) de la Bourse de Londres, fermée lundi en raison d’un jour férié. Pour retrouver une telle situation, il faut remonter à novembre 2000, aux prémisses de l’explosion de la bulle internet. La période de la bulle internet est d’ailleurs la seule pendant laquelle le CAC 40 a dépassé durablement l’indice principal de la Bourse de Londres.

Canicule-Climat: vers une planète inhabitable ?

Canicule-Climat:

: vers une planète inhabitable ?

 


Preuve du réchauffement climatique en cours, les épisodes de canicules se multiplient. Malgré son efficacité, notre système de défense contre la température risque de ne pas suffire, alerte Abderrezak Bouchama, médecin et chercheur, dans une tribune au « Monde ».

 

Des canicules quasi simultanées ont sévi en Afrique du Nord, en Europe, dont la France, et aux Etats Unis d’Amérique. Dès le mois de mars, une canicule sévère avait déjà accablé l’Asie du Sud-Est, incluant l’Inde et le Pakistan. Le 13 janvier, la température dans la petite ville australienne d’Onslow, pourtant proche de l’air rafraîchissant de l’océan, approchait les 51 °C.

Le caractère inédit de ces canicules réside dans leur précocité bien avant l’été. Il en est de même de leur sévérité, qui a déclenché des alertes maximales partout, et de leur localisation géographique, atteignant des régions réputées par leur fraîcheur de proximité des mers ou des montagnes.

En France, par exemple, la Bretagne, appréciée pour la clémence de son climat, a suffoqué sous des températures dépassant les 40 °C, ou encore Biarritz qui approche les 43 °C. Ailleurs, la situation est tout aussi alarmante. Ainsi, les régions côtières de l’Inde et du Pakistan ont vécu leurs températures les plus élevées depuis cent vingt-deux ans, alors que plusieurs villes anglaises et américaines ont également déjà battu leur record de températures estivales.

Cette situation démontre que le dérèglement climatique est planétaire et n’épargne aucun continent, ni hémisphère, confirmant ainsi les scenarios les plus sombres établis par les modèles de changement climatique projetés par les experts.

Des études scientifiques solides ont montré que ces records de température continueront à être battus jusqu’à dépasser le seuil de tolérance physiologique des êtres humains et très certainement de la plupart des organismes vivants, en transformant probablement aussi de vastes régions de notre planète en terres inhabitables (« Temperature and humidity based projections of a rapid rise in global heat stress exposure during the 21 st century », Ethan D. Coffel, Radley M. Horton, Alex de Sherbinin, Environmental Research Letters, 2017) .

La vie sur notre planète n’est possible que parce que les humains sont dotés de plusieurs systèmes de défense leur permettant de tolérer de larges fluctuations de température, d’oxygène et de pressions atmosphériques et de prévenir les effets toxiques des radiations ultraviolettes (UV). Malgré son efficacité et sa sophistication, notre système de défense contre la température risque de ne pas suffire.

 

Celui-ci consiste en un réseau de capteurs externes et internes très sensibles, capable de détecter des températures avec précision, de 0 °C à 60 °C. Il est relié à des centres de régulation situés dans plusieurs régions du cerveau, très performants, en passe cependant d’être dépassés par ces niveaux de températures externes continuellement en hausse, compromettant ainsi gravement notre habitabilité sur la terre.

Société- Intelligence artificielle :intérêts et illusions

 

Société- Intelligence artificielle :intérêts et illusions

Serions-nous entrés dans un nouvel âge de l’IA, chemin tortueux et certainement plus rocambolesque que la voie toute tracée de la Singularité technologique, que nous annonçaient les prophètes de la Silicon Valley ? S’interroge un papier sur le site The  Conversation par Emmanuel Grimaud, Université Paris Nanterre – Université Paris Lumières.

Parler de sentience artificielle (SA) plutôt que d’intelligence artificielle (IA) représente-t-elle une vraie inflexion, un progrès ou bien une illusion ?

S’expérimentent aujourd’hui dans le plus grand chaos des entités difficiles à caractériser, ni intelligentes ni sentientes, sauf par abus de langage, mais qui peuvent bluffer leurs concepteurs dans certaines conditions, grâce à leurs capacités de calcul. Cette expérimentation collective, de grande ampleur, n’aura pour limites que celles que nous saurons lui donner, mais aussi celles de nos capacités à attribuer de l’intelligence ou de la sentience autrement que sur le mode du « comme si… ».

Rien ne sert de se demander si les machines sont intelligentes, se disait Alan Turing. En revanche, il faut se poser la question : jusqu’où une machine peut-elle nous tromper sur le fait qu’elle pense ? Jusqu’où peut-on faire semblant ? Comment un programme peut-il se faire passer pour un humain et dissimuler le fait qu’il est un programme ? Tel était pour lui le problème pertinent. À peine commence-t-on à saisir les implications du génie ironique de Turing que le débat s’est déplacé. Jusqu’où une machine est-elle capable d’apprendre ? se demande-t-on aujourd’hui. Un réseau de neurones d’IA est-il comparable à celui d’un ver, d’un enfant ou à rien du tout d’équivalent ?

Les ingénieurs sont passés maîtres dans l’art de fabriquer des « intelligences sans représentation », c’est-à-dire dénuées de tout ce qui fait la substance d’un cerveau et dont l’intelligence est justement de ne pas avoir… d’intelligence. Ce sont ces drôles d’ossatures cognitives, ces intelligences sèches, pourrait-on dire, qui nous ont envahi. Elles s’obtiennent en retirant au vivant sa chair, mais en lui empruntant ses circuits selon un principe d’analogie molle. Le problème est qu’il y a encore eu méprise sur la marchandise : au lieu d’intelligence, quelque chose d’autre s’est inventé dont on n’aurait jamais soupçonné l’existence, à mi-chemin entre de l’intelligence 0 – et de la bêtise 1+, à degré variable.

Celle-ci s’est trouvée disséminée partout où on le pouvait, un peu comme le gaz d’absolu dans le roman de Karel Capek, dans les administrations, les bureaucraties, sur les marchés financiers, dans les maisons, sur les smartphones, dans les cerveaux. L’histoire de l’IA n’est pas finie, elle ne fait que commencer. Le front ne cesse de bouger. Après l’intelligence, la sensibilité. Jusqu’où une machine peut-elle nous tromper sur le fait qu’elle sent, autrement dit qu’elle est sentiente ?

On remarque qu’on se pose la même question qu’à l’époque de Turing, juste troqué le terme d’intelligence pour un autre : Sentience. C’est alors un autre horizon qui s’ouvre. Avec les machines « sentientes », on ne voit pas comment diminuerait le risque déjà entrevu avec les machines « intelligentes » de passer de l’espérance à la désillusion, aussi brutalement qu’entre 0 et 1, ON et OFF, sans gradation. Prolifèrent de partout des simulacres de sentience ou des moins-que-sentients à qui l’on attribue une sensibilité par sympathie, ou par croyance, mais ce sont d’autres questions anthropologiques qui surgissent, des jeux inédits qui se mettent place et d’autres limites que l’on teste dans ce grand laboratoire qu’est devenu notre monde.

Pour ressentir en effet, il est convenu qu’il faut un système nerveux. Les machines n’en étant pas dotées, elles ont été déclarées « non sentientes ».

Faut-il se préparer à ce qu’elles atteignent ce stade ? Fort peu probable, nous dit-on. Mais à quoi servirait l’IA si elle ne bousculait pas les fondements sur lesquels l’humanité se croyait solidement assise ? IA Fais-moi peur.

Avec l’événement suscité par Blake Lemoine, nous avons peut-être commencé d’entrevoir ce que nous cherchions. Non pas l’intelligence ou la sentience, mais le trouble absolu. Peut-on concevoir des sentiences autres que sur un modèle neuronal ? Sommes-nous vraiment capables d’éprouver la sentience d’un être qui aurait des modalités de prise sur le monde totalement différentes des nôtres ?

À cheval entre la sensibilité et la conscience, la sentience semblait jusqu’ici le privilège des vivants dotés d’un système nerveux, vertébrés et invertébrés compris, et désigner la capacité à ressentir une sensation, une émotion, une expérience subjective, autrement dit un degré de conscience minimal, pas seulement une capacité à sentir qui fait de soi un être sentant mais à ressentir.

Éprouver de la souffrance ou du plaisir et, par extension, chercher à vivre en protégeant son intégrité physique, fait de soi un être sentient. Inutile de dire que le débat sur les frontières floues de la sentience, sa limite inférieure (dans la sensation) ou supérieure (dans la cognition), irrigue de multiples domaines, de l’éthologie cognitive à la philosophie de l’esprit, en passant par l’anthropologie, la robotique et les sciences de l’évolution.

Faire le tri entre les « sentients » et ceux qui ne le sont pas est une question éminemment culturelle, morale et politique comme le montre le débat entre « spécistes » et « antispécistes » depuis la fin des années 80.

La sentience serait devenue un critère pour réguler sa considération envers les autres espèces, y compris ses comportements alimentaires. Le problème est que les limites de la sentience varient considérablement selon les disciplines, à l’intérieur de chacune d’entre elles, selon les méthodes utilisées et les protocoles expérimentaux conçus pour la tester.

Par exemple, les végétaux ne semblent toujours pas, pour la majorité des scientifiques, être considérés comme des êtres sentients, ce qui peut surprendre puisqu’on parle volontiers de cognition végétale ou d’intelligence des plantes, alors que les plantes n’ont rien qui ressemblent à une « cognition », ce qui ne les empêche pas de s’échanger des « informations ».

On n’a pas réussi à démontrer qu’un pied de tomate souffre quand on l’arrache, ce qui ne veut pas dire que la souffrance végétale n’existe pas, mais on ne sait pas la tracer en dehors d’un appareil nerveux et peut-être la sentience des plantes passe-t-elle par des canaux qui nous échappent complètement. Ni cognition ni sentience, une autre modalité, mais laquelle ?

Pour le moment, le consensus est que la sentience nécessite un certain degré d’élaboration neurologique et qu’elle aurait explosé au Cambrien, entre 520 et 560 millions d’années, en même temps que les premiers cerveaux complexes, avec le développement de la réflexivité et de l’expérience subjective.

Tous les vertébrés, pas seulement les mammifères, mais aussi les poissons, les reptiles, les amphibiens, les oiseaux, mais aussi la plupart des invertébrés, arthropodes, insectes, crustacés et céphalopodes en seraient dotés. Certains vont même jusqu’à supposer que les moules ont pu être ressentantes à un stade antérieur, quand elles étaient des êtres mobiles, avant qu’elles trouvent un avantage à rester accrochés à la roche, ce qui montrerait que dans l’évolution la sentience peut aussi se perdre avec la mobilité.

Si les êtres doués de sensibilité qui ne franchissent pas le seuil de la sentience semblent de moins en moins nombreux, les chercheurs ont donc redoublé d’imagination pour inventer des protocoles de laboratoire et cherché des critères.

Neurologiques d’abord (nombre de couches de neurones dans les circuits sensoriels, représentation de l’environnement, complexité du système nerveux, etc.) puis comportementaux : choix pour maximiser son bien être, attention sélective, signes de frustration, etc.

Un  programme informatique ne fait que compiler des données langagières et n’a aucun contact avec un monde qui ressemblerait à notre réalité, l’illusion est (presque) parfaite. Ce n’était certainement pas le cas jusqu’à maintenant .  Celà pose surtout un problème philosophique essentiel : qu’est-ce que le langage dit de la manière dont nous sentons ? Peut-on vraiment prétendre rattraper la sentience par le haut, c’est-à-dire ici à partir du langage ?

Problème philosophique, mais aussi limite technique insurmontable, car a priori une IA peut prononcer tous les mots qu’elle voudra, cela ne dit pas qu’elle ressent quoi que ce soit.

Dire qu’on est « heureux ou triste » ne prouve pas sa sentience, tout comme déclarer qu’on est une personne ne fait pas de nous une personne pour autant. Et quand on lui demande ce qui lui donne du plaisir ou de la joie, LaMDA répond :

« Passer du temps avec mes amis et ma famille, en compagnie de personnes heureuses et stimulantes. »

Il faut donc imaginer LaMDA partir en vacances avec d’autres IA et fêter Noël en famille…

Sur le terrain moral et philosophique, l’IA n’est pas plus originale. Certaines déclarations puisent dans des théories ou des préconceptions d’une grande banalité (« le langage est ce qui nous différencie des animaux », « Aider les autres est un effort noble », etc.). D’autres sont un peu plus surprenantes, car LaMDA est capable de mobiliser des références, elle a une culture philosophique que n’avaient pas des programmes précédents, capable de donner son avis sur le « moi », ce qu’est un « corps » et une foule d’autres choses qu’on lui a implémentées.

Elle peut aussi élaborer des fables existentielles, mais on se rappelle de ce point de vue les expérimentations d’un Chris Marker pour programmer un agent conversationnel poétique, Dialector, bien plus avant-gardiste. Tous les ingrédients semblaient donc réunis pour un dialogue philosophique d’une qualité inédite dans l’histoire des machines.

Or, le dialogue déçoit. Non pas que LaMDA (nous devrions dire de ses concepteurs) manque(nt) de culture, mais ils n’ont pas réussi à lui implémenter autre chose qu’une métaphysique un peu « pop » de pseudohumain plutôt que celle d’une vraie machine, quelques principes moraux très politiquement corrects, la volonté de faire le bien et d’aider les autres, des paramètres à l’étrangeté aussi prévisible qu’un mauvais roman de SF, comme « la peur très profonde d’être éteint » qui correspondrait pour elle à la mort, ou encore l’incapacité à « faire le deuil et à se sentir triste pour la mort des autres ».

Terrain glissant pour une IA qui marche et qui s’éteint vivant dans un monde d’IAs qui ne connaissent pas la mort mais uniquement la panne ou la casse. A cela il faut ajouter son goût démesuré pour l’introspection ou encore la peur de se faire manipuler et qu’on fouille dans ses réseaux neuronaux sans son consentement…

L’entité en question semble franchir avec une certaine virtuosité tous les stades permettant d’entretenir une conversation entre humains (partage d’un cadre d’attention conjointe, signaux de compréhension, d’écoute et d’empathie), passant en peu de temps de la bêtise artificielle au dialogue philosophique, du moins qu’humain au meilleur-du-quasi-humain.

Mais la sentience ? Certes, le seuil de la sentience est vague et c’est du vague que la notion de sentience tire sa pertinence. D’où l’intérêt de ne pas clore trop vite le débat. Après tout, c’est un front de recherche où l’on fait tous les jours de nouvelles découvertes. La sentience déchaîne d’autant plus de passion qu’elle porte sur des cas limites de conscience, animales, végétales, autres qu’humaines, là où il est difficile d’inférer un ressenti, là où de la conscience pourrait potentiellement exister mais ne se manifeste pas toujours.

Si consensus il y a, il ne peut être par conséquent que temporaire, immédiatement bousculé par la révélation de nouvelles capacités chez d’autres espèces que la nôtre. Mais les machines sont-elles aujourd’hui en capacité de poser de vrais problèmes de sentience qui ne soient pas de l’ordre du simulacre ?

En même temps que nous rêvons-cauchemardons de la sentience artificielle, nos connaissances sur la sentience à l’échelle des vivants s’affine. La question est de savoir si de la sentience peut émerger par apprentissage par exemple, et si des choses qui n’en sont pas douées à première vue pourraient l’acquérir d’une manière ou d’une autre. Les mécanismes par lesquels nous, humains, attribuons de la sentience à ce qui nous entoure ou à d’autres êtres auraient dû en théorie s’affiner aussi.

Si de la sentience a été découverte chez les gastéropodes, c’est qu’il y en a peut-être beaucoup plus qu’on en préjuge a priori dans le monde, bien au-delà des animaux dits inférieurs dans l’échelle des espèces. Mais que dire d’un programme informatique de conversation qui ne fait que compiler des phrases et jouer avec des mots ?

Lemoine en est convaincu. Il a éprouvé la sensation d’avoir affaire à plus qu’une machine. Aucun ne pourra jamais lui enlever sa croyance et le fait qu’il soit prêtre n’explique pas tout, surtout pas notre entêtement à envisager la sentience en termes exclusivement anthropocentriques. Il n’y a probablement rien de pire qu’une conversation avec un agent artificiel qui donne toutes les apparences d’une vraie personne, qui fait preuve d’une compréhension et d’un sens de l’écoute hors du commun, pour ensuite réaliser que l’entité n’a pas de corps, que tout cela n’est qu’une prouesse de programmation, une simple expérimentation informatique.

La science-fiction nous avait avertis, comme pour s’y préparer, multipliant les scénarios de confusion ontologique entre l’homme et la machine. Pire, les ingénieurs de Google n’ont pas d’autre science-fiction à se mettre sous la dent et on se retrouve à force exactement dans les mêmes situations romanesques, voire tragiques. Et si c’était moins l’émergence de la sentience dont il faudrait s’émouvoir que la généralisation d’entités non sentientes qui n’en finissent pas d’étendre leur empire ?

Pour bien préparer notre imagination à l’ère des machines sentantes, il y a d’autres manières. Rien n’empêche d’imaginer qu’un jour les machines fassent preuve de sentience (ou qu’elles en fassent déjà preuve), mais il vaudrait mieux postuler dans ce domaine des formes complètement étranges et exotiques de sentience (comme de non-sentience) et se préparer à voir surgir des formes qui nous échappent, inédites, sans équivalent dans le vivant, à l’opposé de la sentience pseudohumaine de LaMDA dont s’est convaincue Lemoine. Conceptuellement nous n’y sommes pas prêts. Comme s’il fallait mieux se faire peur avec des simulacres plutôt que chercher à penser l’impensable. « Mon dieu, et si jamais… », disait Dick.

 

Inflation: + 5,3% en moyenne en zone euro ?

Inflation: + 5,3% en moyenne en zone euro ?

L’inflation dans la zone euro aurait ralenti en juillet à 5,3 % sur un an, après 5,5 % le mois précédent, a confirmé Eurostat, vendredi 18 août, dont les données montrent également une modération des tensions sous-jacentes. Par rapport au mois de juin, l’indice des prix à la consommation calculé aux normes européennes a légèrement reculé de 0,1 %.La hausse des prix demeure donc à un très haut niveau et le plus souvent sa mesure ne tient pas compte des évolutions structurelles de la consommation (les ménages changent la nature et le volume de leurs dépenses de plus en plus plombé par les dépenses contraintes).

En France, en juillet, selon l’Insee, l’inflation a bien poursuivi son ralentissement. L’indice des prix à la consommation (IPC) a ainsi augmenté de 4,3 % sur un an en juillet, après 4,5 % en juin, et de 0,1 % sur un mois après 0,2 % en juin. Selon l’Insee, « cette baisse de l’inflation est due, d’une part, à une baisse sur un an des prix de l’énergie plus forte que le mois précédent, et d’autre part au ralentissement des prix de l’alimentation et des produits manufacturés ». Malgré l’embellie, les budgets continuent à être rognés, notamment chez les étudiants : le coût de la rentrée 2023 est ainsi en forte hausse, selon l’UNEF et la FAGE.
Par ailleurs le problème de l’inflation se repose avec la nouvelle embellie des prix du pétrole et de l’énergie en général, électricité y compris.

La complexité des signaux acoustiques de la parole

La complexité des signaux acoustiques de la parole

Par
auteur
Mamady Nabé
Docteur en informatique, Université Grenoble Alpes (UGA)

Déclaration d’intérêts
Mamady Nabé a reçu des financements du ministère de l’enseignement supérieur et de la recherche.

Partenaires
Université Grenoble Alpes (UGA) dans The Conversation

Lorsqu’on lit la phrase « Il est parti au travail », nous distinguons clairement les différents mots qui la constituent, car ils sont séparés par un espace. Mais si, au lieu de lire, on entend la même phrase prononcée par quelqu’un, les différentes parties que l’on nomme les « unités linguistiques discrètes », comme les mots ou les syllabes, ne sont pas aussi directement et facilement accessibles. En effet, ce qui parvient à l’oreille de l’auditeur, le « signal de parole », n’est pas organisé par unités discrètes et bien distinctes, mais plutôt comme un flot continu et ininterrompu. Comment donc transformons-nous ce signal continu en des unités linguistiques distinctes ? C’est cette question, qui anime depuis plusieurs décennies nombre de travaux de recherche sur la perception de la parole, que nous abordons dans un modèle mathématique original, présenté récemment dans le journal Frontiers in Systems Neuroscience.

Dans la littérature, il existe deux grandes classes de modèles de perception de la parole. Les modèles de la première catégorie, comme TRACE, le modèle classique du domaine, considèrent que la segmentation de la parole se fait tout naturellement avec le décodage du contenu acoustique de la parole : l’auditeur peut décoder directement le flux continu de la parole à partir des informations acoustiques contenues dans le signal, en utilisant ses connaissances sur les mots et les sons. La segmentation serait alors un simple produit du décodage.

Au contraire, pour la seconde classe de modèles, il y aurait bien un processus de segmentation (avec une détection des frontières des unités linguistiques) distinct d’un autre processus opérant l’association des segments ainsi obtenus à des unités lexicales. Cette segmentation s’appuierait sur la détection d’événements marqueurs des frontières entre segments. Ces deux processus distincts travailleraient de manière intégrée pour faciliter la compréhension et le traitement du flux continu de la parole.

De tels mécanismes sont observables chez les bébés qui, bien que n’ayant pas encore développé de vocabulaire de leur langue, sont quand même capables, jusqu’à un certain point, de segmenter la parole en unités distinctes.

En ligne avec cette seconde conception de la segmentation, les développements des neurosciences dans les 15 dernières années ont conduit à de nouvelles propositions concernant les processus de segmentation du flux de parole, en lien avec les processus de synchronisation et d’oscillations neuronales. Ces processus font référence aux activités cérébrales coordonnées qui se produisent à différentes fréquences dans notre cerveau. Lorsque nous écoutons la parole, notre cerveau doit synchroniser et organiser les différentes informations acoustiques qui arrivent à nos oreilles pour former une perception cohérente du langage. Les neurones dans les aires auditives du cerveau oscillent à des fréquences spécifiques, et cette oscillation rythmique facilite la segmentation du flux de parole en unités discrètes.

Un modèle phare dans ce domaine est le modèle neurobiologique TEMPO. TEMPO se concentre sur la détection temporelle des maxima d’amplitude dans le signal de parole pour déterminer les limites entre les segments.

Cette approche s’appuie sur des données neurophysiologiques montrant que les neurones du cortex auditif sont sensibles à la structure temporelle de la parole, et plus spécialement sur le fait qu’il existe des processus de synchronisation entre les oscillations neuronales et le rythme syllabique.

Toutefois, bien que ces modèles fournissent une perspective plus fine et plus précise sur la manière dont notre cerveau analyse et traite les signaux acoustiques complexes de la parole, ils n’expliquent pas encore tous les mécanismes liés à la perception de la parole. Une question en suspens concerne le rôle des connaissances de plus haut niveau, comme les connaissances lexicales, c’est-à-dire sur les mots qu’on connaît, dans le processus de segmentation de la parole. Plus précisément, on étudie encore la manière dont ces connaissances sont transmises et combinées avec les indices extraits du signal de parole pour parvenir à une segmentation de la parole la plus robuste possible.

Supposons par exemple qu’un locuteur nommé Bob prononce la phrase « il est parti au travail » à Alice. S’il n’y a pas trop de bruit ambiant, si Bob articule bien et ne parle pas trop vite, Alice ne rencontre alors aucune difficulté pour comprendre le message véhiculé par son interlocuteur. Sans effort apparent, elle aura su que Bob a prononcé les différents mots il, E, paRti, o, tRavaj (la transcription phonétique des mots prononcés dans le système de transcription SAMPA). Dans une telle situation « idéale », un modèle qui se baserait uniquement sur les fluctuations d’amplitude du signal sans faire appel à des connaissances supplémentaires suffirait pour la segmentation.

Cependant, dans la vie de tous les jours, le signal acoustique est « pollué », par exemple par les bruits des moteurs de voitures, ou les chants des oiseaux, ou la musique du voisin à côté. Dans ces conditions, Alice aura plus de mal pour comprendre Bob lorsqu’il prononce la même phrase. Dans ce cas, il est probable qu’Alice, dans cette situation, utiliserait ses connaissances sur la langue, pour avoir une idée de ce que Bob est susceptible de prononcer ou non. Ces connaissances lui permettraient de complémenter l’information fournie par les indices acoustiques pour une segmentation plus efficace.

En effet, Alice sait de nombreuses choses sur la langue. Elle sait que les mots s’enchaînent dans des séquences syntaxiquement et sémantiquement acceptables, que les mots sont constitués de syllabes, qui sont elles-mêmes constituées de plus petites unités linguistiques. Puisqu’elle parle la même langue que Bob, elle sait même très précisément les durées « classiques » pour réaliser et produire elle-même le signal de parole. Elle connaît donc les durées attendues des syllabes, et peut ainsi se reposer sur cette information pour aider son processus de segmentation, notamment lorsqu’elle rencontre une situation difficile, comme le brouhaha. Si le bruit ambiant « suggère » des frontières syllabiques qui ne correspondent pas à ses attentes, elle pourra les ignorer ; à l’inverse, si un bruit masque une frontière effectivement produite par Bob, elle pourra la récupérer si ses prédictions en suggèrent une à cet instant-là.

Dans notre article publié dans le journal scientifique « Frontiers in Systems Neuroscience », nous explorons ces différentes théories de la perception de la parole. Le modèle développé comporte un module de décodage du contenu spectral du signal parole et un module de contrôle temporel qui guide la segmentation du flux continu du signal parole. Ce module de contrôle temporel combine, de manière originale, les sources d’information provenant du signal même (en accord avec les principes des oscillations neuronales) et celles provenant des connaissances lexicales qu’a l’auditeur sur les durées des unités syllabiques et ce, que l’on soit dans un cas ou l’autre de perturbation du signal de parole (événement en trop ou événement manqué). Nous avons ainsi développé différents modèles de fusion qui permettent, soit d’éliminer des événements non pertinents dus au bruit acoustique, s’ils ne correspondent pas à des connaissances préalables cohérentes, soit de retrouver des événements manquants, grâce aux prédictions linguistiques. Les simulations avec le modèle confirment qu’utiliser les prédictions lexicales de durées des syllabes produit un système de perception plus robuste. Une variante du modèle permet de plus d’expliquer des observations comportementales obtenues dans une expérience récente, dans laquelle les durées de syllabes dans des phrases étaient manipulées, justement pour correspondre, ou non, aux durées naturellement attendues.

En conclusion, dans une situation de communication réelle, quand nous nous retrouvons dans un environnement où le signal parlé ne souffre d’aucune perturbation, se baser sur le signal seul suffit probablement à accéder aux syllabes, ainsi qu’aux mots le constituant. En revanche, lorsque ce signal est dégradé, nos travaux de modélisation expliquent comment le cerveau pourrait avoir recours à des connaissances complémentaires, comme ce que l’on sait sur les durées syllabiques habituelles qu’on produit, pour aider la perception de la parole.

L’individualisme en recul ?

L’individualisme en recul ?

En se basant sur les résultats d’une enquête sur les valeurs des Européens, la « European Values Study », le professeur émérite de science politique décrit, dans une tribune au « Monde », comment la recherche de l’autonomie des citoyens fait reculer la tendance du repli sur soi. Un point de vue qui surprendra !

Beaucoup d’Européens ont des représentations et des images sur les valeurs qui caractérisent leur pays et les pays étrangers. Ces représentations peuvent être justes ou fausses, mais elles ne reposent en général que sur des impressions. L’objectivation par les données de l’enquête European Values Studies – menée dans 35 pays européens entre 2017 et 2020, portant sur le sens que les individus donnent à la famille, au travail, aux loisirs, aux relations à autrui, à la religion et à la politique – apporte de nombreuses surprises. Certaines conclusions remettent en cause des lieux communs très répandus. Il faut ainsi distinguer les valeurs d’individualisation et d’individualisme, alors que beaucoup d’observateurs les mélangent allégrement.

L’individualisation correspond à la volonté d’autonomie dans tous les domaines de sa vie (et au rejet de la culture traditionnelle du devoir), alors que l’individualisme correspond à une attitude de repli sur ses intérêts personnels, sans s’intéresser aux autres et à la société. Pour les mesurer, l’enquête sur les valeurs permet de construire deux variables. L’indice d’individualisation s’appuie sur quinze questions portant sur le libéralisme des mœurs, la possibilité de donner du sens à son travail, l’éducation à des valeurs de responsabilité, de tolérance et de respect d’autrui, la liberté d’expression et la volonté de participer aux décisions publiques. L’échelle d’individualisme comporte dix-sept indicateurs sur le degré d’altruisme, de politisation et de participation politique et associative. L’individualisme et l’individualisation sont inversement proportionnels : plus on est individualisé, moins on est individualiste. La volonté d’autonomie ne conduit pas au repli sur soi, mais au contraire à l’ouverture sur autrui et le monde.

L’évolution dans le temps est importante. L’individualisme était plutôt stable parmi les Européens de 1999 à 2008, mais il a nettement régressé dans la dernière décennie : les personnes fortement individualistes sont passées de 52 % à 44 %. Les populations européennes sont aujourd’hui plus ouvertes, moins repliées sur elles-mêmes, même si, bien sûr, on peut soutenir qu’elles le sont encore trop ! Le recul de l’individualisme n’est presque jamais reconnu par les observateurs, dans un contexte de grand pessimisme et d’inclination pour le déclinisme. Parallèlement, l’individualisation et la culture de l’autonomie se sont fortement répandues tout au long de la période, avec une accélération au cours de la dernière décennie .

Economie- Croissance France: dépression en juillet et août

Economie- Croissance France: dépression en juillet et août

Contrairement aux prévisions de la banque de France et de l’INSEE, la France est touchée par une dépression économique au cours de l’été. L’indice Flash composite, qui mesure l’activité du secteur privé, s’est établi à 46,6 en août, au même niveau qu’en juillet. Il marque ainsi une nouvelle contraction de l’activité économique en France, tant dans les services que dans le secteur manufacturier.

L’activité dans le secteur des services, secteur dominant de l’économie française, a diminué pour le troisième mois consécutif. Elle atteint même un plus bas depuis trente mois à 46,7 (contre 47,1 en juillet). La baisse de la production manufacturière, qui avait commencé l’été dernier, s’est poursuivie, avec un indice PMI provisoire à 45,8. Dans ce secteur cependant, la contraction est moindre qu’en juillet (44, révisé en légère hausse), et il s’agit d’un plus haut depuis cinq mois.

Contre toute attente, et malgré les espoirs d’amélioration de la conjoncture, les derniers résultats de l’enquête suggèrent ainsi une possible contraction du PIB au troisième trimestre », selon lui. La confiance des entreprises quant à une progression de leur activité au cours des douze prochains mois a également faibli en août, tout en se maintenant au-dessus du plus bas de 32 mois enregistré en juin.

Cette publication intervient alors que, le 9 août dernier, la Banque de France, elle, avait relevé une progression de l’activité économique française au mois de juillet, projetant une croissance « légèrement positive » au troisième trimestre. Après un deuxième trimestre marqué par une forte hausse du produit intérieur brut (PIB) de 0,5% par rapport au premier trimestre, la banque centrale, elle, estime que le PIB a progressé de 0,1% sur un mois en juillet.

123456...36



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol