Archive pour le Tag 'quelle'

Quelle évolution des prix du pétrole

Quelle évolution des prix du pétrole

La stratégie de réduction des volumes de production telle qu’elle a été conçue par l’Arabie Saoudite et la Russie avait pour objectif de hisser le prix du baril au-delà des projections du marché. D’une zone de 65 à 75 dollars le baril, l’Opep+ souhaitait obtenir une fourchette de 85 à 95 dollars. Ce niveau de prix satisfaisant à la fois la Russie pour financer une guerre en Ukraine qu’elle n’avait pas prévue dans la durée, et l’Arabie Saoudite qui dans le cadre du plan Vision 2030 doit faire face à un très ambitieux programme d’investissement de 7.000 milliards de dollars. Force est de constater que, malgré une grande volatilité, le cours du baril de Brent se maintient malgré tout dans la partie basse de la fourchette, avec des passages sous les 80 dollars le baril. Les perspectives de croissance mondiale 2023-2024 ne semblent pas au rendez-vous, et assombrissent la demande. Le ralentissement chinois y participe. Il faut également considérer l’impact des énergies renouvelables. Ces tendances se sont confirmées par la perspective d’une décroissance de la demande mondiale de brut avant la fin de cette décennie, comme l’a affirmé pour la première fois l’Agence internationale pour l’énergie (AIE), au mois de juin.

par Par Gérard Vespierre (*) président de Strategic Conseils dans  » la Tribune »

A cela s’ajoute la stratégie mise en place par les États-Unis pour compenser les réductions de production de l’Opep+ qui fut la plus contributive au maintien des prix du brut dans la fourchette basse. Ne pas réagir, conduisait à accepter un baril de pétrole à des prix élevés, et en conséquence une augmentation de la pression inflationniste mondiale. Or les banques centrales et les gouvernements de tous les pays industriels ont mis en place des politiques visant à réduire cette inflation.

La stratégie la plus rapide — et la plus impactante — fut la décision, relevant de l’autorité présidentielle américaine, d’utiliser le très haut niveau des réserves stratégiques pétrolières fédérales (SPR Strategic Petroleum Reserve, mises en place après le deuxième choc pétrolier de 1979). Les États-Unis ont ainsi mis sur le marché 245 millions de barils entre le 1er janvier 2022 et aujourd’hui. Cela équivaut à presque 400.000 barils par jour, sur cette période de 22 mois ! Outre ce volume important, l’autre avantage du dispositif a résidé dans sa mise en œuvre quasi-immédiate.

La décision d’intervenir sur le niveau des stocks fédéraux stratégiques a constitué le 1er volet de la réponse. Le 2e a consisté à poursuivre la hausse de la production pétrolière journalière américaine.

Les États-Unis après avoir atteint le rang de premier producteur mondial de pétrole en 2019 avait hissé leur niveau de production au niveau record de 13,1 millions de barils par jour (mb/j) en février 2020. L’impact mondial de la crise sanitaire du Covid-19 a provoqué une modification rapide et importante dans la mobilité mondiale des personnes et des marchandises, immédiatement répercutée sur la demande et la production pétrolière mondiale. A l’automne 2020 la production américaine est brièvement repassée sous le seuil des 10 mb/j.

Depuis lors, cette production a repris son chemin ascendant, comme l’illustre le graphique ci-dessous. Elle vient de se hisser à un nouveau niveau record de 13,2 mb/j pendant les 7 dernières semaines.

Les prévisions de l’EIA (Energy Information Administration) projettent pour 2024 une légère progression de la production américaine, mais une augmentation d’1 mb/j provenant des pays non OPEP+.

Pendant qu’au siège de l’Opep à Vienne, on organise les réductions de production parmi les États membres, d’autres pays n’appartenant pas à cette organisation développent leur production depuis des années.

Il convient de citer en premier lieu le Canada qui s’est hissé au rang de 4e producteur mondial de pétrole, et qui après avoir dépassé les 4 mb/j s’approche des 5 mb/j pour le seul pétrole brut.

Le Mexique, qui après avoir vécu une régulière diminution de sa production et s’être rapproché des 1,5 mb/j voit celle-ci régulièrement augmenter, et se rapprocher des 2 mb/d.

Sur le sud du continent américain, le Brésil, qui se place en 7e position des producteurs mondiaux, dépasse les 4 mb/d après avoir atteint les 3 mb/d en 2023.

Cette dynamique est créatrice de renversements qui n’ont pas été jusqu’ici suffisamment mis en lumière.

La dynamique du marché nord-américain a déplacé une situation pétrolière historique entre les États-Unis et l’Arabie Saoudite. La révolution du pétrole de schiste en Amérique du nord a conduit le pays a réduire d’autant ses importations. Le développement de la production canadienne a fait de ce pays frontalier une naturelle source d’importation pour les Etats-Unis.

Du cumul de ces deux tendances, il s’en est suivie une naturelle diminution des importations des Etats-Unis en provenance d’une de ses sources privilégiées d’importation : l’Arabie Saoudite.

Les évolutions de production pétrolière ont des conséquences géopolitiques. La seule façon dont « les États-Unis se retirent du Moyen-Orient » comme on a très souvent entendu dire, ce n’est nullement d’un point de vue politique, diplomatique, ou militaire, mais économiquement, en y achetant moins de pétrole, parce que leurs besoins d’importation ont été pratiquement divisés par deux. Ils ont atteint 11 mb/j, et se situent maintenant autour de 6 mb/j… En conséquence, les parts de marché sont plus mobiles qu’il y paraît.

Tout se passe comme s’il y avait de la part des principaux producteurs de toute la zone des Amériques, nord, centrale, et sud, une augmentation de production qui, cumulée, non seulement compense les restrictions imposées par l’Opep+, mais assure le million de barils annuel supplémentaire pour accompagner l’évolution actuelle du marché mondial du brut.

De ce fait, les volumes retenus par l’Opep+ sont autant de pourcentage de part de marché dont elle se prive, et dont les pays de la zone américaine s’emparent. Certes, il ne s’agit que de 2 à 3% mais ce sont des pourcentages du marché mondial, et des volumes que certains pays producteurs de l’OPEP+ ne sont pas spécialement satisfaits de voir partir. Les négociations à l’intérieur de cette organisation ne sont peut-être pas aussi unanimes qu’il y paraît, et elles pourraient devenir plus tendues au cours des prochains mois.

Continuer à diminuer la production reviendrait aussi à diminuer la part de marché des producteurs de l’Opep. De plus, une telle stratégie contribuerait par l’augmentation des prix du brut à relancer l’inflation et diminuer la croissance mondiale.

Or la Chine ne souhaite certainement pas voir poindre un tel scénario. Son ralentissement économique constitue sa première préoccupation. Premier importateur mondial de pétrole, elle a la capacité de se faire entendre auprès de ses fournisseurs, dont l’Arabie Saoudite qui a remplacé les Etats-Unis comme premier fournisseur de pétrole.

La prochaine réunion de l’OPEP+ le 30 novembre pourrait avoir, dans les couloirs, un agenda plus agité qu’il y paraît.

_____

(*) Gérard Vespierre, analyste géopolitique, chercheur associé à la FEMO, fondateur du média web Le Monde Décrypté

Quelle évolution des prix du pétrole ?

Quelle évolution des prix du pétrole ?


En dépit de la décision de l’OPEP et de ses alliés de réduire leur Production de pétrole, après un pic à près de 100 $ , le baril plafonne autour de 80 $. En cause une demande qui s’affaiblit notamment de la part de la Chine qui voit sa croissance tutoyer la stagnation. Une demande également en baisse un peu partout du fait du tassement général de la croissance et par conséquent de la demande énergétique dont celle du pétrole.

Du coup, les membres de l’OPEP et ses alliés envisagent une nouvelle réduction de la production avec l’objectif de faire remonter les cours et donc les prix pour le consommateur. Le problème est que ces augmentations de pétrole nourrissent l’inflation et que cette inflation elle-même Provoque une hausse des taux d’intérêt qui vient affaiblir la croissance globale et donc la demande de pétrole. Bref le contraire d’un cercle vertueux.

L’Arabie saoudite, la Russie et d’autres membres de l’Opep+ se sont déjà engagés à réduire leur production de pétrole de 5,16 millions de barils par jour (bpj), soit environ 5% de la demande mondiale quotidienne.

Ces réductions comprennent 3,66 millions de bpj de la part de l’Opep+ et des réductions volontaires supplémentaires de la part de l’Arabie saoudite et de la Russie.

L’Opep analyserait probablement le bien-fondé d’éventuelles mesures supplémentaires lors de la réunion. Deux autres sources de l’Opep+ ont déclaré que des réductions plus importantes pourraient être discutées.

Les ministres de l’Energie de l’Opep+ se réuniront le 26 novembre. Le groupe a déjà adopté, lors de sa dernière réunion en juin, un plan visant à réduire l’offre de 3,66 millions de bpj d’ici à 2024.

Quelle réforme du marché de l’électricité  ?

Quelle réforme du marché de l’électricité  ?

Le texte adopté par le Conseil de l’Union européenne le 17 octobre sur la réforme du marché de l’électricité privilégie les contrats de long terme pour accompagner la transition énergétique. Ces contrats doivent permettre de rassurer les investisseurs tout en préservant l’efficacité du marché de gros. Par Stefan Ambec, Claude Crampes et Jean Tirole, Toulouse School of Economics.
Stefan Ambec, Claude Crampes et Jean Tirole

Notons qu’après de longs mois de négociations, l’Etat et EDF sont parvenus à un accord garantissant le prix de l’électricité nucléaire moyen « autour de 70 euros » le mégawattheure, a annoncé, mardi 14 novembre, le ministre de l’Economie et des Finances Bruno Le Maire. Un accord déjà contesté par le grand patronat qui s’attend déjà à des hausses et critique la complexité du système.NDLR

L’accord sur la réforme du marché de l’électricité conclu le 17 octobre par les ministres européens de l’Énergie met un terme à une consultation publique lancée par les États membres de l’UE, et motivée par la crise de l’énergie de 2022. Cet accord vise à organiser les échanges entre producteurs d’électricité, fournisseurs sur le marché de détail et industriels. Il doit répondre à deux défis. Le premier est de promouvoir les investissements en équipements de production d’électricité décarbonée. Les besoins sont immenses et il faut que le système de rémunération rassure les investisseurs quant à la rentabilité financière des nouvelles centrales éoliennes, solaires ou nucléaires.

Le second défi est de faire en sorte que les équipements installés soient utilisés efficacement. Côté offre, les sources de production d’électricité les moins coûteuses doivent être appelées en priorité. Côté demande, les usages les plus productifs doivent l’emporter. Le marché de gros et un dispatching selon l’« ordre de mérite » répondent au second défi. Ils créent un signal prix pertinent de rareté de la ressource qui conduit à cette efficacité allocative. Le principe en a été réaffirmé dans le compromis signé le 17 octobre.

L’accord favorise la signature de deux types de contrats de long terme : les Accords d’Achat d’Électricité (AAE et PPA en anglais pour Purchasing Power Agreements) et les contrats d’écart compensatoire bidirectionnels (en anglais, CfD, pour Contracts for Difference). Les AAE sont des contrats de gré à gré entre un producteur et un industriel ou un fournisseur d’électricité sur le marché de détail. Les acheteurs et vendeurs d’électricité s’entendent à l’avance sur le prix et la quantité à livrer. On parle alors d’un contrat physique. Les échanges se font hors marché de gros.

Au contraire, avec les CfD l’électricité est mise sur le marché par les producteurs et donc rémunérée au prix du marché, mais ce prix est complété par un transfert payé ou reçu par l’autre partie au contrat. Ce sont donc des contrats financiers, mais dont l’exécution est conditionnée par une livraison physique. La rémunération du producteur est fixée à l’avance par un prix de référence appelé « prix d’exercice ». Dans la forme la plus courante du CfD bidirectionnel, c’est l’État qui compense le producteur pour le manque à gagner lorsque le prix de marché est inférieur au prix d’exercice. Inversement, le producteur reverse la différence lorsque le prix de marché est supérieur au prix d’exercice.

Les CfD ont l’avantage de réduire le risque auquel font face les investisseurs sans remettre en cause l’existence du marché de gros. Néanmoins, la rémunération du producteur étant garantie à un niveau fixé par l’État, rien n’indique que l’efficacité allocative du marché sera préservée. Certaines centrales pourraient être appelées à produire alors qu’elles ne sont pas les moins coûteuses. En effet, supposons qu’un producteur d’électricité signe un CfD dont le prix d’exercice est de 60 euros par MWh. Si le prix de marché est de 40 euros le MWh, l’État versera la différence de 20 euros par MWh. S’il grimpe à 80 euros, le producteur devra reverser 20 euros par MWh.

Par conséquent, le producteur gagne 60 euros par MWh indépendamment des prix sur le marché de gros. Il a donc intérêt à produire à partir du moment où le prix d’exercice excède son coût de production. Et donc à enchérir le prix le plus bas possible pour être sûr d’être appelé dans le dispatching qui est construit en empilant les offres de production par ordre d’enchères croissantes. Inversement, si son coût de production est supérieur aux prix d’exercice, il perdrait pour chaque MWh produit. Il va donc enchérir un montant suffisamment élevé pour ne pas être appelé.

Ce faisant, le résultat des enchères sur le marché de gros ne reflètera pas les coûts de production et donc ne permettra pas un dispatching efficace. Ainsi, si le prix de marché est de 40 euros par MWh quand le prix d’exercice du CfD est de 60 euros par MWh, une centrale dont le coût de production est de 50 euros par MWh qui a à enchéri en dessous de 40 euros sera appelée dans l’ordre de mérite et empochera une marge de 60-50 = 10 euros par MWh. Symétriquement, si ses coûts sont de 70 euros par MWh, elle va éviter de produire pour ne pas faire de perte même si le prix de marché monte à 80 euros par MWh. En assurant complètement le producteur contre les variations de prix, un CfD bidirectionnel fonctionne comme les tarifs d’achat garantis des énergies renouvelables qui ont contribué à l’occurrence d’épisodes de prix nuls, voire négatifs.
Il faut donc bien réfléchir à la conception des CfD. Il s’agit d’apporter des garanties sur la rémunération future qui encourageront les investissements (nouvelles capacités de production et maintenance de l’existant) tout en préservant les propriétés de dispatching efficace du marché de gros. Comme le stipule le texte de l’accord :

« La conception de ces contrats compensatoires bidirectionnels devrait préserver les incitations des unités de génération à fonctionner et à participer efficacement aux marchés de l’électricité, en particulier à ajuster leur production pour refléter les circonstances du marché. »

Il ne faut pas seulement obliger les producteurs à enchérir sur le marché de gros mais également faire en sorte qu’une partie de leur rémunération ne dépende pas que de leur position sur ce marché.

Plusieurs options sont ouvertes dont il reste à évaluer les avantages et les inconvénients respectifs. Par exemple, pour que les contrats soient purement financiers, les CfD peuvent s’appliquer à un volume spécifié à l’avance (calculé sur la base de la capacité de production ou une fraction suffisamment élevée de cette capacité) plutôt qu’aux volumes effectivement vendus. Il faut éviter les comportements opportunistes qui biaiseraient le dispatching au détriment de l’intérêt collectif.

La réforme du marché de l’électricité, dont le but initial était de répondre à la crise énergétique, va déterminer dans quelle mesure l’objectif de neutralité carbone en 2050 pourra être atteint et à quel coût. Comme nous l’expliquons plus longuement dans une note téléchargeable ici, les contrats à long terme peuvent faire partie de la solution, à condition qu’ils soient bien conçus, et que le marché de gros soit préservé. Le marché de détail doit aussi être repensé pour s’adapter aux nouveaux usages (autoconsommation, mobilité électrique, stockage de l’énergie …). L’accord du 17 octobre est étrangement silencieux sur le sujet. Il se contente de préconiser qu’en cas de nouvelle envolée durable des prix telle que celle qu’on a connue en 2022, les États puissent adopter facilement, dans le cadre d’un mécanisme de crise, des mesures de type « bouclier tarifaire ».

La lutte contre le réchauffement climatique, les tensions géopolitiques, l’acceptabilité sociale des moyens de production, et l’incertitude technologique créent des risques macroéconomiques importants. In fine quelqu’un doit supporter ces risques, ce que beaucoup feignent d’ignorer. Pour mieux partager ces risques macroéconomiques, les contrats à long terme sont l’instrument idoine. L’État peut régir et réguler ce marché assurantiel, mais il ne doit pas en rigidifier toutes les modalités, par exemple en mettant toute la production d’électricité sous CfD à prix unique, ce qui pourrait tuer ce marché et empêcher que soit atteint le partage des risques optimal.

Finances-Bourse: quelle évolution ?

Finances-Bourse: quelle évolution ?

par Ken Fisher* dans l’Opinion

Qui seront les gagnants et les perdants ? Jusqu’à présent, les secteurs plombés par le repli de 2022 sont précisément ceux qui ont tiré le CAC40 et les actions mondiales vers le haut durant ce début de marché haussier, une évolution que peu d’observateurs avaient prévue. De Paris à New York, les sceptiques sont persuadés que la fête sera bientôt finie. N’y prêtez pas attention. Si nous nous trouvons actuellement dans une phase de correction à court terme, voici les secteurs qui devraient alimenter le prochain rebond de ce marché haussier et pourquoi.

par Ken Fisher dans l’Opinion

La spectaculaire reprise amorcée en octobre a été alimentée par les valeurs de croissance de qualité, comme le luxe et la technologie, ce qui explique la sur performance du CAC40. Aussi peu surprenante soit-elle, cette reprise a néanmoins été rarement anticipée. Les secteurs les plus durement touchés dans un marché baissier sont généralement ceux qui se redressent le plus nettement et le plus tôt – c’est ce que j’appelle l’effet de rebond.

Tech. Voyez plutôt : après avoir plongé dans le sillage des produits de luxe lors du repli de 2022, les titres technologiques mondiaux ont progressé de 30,5 % depuis la mi-octobre, lorsque les marchés mondiaux se sont rapprochés du point bas du marché baissier en euros et ont atteint un plancher en dollars. C’est deux fois plus que les actions mondiales, qui ont gagné 14,9 %. Malgré une évolution en dents de scie depuis avril, les acteurs du secteur du luxe à l’échelle mondiale affichent toujours une hausse de 16,6 % sur cette période, contre 22,3 % pour la France.

Les plus alarmistes voient désormais dans l’essor de la technologie un mouvement trompeur alimenté par l’engouement pour l’IA, mais qui s’atténue déjà, de manière similaire aux craintes entourant les taux d’intérêt et aux prévisions d’un affaiblissement futur des marchés boursiers. Or il s’agit simplement d’une correction à la baisse des attentes, presque identique à celles qui avaient mystifié les marchés baissiers en décembre et février, constituant à l’époque des pauses bienvenues. C’est l’ascension du légendaire « mur des inquiétudes » des marchés haussiers.

Aujourd’hui, les fondamentaux comme la croissance mondiale poussive et les craintes de ralentissement en Chine favorisent les actions de croissance de qualité
Les actions des secteurs liées à la technologie des services de communication et de la consommation discrétionnaire ont connu une évolution semblable à celle de la technologie, chutant lors du marché baissier avant de se redresser. Il en va de même pour l’industrie, surtout en France et dans la zone euro, où les rumeurs de récession ont fait plonger le secteur.

Mais aujourd’hui, les fondamentaux comme la croissance mondiale poussive et les craintes de ralentissement en Chine favorisent les actions de croissance de qualité. Pourquoi ? En période de faible expansion, les investisseurs se ruent sur les véritables entreprises de croissance, capables de stimuler leurs ventes malgré le contexte économique. Celles-ci sont rares, et donc particulièrement prisées.

Marges brutes. Il s’agit là encore d’entreprises de qualité du secteur technologique, qui génèrent des marges brutes d’exploitation de 47 % utilisées à des fins de réinvestissement et de croissance, et en particulier celles opérant dans les domaines des logiciels et des semi-conducteurs. Compte tenu du nombre limité de ces acteurs en France, il convient de se tourner vers les grands noms néerlandais, allemands, coréens, taïwanais et américains.

Par ailleurs, la phase actuelle du marché est à nouveau propice au luxe, qui affiche des marges brutes d’exploitation de 57 % en moyenne et représente l’un des fleurons économiques français. Les sociétés suisses et italiennes permettent de diversifier l’exposition au secteur. Les entreprises de vente au détail d’articles diversifiés, absentes en France, mais nombreuses aux Etats-Unis, ont elles aussi le vent en poupe.

Dans les services de communication, le secteur défensif des télécommunications devrait être à la traîne. Privilégiez plutôt les services et médias interactifs liés à la technologie, un secteur qui génère une marge brute considérable de 62 % et est dominé par les Etats-Unis.

La transition d’un portefeuille de croissance de qualité vers des titres « value » sera un jour judicieuse, mais seulement lorsque l’économie aura repris sa vitesse de croisière, ce qui n’est pas pour demain.

Retardataires. Et les retardataires ? Ce sont d’autres secteurs défensifs, à savoir la santé, la consommation de base et les services publics. Ils se comportent relativement mieux pendant les véritables marchés baissiers : médicaments, pain et électricité demeurent des achats indispensables quelle que soit la situation économique, ce qui offre un certain sentiment de stabilité aux investisseurs. En revanche, lors des phases haussières, cette stabilité devient un poids qui les dissuade d’investir.

L’énergie devrait également rester à la traîne. L’année dernière, les investisseurs se sont rués sur les actions des compagnies pétrolières et gazières, prévoyant à tort que les hausses de prix à court terme se transformeraient en pénuries comme dans les années 1970. Ils répètent cette erreur aujourd’hui. En effet, l’abondance de l’offre mondiale limitera les prix et les bénéfices. Vous pouvez ignorer la grève dans le secteur du gaz naturel en Australie. Les usines concernées ne représentaient que 7 % de l’offre mondiale de GNL l’année dernière et de nouvelles sources d’approvisionnement commenceront bientôt à être exploitées.

Il en va de même pour les rumeurs de pénurie de gaz en Europe, car les stocks de l’UE sont remplis à 94 % à la mi-septembre, un niveau nettement supérieur à la moyenne des cinq dernières années.

Quid de l’industrie ? Les marges bénéficiaires brutes modérées à l’échelle mondiale (23,4 %) augurent d’une baisse des rendements une fois que le rebond aura pris fin, ce qui semble déjà être le cas étant donné le retard pris par le secteur depuis le début du mois de mars. Le secteur est intéressant, à condition de ne pas s’y exposer trop fortement.

Pourquoi ? Il faut toujours s’exposer un peu aux secteurs pour lesquels vous anticipez des performances plus décevantes. Il s’agit là en quelque sorte d’une assurance contre le risque de se tromper et la forme ultime de diversification du portefeuille, car personne n’est à l’abri d’une erreur quand il s’agit de prévisions.

La transition d’un portefeuille de croissance de qualité vers des titres « value » sera un jour judicieuse, mais seulement lorsque l’économie aura repris sa vitesse de croisière, ce qui n’est pas pour demain. Il convient donc d’être optimiste et de privilégier les titres de croissance jusqu’à ce que les signes d’une forte croissance économique deviennent plus évidents.

*Ken Fisher est président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments.

Bourse: quelle évolution ?

Bourse: quelle évolution ?

par Ken Fisher* dans l’Opinion

Qui seront les gagnants et les perdants ? Jusqu’à présent, les secteurs plombés par le repli de 2022 sont précisément ceux qui ont tiré le CAC40 et les actions mondiales vers le haut durant ce début de marché haussier, une évolution que peu d’observateurs avaient prévue. De Paris à New York, les sceptiques sont persuadés que la fête sera bientôt finie. N’y prêtez pas attention. Si nous nous trouvons actuellement dans une phase de correction à court terme, voici les secteurs qui devraient alimenter le prochain rebond de ce marché haussier et pourquoi.

par Ken Fisher dans l’Opinion

La spectaculaire reprise amorcée en octobre a été alimentée par les valeurs de croissance de qualité, comme le luxe et la technologie, ce qui explique la sur performance du CAC40. Aussi peu surprenante soit-elle, cette reprise a néanmoins été rarement anticipée. Les secteurs les plus durement touchés dans un marché baissier sont généralement ceux qui se redressent le plus nettement et le plus tôt – c’est ce que j’appelle l’effet de rebond.

Tech. Voyez plutôt : après avoir plongé dans le sillage des produits de luxe lors du repli de 2022, les titres technologiques mondiaux ont progressé de 30,5 % depuis la mi-octobre, lorsque les marchés mondiaux se sont rapprochés du point bas du marché baissier en euros et ont atteint un plancher en dollars. C’est deux fois plus que les actions mondiales, qui ont gagné 14,9 %. Malgré une évolution en dents de scie depuis avril, les acteurs du secteur du luxe à l’échelle mondiale affichent toujours une hausse de 16,6 % sur cette période, contre 22,3 % pour la France.

Les plus alarmistes voient désormais dans l’essor de la technologie un mouvement trompeur alimenté par l’engouement pour l’IA, mais qui s’atténue déjà, de manière similaire aux craintes entourant les taux d’intérêt et aux prévisions d’un affaiblissement futur des marchés boursiers. Or il s’agit simplement d’une correction à la baisse des attentes, presque identique à celles qui avaient mystifié les marchés baissiers en décembre et février, constituant à l’époque des pauses bienvenues. C’est l’ascension du légendaire « mur des inquiétudes » des marchés haussiers.

Aujourd’hui, les fondamentaux comme la croissance mondiale poussive et les craintes de ralentissement en Chine favorisent les actions de croissance de qualité
Les actions des secteurs liées à la technologie des services de communication et de la consommation discrétionnaire ont connu une évolution semblable à celle de la technologie, chutant lors du marché baissier avant de se redresser. Il en va de même pour l’industrie, surtout en France et dans la zone euro, où les rumeurs de récession ont fait plonger le secteur.

Mais aujourd’hui, les fondamentaux comme la croissance mondiale poussive et les craintes de ralentissement en Chine favorisent les actions de croissance de qualité. Pourquoi ? En période de faible expansion, les investisseurs se ruent sur les véritables entreprises de croissance, capables de stimuler leurs ventes malgré le contexte économique. Celles-ci sont rares, et donc particulièrement prisées.

Marges brutes. Il s’agit là encore d’entreprises de qualité du secteur technologique, qui génèrent des marges brutes d’exploitation de 47 % utilisées à des fins de réinvestissement et de croissance, et en particulier celles opérant dans les domaines des logiciels et des semi-conducteurs. Compte tenu du nombre limité de ces acteurs en France, il convient de se tourner vers les grands noms néerlandais, allemands, coréens, taïwanais et américains.

Par ailleurs, la phase actuelle du marché est à nouveau propice au luxe, qui affiche des marges brutes d’exploitation de 57 % en moyenne et représente l’un des fleurons économiques français. Les sociétés suisses et italiennes permettent de diversifier l’exposition au secteur. Les entreprises de vente au détail d’articles diversifiés, absentes en France, mais nombreuses aux Etats-Unis, ont elles aussi le vent en poupe.

Dans les services de communication, le secteur défensif des télécommunications devrait être à la traîne. Privilégiez plutôt les services et médias interactifs liés à la technologie, un secteur qui génère une marge brute considérable de 62 % et est dominé par les Etats-Unis.

La transition d’un portefeuille de croissance de qualité vers des titres « value » sera un jour judicieuse, mais seulement lorsque l’économie aura repris sa vitesse de croisière, ce qui n’est pas pour demain.

Retardataires. Et les retardataires ? Ce sont d’autres secteurs défensifs, à savoir la santé, la consommation de base et les services publics. Ils se comportent relativement mieux pendant les véritables marchés baissiers : médicaments, pain et électricité demeurent des achats indispensables quelle que soit la situation économique, ce qui offre un certain sentiment de stabilité aux investisseurs. En revanche, lors des phases haussières, cette stabilité devient un poids qui les dissuade d’investir.

L’énergie devrait également rester à la traîne. L’année dernière, les investisseurs se sont rués sur les actions des compagnies pétrolières et gazières, prévoyant à tort que les hausses de prix à court terme se transformeraient en pénuries comme dans les années 1970. Ils répètent cette erreur aujourd’hui. En effet, l’abondance de l’offre mondiale limitera les prix et les bénéfices. Vous pouvez ignorer la grève dans le secteur du gaz naturel en Australie. Les usines concernées ne représentaient que 7 % de l’offre mondiale de GNL l’année dernière et de nouvelles sources d’approvisionnement commenceront bientôt à être exploitées.

Il en va de même pour les rumeurs de pénurie de gaz en Europe, car les stocks de l’UE sont remplis à 94 % à la mi-septembre, un niveau nettement supérieur à la moyenne des cinq dernières années.

Quid de l’industrie ? Les marges bénéficiaires brutes modérées à l’échelle mondiale (23,4 %) augurent d’une baisse des rendements une fois que le rebond aura pris fin, ce qui semble déjà être le cas étant donné le retard pris par le secteur depuis le début du mois de mars. Le secteur est intéressant, à condition de ne pas s’y exposer trop fortement.

Pourquoi ? Il faut toujours s’exposer un peu aux secteurs pour lesquels vous anticipez des performances plus décevantes. Il s’agit là en quelque sorte d’une assurance contre le risque de se tromper et la forme ultime de diversification du portefeuille, car personne n’est à l’abri d’une erreur quand il s’agit de prévisions.

La transition d’un portefeuille de croissance de qualité vers des titres « value » sera un jour judicieuse, mais seulement lorsque l’économie aura repris sa vitesse de croisière, ce qui n’est pas pour demain. Il convient donc d’être optimiste et de privilégier les titres de croissance jusqu’à ce que les signes d’une forte croissance économique deviennent plus évidents.

*Ken Fisher est président et directeur de Fisher Investments Europe, président exécutif et codirecteur des investissements de Fisher Investments.

Robotisation et humains: quelle complémentarité ?

Robotisation et humains: quelle complémentarité ?

par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier dans The Conversation

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.
Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie
Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l’auteur
Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND
Travailler côte à côte
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Les premiers robots à entrer dans nos maisons ne sont pas humanoïdes. Roman Pyshchyk/Shutterstock
Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains
La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain
Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Robots et humains: quelle complémentarité ?

Robots et humains: quelle complémentarité ?

par
Ganesh Gowrishankar
Chercheur au Laboratoire d’Informatique, de Robotique et de Microelectronique de Montpellier, Université de Montpellier dans The Conversation

Développer des interactions entre humains et robots n’est pas seulement un défi robotique mais aussi un défi pour comprendre les humains et la société humaine : comment les humains perçoivent les robots, communiquent avec eux, se comportent autour d’eux et les acceptent (ou non). Cela devient d’autant plus important avec l’arrivée de la quatrième génération de robots, qui s’intègrent directement au corps humain.
Nous travaillons à mieux comprendre ce qu’on appelle « l’incarnation » de ces dispositifs : en effet, à mesure que ces robots en viennent à « ne faire qu’un » avec nous, ils modifient nos comportements et notre cerveau.

La première génération d’interactions humain-robot, pour l’industrie
Ce « voyage dans le temps » des robots, passés du statut de machines dangereuses à celui de partie intégrante de la société humaine, dure depuis plus de quarante ans.

Les robots sont très variés, de par leurs tailles (micrométriques voire nanométriques d’un côté, mais de taille humaine ou plus de l’autre), leurs manières de bouger et leurs fonctionnalités (industrielles, spatiales, de défense par exemple). Ici, je ne me concentre pas sur les robots eux-mêmes, mais sur les interactions entre humains et robots qui, selon moi, se sont développées sur quatre générations.

Schéma des quatre générations d’interactions
Ma vision personnelle de l’évolution de nos interactions avec les robots depuis les années 50. Ganesh Gowrishankar, Fourni par l’auteur
Les interactions entre humains et robots à grande échelle ont commencé avec l’arrivée des robots industriels, dont le premier a été introduit par General Motors en 1961. Ceux-ci se sont lentement répandus et au début des années 1980, les robots industriels étaient présents aux États-Unis, en Europe et au Japon.

Ces robots industriels ont permis d’observer la première génération d’interactions humain-robot : ils opèrent généralement dans des zones délimitées, pour s’assurer que les humains ne s’approchent pas d’eux, même par erreur.

Les robots industriels, qui ont d’abord été popularisés par les tâches d’assemblage automobile, sont maintenant utilisés pour diverses tâches, telles que le soudage, la peinture, l’assemblage, le démontage, le pick and place pour les cartes de circuits imprimés, l’emballage et l’étiquetage.

chaine d’assemblage de voitures
Robots dans une usine d’assemblage de voitures. A noter que des garde-corps sur le côté délimitent clairement l’espace de travail du robot de celui des humains. Spencer Cooper/Flickr, CC BY-ND
Travailler côte à côte
La recherche en robotique de cette période s’est concentrée sur le rapprochement des robots avec les humains, ce qui a donné lieu à une deuxième génération d’interactions humain-robot, matérialisée pour le grand public au début des années 2000, lorsque des machines, comme le Roomba et l’Aibo, ont commencé à entrer dans nos maisons.

Ces robots de deuxième génération travaillent à proximité des humains dans nos maisons et nos bureaux pour des « applications de service », telles que le nettoyage des sols, la tonte des pelouses et le nettoyage des piscines – un marché d’environ 13 milliards de dollars US en 2019. En 2009, il y avait environ 1,3 million de robots de service dans le monde ; un nombre qui avait augmenté en 2020 à environ 32 millions.

Les premiers robots à entrer dans nos maisons ne sont pas humanoïdes. Roman Pyshchyk/Shutterstock
Toutefois, bien que ces robots opèrent dans un environnement plus humain que les robots industriels, ils interagissent toujours de manière assez minimale et basique. La plupart de leurs tâches quotidiennes sont des tâches indépendantes, qui nécessitent peu d’interaction. En fait, ils essaient même souvent d’éviter les interactions avec les humains – ce qui n’est pas toujours aisé.

Interagir avec les humains
La relation entre humains et robots évolue désormais progressivement vers la troisième génération d’interactions. Les robots de la troisième génération ont la capacité d’interagir cognitivement ou socialement comme les robots dits « sociaux », mais aussi physiquement comme les exosquelettes.

un robot de rééducation
Lokomat est un robot qui peut s’attacher physiquement aux humains et peut fournir une assistance physique pendant la rééducation. Fondazione Santa Lucia, CC BY-NC-SA
Des robots capables d’assistance physique, qui pourraient être utilisés pour la rééducation et les soins aux personnes âgées, l’assistance sociale et la sécurité, ont par ailleurs été clairement identifiés comme prioritaires par les gouvernements en Europe, aux Etats-Unis ainsi qu’au Japon dès le milieu des années 2010.

Une façon notamment de répondre au problème du vieillissement des populations dans ces pays développés.

Contester la définition du corps humain
Nous voyons désormais lentement l’émergence d’une quatrième génération d’interactions humain-robot, dans laquelle les robots ne sont pas seulement physiquement proches des humains, mais bien connectés au corps humain lui-même. Les robots deviennent des extensions du corps humain.

C’est le cas des dispositifs d’augmentation fonctionnelle -tels que des membres robotiques surnuméraires- ou encore des dispositifs de remplacement fonctionnels tels que les avatars de robots (qui permettent à l’homme d’utiliser un corps de robot pour lui faire réaliser des tâches précises). D’autres dispositifs peuvent également fournir une perception sensorielle supplémentaire aux humains.

Les interactions de quatrième génération sont fondamentalement différentes des autres générations en raison d’un facteur crucial : avant cette génération, l’humain et le robot sont clairement définis dans toutes leurs interactions par les limites physiques de leurs corps respectifs, mais cette frontière devient floue dans les interactions de quatrième génération, où les robots modifient et étendent le corps humain en termes de capacités motrices et sensorielles.

En particulier, les interactions de la quatrième génération devraient interférer avec ces « représentations corporelles ». On sait qu’il existe des représentations spécifiques de notre corps dans notre cerveau qui définissent la façon dont notre cerveau reconnaît notre corps. Ces représentations déterminent notre cognition et nos comportements.

Par exemple, imaginez que vous faites vos courses dans une allée d’épicerie bondée. Pendant que vous atteignez des articles avec votre main droite, vous êtes capable, très implicitement et sans même vous en rendre compte d’éviter la collision de votre bras gauche avec les autres acheteurs.

Ceci est possible car votre cerveau a une représentation de la taille, de la forme de vos membres et est conscient et surveille chacun de vos membres. Si vous tenez un panier dans votre bras (ce qui change la taille et la forme du « bras »), vous aurez plus de difficultés à éviter instinctivement les collisions, et devrez faire un effort conscient pour que le panier ne heurte rien dans votre entourage proche.

De la même manière, notre cerveau peut-il s’adapter à un membre surnuméraire, ou autre addition robotique de quatrième génération, et mettre à jour ses représentations corporelles ? C’est ce que l’on appelle l’« incarnation » en neurosciences.

Si l’incarnation de ces dispositifs peut se produire, à quelle vitesse cela se produit-il ? Quelles sont les limites de cette incarnation ? Comment cela affecte-t-il notre comportement et le cerveau lui-même ?

Les interactions humain-robot de quatrième génération ne remettent pas seulement en question l’acceptation de la machine par le cerveau de l’utilisateur, mais aussi l’acceptation de l’utilisateur dans la société : on ne sait toujours pas si notre société acceptera, par exemple des individus avec des bras robotiques supplémentaires. Cela dépendra certainement d’aspects culturels que nous essayons également d’analyser.

En réalité, les robots de troisième et quatrième génération sont si proches des humains que nous devons mieux comprendre les comportements humains et notre cerveau pour les développer.

Dans nos travaux, nous combinons donc la recherche en robotique avec les neurosciences cognitives, motrices et sociales, pour développer ce que nous croyons être la science des interactions humain-machine.

C’est seulement grâce à une compréhension holistique des individus humains, des machines qui interagissent avec eux et de la société dans laquelle ils vivent, que nous pourrons développer les futures générations de robots. Et, dans un sens, la société du futur.

Co2: Quelle tarification ?

Co2: Quelle tarification ?

par
Directeur de recherche, économie, Centre national de la recherche scientifique (CNRS)

« Se contenter de mettre en place les actions qui présentent à court terme le coût le plus faible par tonne de CO2 sans mener en même temps ces investissements indispensables à long terme, c’est se condamner à échouer dans l’atteinte de nos objectifs climatiques. »

La France, comme tous les pays à revenus élevés, s’est engagée à ramener à zéro ses émissions nettes de gaz à effet de serre à l’horizon 2050. Dans tous les secteurs d’activité, de multiples options permettent de réduire ces émissions, comme nous l’ont rappelé le dernier rapport du GIEC ou le groupe de travail de France Stratégie sur les coûts d’abattement présidé par Patrick Criqui. Comment choisir celles à mettre en œuvre en priorité ? Une réponse simple consiste à fixer comme critère le coût de la tonne de CO2 évitée. Cela revient à utiliser un prix du carbone implicite comme juge de paix : s’il en coûte 20 €/t de CO2 pour l’option A et 40 €/t de CO2 pour l’option B, il faut naturellement privilégier l’option A au nom de l’efficacité économique. Dans sa présentation du Conseil de planification écologique, Emmanuel Macron utilise cet argument pour justifier la priorité donnée au véhicule électrique, le moyen « le plus rentable à l’euro pour diminuer la tonne de CO2 ». De même, le remplacement des chaudières par des pompes à chaleur alimentées par l’électricité est souvent mis en avant comme la solution la moins chère pour diminuer les émissions dans ce secteur. Pourtant, si développer les voitures électriques et les pompes à chaleur est incontournable pour atteindre nos objectifs climatiques, s’en contenter au nom du coût de la tonne de CO2 évitée serait une erreur. Plus généralement, il faut se garder d’une application simpliste de ce critère.

Mesurer le coût de la tonne de CO2 évitée de manière statique est d’abord trompeur, car de nombreux secteurs émetteurs de gaz à effet de serre sont marqués par une forte inertie.

Ainsi, la plupart des bâtiments et des infrastructures de transport de 2050 existent déjà aujourd’hui. Rénover l’ensemble des bâtiments non performants prendra des décennies, le rythme des rénovations thermiques étant contraint par les capacités du secteur. De même pour l’amélioration du réseau ferroviaire.

Aussi, se contenter de mettre en place les actions qui présentent à court terme le coût le plus faible par tonne de CO2 sans mener en même temps ces investissements indispensables à long terme, c’est se condamner à échouer dans l’atteinte de nos objectifs climatiques.

Ensuite, rappelons que les secteurs de l’économie sont interdépendants : remplacer une voiture diesel par une voiture électrique réduit les émissions du secteur des transports, mais la production de l’électricité qui alimente la voiture et la fabrication de sa batterie émettent du CO2.

Le bilan reste largement positif, mais ces émissions doivent être prises en compte pour calculer correctement le coût de la tonne de CO2 évitée, ce qui n’est pas toujours fait. Lorsque ces émissions sont prises en compte, l’approche la plus courante consiste à utiliser le contenu moyen en CO2. Par exemple, les 476 TWh d’électricité consommée en France continentale en 2019 ont émis 22 Mt CO₂ (en partie en France, en partie dans les pays d’où nous avons importé de l’électricité) soit un contenu moyen de 0,046 tCO2/MWh.

Cette approche est juste sur le plan comptable mais elle apporte peu d’informations concernant ce qui nous intéresse ici, à savoir l’impact de l’augmentation de la consommation d’électricité due au développement des véhicules électriques.

Dans un réseau électrique coexistent en effet des capacités de production dont les émissions de CO2 et le coût marginal (le coût de produire un kWh supplémentaire) sont faibles ou nuls (éolien, solaire, hydraulique, nucléaire) et d’autres dont les émissions et le coût sont élevés (les énergies fossiles).

Aussi, la consommation d’électricité marginale est davantage satisfaite par les énergies fossiles – quand les capacités de production sobres en carbone ne suffisent pas à satisfaire la demande d’électricité – que la consommation moyenne. Le contenu en CO2 marginal de l’électricité est donc plus élevé que son contenu moyen, et souvent beaucoup plus : en France, pour l’année 2019, RTE et la CRE estiment cette valeur à 0,59 tCO2/MWh – plus de dix fois le contenu moyen.

À long terme, cependant, cette demande supplémentaire incite à augmenter les capacités de production renouvelables ou nucléaires, limitant le recours aux énergies fossiles ; aussi, le contenu en CO₂ marginal de long terme de l’électricité est inférieur à son contenu marginal de court terme.

Au bout du compte, électrifier les véhicules réduit bien les émissions à long terme, ce qui est important ; mais à court terme, la baisse des émissions est plus faible que celle estimée, en négligeant les émissions dues à la production d’électricité nécessaire pour alimenter ces véhicules, ou en estimant ces émissions par le contenu moyen en CO2 de l’électricité. Corollaire, le coût de la tonne de CO2 évitée est plus élevé que ce qui est généralement estimé.

À l’inverse, certaines mesures favorisent une baisse immédiate des émissions, comme la baisse de la vitesse limite sur autoroute.

Dans les transports, réduire l’utilisation des voitures à essence et diesel diminue la pollution atmosphérique, d’où un impact positif sur la santé. Pour autant, toutes les options pour réduire l’usage des voitures essence et diesel ne se valent pas : si les voitures électriques évitent les polluants dus à la combustion, elles émettent tout de même des particules fines, dues à l’usure des pneus, des freins et des routes. Vélo, marche, réduction des déplacements et transports en commun électriques font mieux de ce point de vue.

Les voitures électriques ne résolvent pas non plus les problèmes de congestion et d’accidents, et d’occupation excessive de l’espace urbain par l’automobile. Surtout, elles ne règlent en rien l’un des principaux problèmes de santé publique : le manque d’activité physique régulière, qui augmente l’occurrence de nombreuses maladies.

Utiliser la marche ou le vélo dans les déplacements quotidiens constitue un moyen efficace d’atténuer ce problème. Ainsi, appliquer la trajectoire de croissance de la marche et du vélo incluse dans le scénario énergétique NégaWatt permettrait d’éviter environ 10 000 décès par an en France à l’horizon 2050.

En matière de logement, se contenter de remplacer le fioul ou le gaz par une pompe à chaleur (PAC) électrique peut sembler la solution la moins coûteuse par tonne de CO₂. C’est oublier que dans les logements très mal isolés (les « passoires thermiques »), le rendement des PAC est moins bon et que les modèles de PAC courants peuvent être insuffisants pour assurer une température confortable.

Aussi, cette substitution ne peut suffire à régler le problème de la précarité énergétique, dont les conséquences sur la santé sont pourtant très importantes. Elle accroîtrait de plus la consommation d’électricité en cas de vague de froid, renforçant ce qui constitue déjà la principale vulnérabilité du système électrique français.

Travaux d’isolation sur un bâtiment. Travaux d’isolation sur un bâtiment
Une rénovation complète et performante de ces logements peut apparaître a priori plus coûteuse par tonne de CO2, mais si l’on prend en compte les problèmes de santé générés par la précarité énergétique et le coût du système électrique, elle fait partie de la solution optimale pour atteindre les objectifs d’émission de gaz à effet de serre de la France.

Concernant l’agriculture et l’alimentation, une solution pour réduire les émissions de gaz à effet de serre qui peut sembler peu coûteuse, car entraînant peu de changements pour le consommateur, consiste à remplacer la viande bovine et ovine des ruminants par celle des volailles ou des porcs.

Les ruminants sont en effet fortement émetteurs de méthane, puissant gaz à effet de serre, ce qui n’est pas le cas de la volaille et des porcs. Problème, volailles et porcs sont très majoritairement élevés dans des conditions déplorables en matière de bien-être animal.

La grande majorité de ces élevages polluent en outre l’eau et l’atmosphère, et contribuent à la résistance aux antibiotiques. Passer à une alimentation plus végétale permettrait au contraire de gagner simultanément sur tous ces critères en matière de santé humaine (réduction de la mortalité), de bien-être animal (moins d’animaux tués), et d’environnement (réduction de la pollution des eaux, des sols et de l’air, moins de menaces sur la biodiversité).

Pour ces raisons, cette évolution est plébiscitée par les associations.

Enfin, deux politiques peuvent aboutir au même coût mesuré en euros, mais l’une peut faire peser ce coût sur des populations plus aisées que l’autre. Par exemple, un cadre effectue en moyenne cinq fois plus de déplacements en avion qu’un ouvrier.

Une taxation du transport aérien (dont la fiscalité est aujourd’hui très avantageuse) peut dès lors contribuer, davantage que d’autres politiques climatiques, à limiter les inégalités.

Plus généralement, le coût de la tonne de CO2 évité ne dit rien sur l’équité des différentes politiques, pourtant une dimension essentielle du développement soutenable. Vouloir introduire davantage de rationalité dans le choix des politiques climatiques est une bonne chose… à condition de ne pas se limiter à un calcul de court terme, et qui négligerait les co-bénéfices de l’action climatique.

D’autres chercheurs s’associent à la publication de cet article : Pierre Charbonnier, Mireille Chiroleu-Assouline, Édouard Civel, Céline Guivarch, Meriem Hamdi-Cherif, Kévin Jean, Marion Leroutier, Sandrine Mathy, Dominique Méda, Christian de Perthuis, Vincent Viguié, Lucas Vivier, Adrien Vogt-Schilb.

Réduction des émissions : Quelle tarification de la tonne de CO2 ?

Réduction des émissions : Quelle tarification de la tonne de CO2 ?

par
Directeur de recherche, économie, Centre national de la recherche scientifique (CNRS)

La France, comme tous les pays à revenus élevés, s’est engagée à ramener à zéro ses émissions nettes de gaz à effet de serre à l’horizon 2050. Dans tous les secteurs d’activité, de multiples options permettent de réduire ces émissions, comme nous l’ont rappelé le dernier rapport du GIEC ou le groupe de travail de France Stratégie sur les coûts d’abattement présidé par Patrick Criqui. Comment choisir celles à mettre en œuvre en priorité ? Une réponse simple consiste à fixer comme critère le coût de la tonne de CO2 évitée. Cela revient à utiliser un prix du carbone implicite comme juge de paix : s’il en coûte 20 €/t de CO2 pour l’option A et 40 €/t de CO2 pour l’option B, il faut naturellement privilégier l’option A au nom de l’efficacité économique. Dans sa présentation du Conseil de planification écologique, Emmanuel Macron utilise cet argument pour justifier la priorité donnée au véhicule électrique, le moyen « le plus rentable à l’euro pour diminuer la tonne de CO2 ». De même, le remplacement des chaudières par des pompes à chaleur alimentées par l’électricité est souvent mis en avant comme la solution la moins chère pour diminuer les émissions dans ce secteur. Pourtant, si développer les voitures électriques et les pompes à chaleur est incontournable pour atteindre nos objectifs climatiques, s’en contenter au nom du coût de la tonne de CO2 évitée serait une erreur. Plus généralement, il faut se garder d’une application simpliste de ce critère.

Mesurer le coût de la tonne de CO2 évitée de manière statique est d’abord trompeur, car de nombreux secteurs émetteurs de gaz à effet de serre sont marqués par une forte inertie.

Ainsi, la plupart des bâtiments et des infrastructures de transport de 2050 existent déjà aujourd’hui. Rénover l’ensemble des bâtiments non performants prendra des décennies, le rythme des rénovations thermiques étant contraint par les capacités du secteur. De même pour l’amélioration du réseau ferroviaire.

Aussi, se contenter de mettre en place les actions qui présentent à court terme le coût le plus faible par tonne de CO2 sans mener en même temps ces investissements indispensables à long terme, c’est se condamner à échouer dans l’atteinte de nos objectifs climatiques.

Ensuite, rappelons que les secteurs de l’économie sont interdépendants : remplacer une voiture diesel par une voiture électrique réduit les émissions du secteur des transports, mais la production de l’électricité qui alimente la voiture et la fabrication de sa batterie émettent du CO2.

Le bilan reste largement positif, mais ces émissions doivent être prises en compte pour calculer correctement le coût de la tonne de CO2 évitée, ce qui n’est pas toujours fait. Lorsque ces émissions sont prises en compte, l’approche la plus courante consiste à utiliser le contenu moyen en CO2. Par exemple, les 476 TWh d’électricité consommée en France continentale en 2019 ont émis 22 Mt CO₂ (en partie en France, en partie dans les pays d’où nous avons importé de l’électricité) soit un contenu moyen de 0,046 tCO2/MWh.

Cette approche est juste sur le plan comptable mais elle apporte peu d’informations concernant ce qui nous intéresse ici, à savoir l’impact de l’augmentation de la consommation d’électricité due au développement des véhicules électriques.

Dans un réseau électrique coexistent en effet des capacités de production dont les émissions de CO2 et le coût marginal (le coût de produire un kWh supplémentaire) sont faibles ou nuls (éolien, solaire, hydraulique, nucléaire) et d’autres dont les émissions et le coût sont élevés (les énergies fossiles).

Aussi, la consommation d’électricité marginale est davantage satisfaite par les énergies fossiles – quand les capacités de production sobres en carbone ne suffisent pas à satisfaire la demande d’électricité – que la consommation moyenne. Le contenu en CO2 marginal de l’électricité est donc plus élevé que son contenu moyen, et souvent beaucoup plus : en France, pour l’année 2019, RTE et la CRE estiment cette valeur à 0,59 tCO2/MWh – plus de dix fois le contenu moyen.

À long terme, cependant, cette demande supplémentaire incite à augmenter les capacités de production renouvelables ou nucléaires, limitant le recours aux énergies fossiles ; aussi, le contenu en CO₂ marginal de long terme de l’électricité est inférieur à son contenu marginal de court terme.

Au bout du compte, électrifier les véhicules réduit bien les émissions à long terme, ce qui est important ; mais à court terme, la baisse des émissions est plus faible que celle estimée, en négligeant les émissions dues à la production d’électricité nécessaire pour alimenter ces véhicules, ou en estimant ces émissions par le contenu moyen en CO2 de l’électricité. Corollaire, le coût de la tonne de CO2 évitée est plus élevé que ce qui est généralement estimé.

À l’inverse, certaines mesures favorisent une baisse immédiate des émissions, comme la baisse de la vitesse limite sur autoroute.

Dans les transports, réduire l’utilisation des voitures à essence et diesel diminue la pollution atmosphérique, d’où un impact positif sur la santé. Pour autant, toutes les options pour réduire l’usage des voitures essence et diesel ne se valent pas : si les voitures électriques évitent les polluants dus à la combustion, elles émettent tout de même des particules fines, dues à l’usure des pneus, des freins et des routes. Vélo, marche, réduction des déplacements et transports en commun électriques font mieux de ce point de vue.

Les voitures électriques ne résolvent pas non plus les problèmes de congestion et d’accidents, et d’occupation excessive de l’espace urbain par l’automobile. Surtout, elles ne règlent en rien l’un des principaux problèmes de santé publique : le manque d’activité physique régulière, qui augmente l’occurrence de nombreuses maladies.

Utiliser la marche ou le vélo dans les déplacements quotidiens constitue un moyen efficace d’atténuer ce problème. Ainsi, appliquer la trajectoire de croissance de la marche et du vélo incluse dans le scénario énergétique NégaWatt permettrait d’éviter environ 10 000 décès par an en France à l’horizon 2050.

En matière de logement, se contenter de remplacer le fioul ou le gaz par une pompe à chaleur (PAC) électrique peut sembler la solution la moins coûteuse par tonne de CO₂. C’est oublier que dans les logements très mal isolés (les « passoires thermiques »), le rendement des PAC est moins bon et que les modèles de PAC courants peuvent être insuffisants pour assurer une température confortable.

Aussi, cette substitution ne peut suffire à régler le problème de la précarité énergétique, dont les conséquences sur la santé sont pourtant très importantes. Elle accroîtrait de plus la consommation d’électricité en cas de vague de froid, renforçant ce qui constitue déjà la principale vulnérabilité du système électrique français.

Travaux d’isolation sur un bâtiment. Travaux d’isolation sur un bâtiment
Une rénovation complète et performante de ces logements peut apparaître a priori plus coûteuse par tonne de CO2, mais si l’on prend en compte les problèmes de santé générés par la précarité énergétique et le coût du système électrique, elle fait partie de la solution optimale pour atteindre les objectifs d’émission de gaz à effet de serre de la France.

Concernant l’agriculture et l’alimentation, une solution pour réduire les émissions de gaz à effet de serre qui peut sembler peu coûteuse, car entraînant peu de changements pour le consommateur, consiste à remplacer la viande bovine et ovine des ruminants par celle des volailles ou des porcs.

Les ruminants sont en effet fortement émetteurs de méthane, puissant gaz à effet de serre, ce qui n’est pas le cas de la volaille et des porcs. Problème, volailles et porcs sont très majoritairement élevés dans des conditions déplorables en matière de bien-être animal.

La grande majorité de ces élevages polluent en outre l’eau et l’atmosphère, et contribuent à la résistance aux antibiotiques. Passer à une alimentation plus végétale permettrait au contraire de gagner simultanément sur tous ces critères en matière de santé humaine (réduction de la mortalité), de bien-être animal (moins d’animaux tués), et d’environnement (réduction de la pollution des eaux, des sols et de l’air, moins de menaces sur la biodiversité).

Pour ces raisons, cette évolution est plébiscitée par les associations.

Enfin, deux politiques peuvent aboutir au même coût mesuré en euros, mais l’une peut faire peser ce coût sur des populations plus aisées que l’autre. Par exemple, un cadre effectue en moyenne cinq fois plus de déplacements en avion qu’un ouvrier.

Une taxation du transport aérien (dont la fiscalité est aujourd’hui très avantageuse) peut dès lors contribuer, davantage que d’autres politiques climatiques, à limiter les inégalités.

Plus généralement, le coût de la tonne de CO2 évité ne dit rien sur l’équité des différentes politiques, pourtant une dimension essentielle du développement soutenable. Vouloir introduire davantage de rationalité dans le choix des politiques climatiques est une bonne chose… à condition de ne pas se limiter à un calcul de court terme, et qui négligerait les co-bénéfices de l’action climatique.

D’autres chercheurs s’associent à la publication de cet article : Pierre Charbonnier, Mireille Chiroleu-Assouline, Édouard Civel, Céline Guivarch, Meriem Hamdi-Cherif, Kévin Jean, Marion Leroutier, Sandrine Mathy, Dominique Méda, Christian de Perthuis, Vincent Viguié, Lucas Vivier, Adrien Vogt-Schilb.

Quelle politique internationale contre la drogue

Quelle politique internationale contre la drogue

par Khalid Tinasti
Chercheur au Centre on Conflict, Development and Peacebuilding, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Yong-an Zhang
Professeur d’histoire, Université de Shanghai dans The Conversation

Le régime international de contrôle des drogues a été établi il y a plus d’un siècle , mais la question a rarement reçu autant d’attention que depuis les années 2010. Avec la légalisation du cannabis dans les Amériques, la crise des surdoses d’opioïdes aux États-Unis, l’ accord de paix en Colombie, la brutale « guerre contre la drogue » du président philippin Rodrigo Duterte et l’adoption d’une nouvelle déclaration politique à l’ ONU session spéciale , la politique en matière de drogue a souvent occupé le devant de la scène dans les débats politiques nationaux et internationaux.

Malgré les débats intenses, les résultats sont mitigés : la consommation problématique et récréative continue d’augmenter ( avec une augmentation de 23 % de la consommation en une décennie , le trafic et la violence des gangs s’aggravent, et la production de drogues tant naturelles que synthétiques est en plein essor. -la crise au lendemain d’une pandémie mondiale, combinant l’invasion de l’Ukraine par la Russie, les frictions économiques et le changement climatique, fait de la politique en matière de drogue un domaine peu prioritaire pour les décideurs politiques et le grand public.

Les défis sont immenses et influent directement sur la santé publique, la justice pénale, la sécurité des citoyens et l’intégrité du régime international de contrôle des drogues.

Premièrement, les services de réduction des risques liés aux surdoses et de prévention du VIH sont pris dans la bataille autour de la réforme du contrôle des drogues. La plupart des personnes qui s’injectent des drogues vivent dans les pays en développement, mais le financement de la réduction des risques est tombé à seulement 5 % des besoins mondiaux , contre 10 % il y a dix ans. L’accès au soulagement de la douleur n’est guère meilleur et reste extrêmement inégal , les patients recevant de la morphine dans les pays à revenu élevé ayant accès à 47g contre 0,01g par an dans les plus pauvres.

Deuxièmement, la recherche sur les bienfaits médicinaux et de bien-être du cannabis ou des psychédéliques a attiré l’attention. Ces industries et leur développement repoussent les limites du régime international de contrôle des drogues , qui concerne la limitation stricte de l’accès aux substances classifiées pour un usage médical légitime et la recherche scientifique, et l’interdiction stricte d’accès ou de production pour tout autre marché ou utilisation. .

L’Organe international de contrôle des stupéfiants, qui tient les pays responsables de leur respect du droit international des drogues et certifie le commerce international des médicaments contrôlés, se prépare à fixer des limites et des normes pour l’usage médical du cannabis, tentant de réglementer le commerce et l’avenir de l’industrie du cannabis. perspectives mondiales.

Troisièmement, la criminalisation de la consommation de drogue reste un sujet controversé à l’échelle mondiale. Il vise à réduire la demande de drogue, mais le résultat final est souvent une augmentation des taux d’incarcération et de détention provisoire et leurs préjugés raciaux. Près de 30 pays en plus des gouvernements des États ont adopté des plans de dépénalisation ou des réductions de la responsabilité pénale pour l’usage de drogues, mais la criminalisation est encore largement utilisée comme moyen de dissuasion. Les personnes qui consomment de la drogue sont encore considérées comme se livrant à une activité criminelle dans la grande majorité des pays du monde.

Enfin, la légalisation peut sembler être une solution pragmatique et réalisable, mais elle nécessite un effort de collaboration entre les parties prenantes. Le Canada ou certains États américains ont autorisé l’accès au cannabis non médical en établissant des marchés légaux réglementés, mais comme l’ont montré les recherches, la réglementation n’est pas seulement des règles établies par les gouvernements qui entraînent des sanctions en cas de violation.. Par exemple, qui établit les normes dans la chaîne d’approvisionnement – ​​l’État qui établit les normes, les dispensaires avec leurs cahiers des charges aux agriculteurs, ou les labels privés de normalisation ? Pour éviter des conséquences imprévues, la réglementation doit être abordée avec prudence. Il faut aussi comprendre que dans un cadre international sans remise en cause des conventions sur les drogues qui interdisent tout usage non médical de substances psychoactives depuis les années 1960, il est peu probable d’envisager un tel débat sur la réforme normative dans le contexte géopolitique actuel.

La somme de ces lacunes en matière de contrôle des drogues, combinée à l’absence de mise en œuvre ou même de toute solution consensuelle, rend difficile de prédire si nous pourrions changer radicalement le régime international de contrôle des drogues dans un avenir proche. Ses budgets dédiés et sa mise en œuvre continuent de se concentrer sur la réduction de l’offre et de la demande par la répression. Les populations affectées continueront probablement d’être criminalisées dans la plupart des pays, et la société civile sera laissée à l’écart du processus décisionnel.

Ce qui est certain, c’est que dans le contexte actuel, toute réforme significative est désormais loin d’être une priorité dans les agendas publics. Les années 2010, lorsque des concepts tels que la réduction des méfaits et la dépénalisation ont été avancés sans perturber le statu quo, ne sont plus qu’un lointain souvenir.

Perspectives économiques–Quelle évolution de l’inflation ?

Perspectives économiques–Quelle évolution de l’inflation ?

L’inflation qui s’affichait à 5,8% en juin reste encore loin de la cible des 2%. Christopher Dembik, directeur de la recherche macro-économique chez Saxo Bank, analyse pour La Tribune les marges de manœuvres de la BCE.

La BCE devrait annoncer une nouvelle hausse de taux jeudi, pourtant ça ne semble pas avoir d’effet concret sur l’inflation sous-jacente au sein de la zone euro contrairement aux Etats-Unis qui se sont même permis de marquer une pause lors de la précédente réunion, même si la Fed devrait, à nouveau, annoncer un relèvement le 26 juillet prochain. Pourquoi ?

CHRISTOPHER DEMBIK – Il y a une première réponse à cette question : la BCE a commencé son cycle de hausses de taux quelques mois plus tard que les Etats-Unis. Or, il faut généralement neuf à dix-huit mois pour constater l’impact des relèvements sur l’économie. Ce qui explique qu’il y ait déjà un décalage de l’impact de la politique monétaire dans la zone euro par rapport aux Etats-Unis.

Autre point important, il y a, aux Etats-Unis, une structure globalement unifiée entre les Etats alors que du côté européen, la BCE doit composer avec les vingt-sept Etats membres qui ont chacun leurs propres spécificités. Par exemple, l’Espagne connaît une tendance à la désinflation très marquée avec des prix à la production en contraction alors qu’en Allemagne le processus de désinflation est un peu plus lent. Cela complique donc la tâche de la BCE pour mener sa politique monétaire.

Cet écart tient également à la nature même de l’inflation. Aux Etats-Unis, lors de la crise sanitaire, les mesures de soutien en faveur des ménages ont largement permis de préserver leur pouvoir d’achat, leur permettant de se constituer un surplus d’épargne ce qui, d’une certaine manière, était inflationniste puisque cela leur a permis de davantage consommer. Un phénomène que l’on n’a pas observé en Europe où les dispositifs ont été très différents d’un pays à l’autre. Ainsi, aux Etats-Unis c’est davantage une inflation par la demande alors que du côté européen elle est plutôt liée à l’offre. En effet, dans l’UE, c’est le coût des intrants dans le processus de production, comme l’énergie ou les matériaux provenant de Chine ou d’Inde, qui tire les prix à la hausse.

Zone euro : l’inflation va-t-elle vraiment revenir à son niveau d’avant-crise ?

L’exercice de la BCE est extrêmement compliqué car personne n’est en mesure de dire à quel niveau se situera l’inflation au-delà de trois mois. De plus, on a réfléchi avec une logique qui datait d’avant la crise sanitaire : celle de dire que si on augmente les taux, cela va provoquer des faillites d’entreprises donc du chômage et donc une récession. La réalité est pourtant tout autre désormais, et Jerome Powell [le président de la Fed, ndlr] l’a bien souligné lors du forum de la BCE : les corrélations qui valaient avant le Covid-19 d’un point de vue économique ne fonctionnent plus désormais. Cela peut être temporaire ou peut-être sommes-nous face à un vrai changement de paradigme, mais cela illustre du moins toute la difficulté de faire des exercices de prévision dans la situation actuelle. On le voit également aux Etats-Unis où on a longtemps annoncé une récession. Or ce n’est clairement pas le cas. L’économie est plus difficile à prévoir, même sur six mois.

Une légère récession, est-ce si grave ?

L’Espagne, l’Italie et la Grèce ne cessent d’alerter la BCE contre de futures hausses de taux. Quels risques de nouveaux relèvements pourraient-ils faire peser sur ces économies ?

Elles ont conscience que si on normalise davantage la politique monétaire actuelle, le coût d’emprunt global va de facto augmenter pour toute la zone euro, et ce, davantage pour leurs pays que, par exemple, pour la France. Et pour cause, la Grèce, notamment, présente un taux d’endettement à 178 % du Produit intérieur brut (PIB). Elle pourrait alors avoir des difficultés pour se financer sur les marchés du fait d’un manque de confiance de la part des investisseurs. Ce n’est, pour autant, pas ce qu’on observe. Dans le cas de l’Italie par exemple, qui avait, en début d’année, l’objectif de lever 5 milliards d’euros. Elle est finalement parvenue à en lever 26 milliards. En effet, nous ne sommes pas dans la situation de 2012 marquée par une crise de la dette qui avait largement touché les pays du sud de l’Europe. Désormais, la politique monétaire se transmet bien, et si demain, on devait aider un pays en difficulté, on disposerait des mesures nécessaires pour intervenir de manière efficace. De quoi rassurer les investisseurs. Sans compter que ces pays du sud de la zone euro connaissent, actuellement, une performance économique bien meilleure que les pays du centre.

En revanche, il existe un risque pour les entreprises qui peut inquiéter les gouvernements italiens ou encore grecs. En effet, si le coût d’emprunt augmente trop du fait du resserrement monétaire, nombreuses sont celles qui risquent de se retrouver en difficulté car elles ne pourront plus accéder au crédit bancaire et donc ne pourront plus se refinancer ou investir, ce qui pénalisera leur croissance future. L’Etat devra alors choisir ou non de mettre les moyens pour les sauver. Donc, à mesure que la BCE relève ses taux, la question qui se pose est : quel va être l’impact pour les entreprises ? Or, on commence d’ores et déjà à constater des difficultés dans tous les pays de la zone euro, à commencer par les TPE et PME comme en France. Et on sait qu’elles constituent le premier étage de la fusée.

Quelle nouvelle école ?

Quelle nouvelle école ?

par
Sylvain Wagnon
Professeur des universités en sciences de l’éducation, Faculté d’éducation, Université de Montpellier dans The Conversation

Dans un monde qui s’urbanise à toute vitesse, où les plus jeunes passent de moins en moins de temps dehors, les bénéfices d’une connexion des enfants à la nature font aujourd’hui l’objet de nombreux travaux de recherche et sont de mieux en mieux documentés. L’activité en plein air y parait non seulement bénéfique pour la santé des plus jeunes, mais aussi pour leur bien-être global. Les jeux et les moments passés dans la nature – à observer, courir, chanter, écouter et sentir – favorisent également une relation différente à soi-même et à l’environnement. Avant même de considérer les bienfaits de l’exposition à la nature pour la formation de futurs citoyens dans le contexte du réchauffement global, le temps passé dehors favorise la santé physique et mentale des enfants. Une causalité a par exemple été établie entre ces moments de plein air et la prévention des risques de myopie. En 2008, la professeure d’orthoptique Kathryn Rose a en effet évalué le temps moyen passé dehors par une cohorte d’enfants australiens (deux heures en moyenne), puis d’enfants singapouriens (trente minutes seulement en moyenne), afin de mettre en relation ces temps d’exposition à la lumière naturelle du soleil avec la myopie, deux fois plus élevée chez les petits Singapouriens.

Ces dernières années, la recherche scientifique nous a également permis de mettre en rapport un accès réduit aux espaces naturels avec le risque allergique et la prédisposition à l’obésité.

Des recherches, notamment celles conduites par la professeure en sciences de l’Environnement de l’université de l’Illinois, Ming Kuo, mettent aussi en évidence les avantages de la proximité avec la nature pour la réussite des apprentissages scolaires et la formation de futurs citoyens responsables et engagés dans la préservation de notre planète.

Dans une méta-analyse publiée en 2019, Ming Kuo et ses collègues ont ainsi dressé le bilan des différentes études sur les rôles potentiellement positifs de la nature dans le développement de l’enfant.

Ils ont identifié huit bienfaits : l’exposition à la nature procure un gain d’attention, d’autodiscipline, d’intérêt, une meilleure forme physique, un stress réduit, un cadre plus calme, propice à la fois, à plus de coopération et d’autonomie. Ces bienfaits, souligne l’étude, ont pu être observés même lorsque cette exposition s’avère réduite.

Publiés en 2016, des travaux montrent par exemple que les élèves assignés au hasard à des salles de classe avec vue sur de la végétation obtiennent de meilleurs résultats aux tests de concentration, et voient leur fréquence cardiaque, tout comme leur état de stress diminuer.

Dès l’émergence de la société industrielle et urbaine au XIXe siècle, les réformateurs de l’éducation, notamment ceux de l’éducation nouvelle, avaient déjà mis en lumière le besoin d’être en lien avec la nature.

Au début du XXe siècle, le pédagogue belge Ovide Decroly l’affirmait également à l’aide d’une formulation marquante :

« La classe, c’est quand il pleut. »

À la même période, la classe-promenade, proposée par Élise et Célestin Freinet, est une activité pédagogique qui consiste à emmener les élèves en dehors de la salle de classe pour explorer la nature, observer, collecter des données et expérimenter directement, permettant ainsi d’intégrer l’apprentissage à travers des interactions concrètes avec l’environnement. Par exemple, lors d’une classe-promenade, les élèves peuvent étudier les différents types d’arbres dans un parc, observer la faune locale et documenter leurs découvertes à travers des dessins ou des descriptions.

Les bienfaits d’une éducation plus proche de la nature et plus consciente des enjeux climatiques suscitent également, depuis plusieurs décennies, l’intérêt des dirigeants.

Dès 1975, la Charte de Belgrade de l’Unesco déclarait qu’un nouveau type d’éducation était nécessaire afin de :

« former une population mondiale consciente et préoccupée de l’environnement et des problèmes qui s’y rattachent, une population qui ait les connaissances, les compétences, l’état d’esprit, les motivations et le sens de l’engagement qui lui permettent de travailler individuellement et collectivement à résoudre les problèmes actuels, et à empêcher qu’il ne s’en pose de nouveaux. »

Près de cinquante ans plus tard, en septembre 2022, le Sommet de l’ONU sur la transformation de l’éducation réaffirmait le rôle crucial de l’éducation à l’ère des dérèglements climatiques, en proposant d’instaurer un « partenariat pour une éducation verte ».

Cherchant tout à la fois à réformer le cadre de l’éducation (avec des « écoles vertes, fonctionnant de manière durable ») comme son ambition, avec des « programmes verts insérant l’éducation climatique » dans les classes grâce à une formation adéquate des enseignants, l’objectif affiché de ce partenariat est de doubler le nombre de pays qui incluent l’éducation climatique dans les programmes scolaires aux niveaux préprimaire, primaire et secondaire.

Pour le moment, la situation reste toutefois très inégale d’un pays à l’autre. L’Unesco a ainsi constaté que plus de la moitié des programmes scolaires des pays du globe ne font aucune référence au changement climatique, et que seulement 19 % évoquent la biodiversité.

Ces dernières années cependant, des choix politiques allant dans le sens des objectifs de l’Unesco ont pu être observés. En 2019, l’Italie est ainsi devenue le premier pays au monde à incorporer le réchauffement climatique au tronc obligatoire de son système éducatif, avec un enseignement spécifique de 33 heures.

Dès 2020, le Cambodge emboîte le pas en inscrivant le réchauffement et son étude au cursus des lycéens, et en développant un réseau d’écoles pilotes engagées dans des projets d’agriculture résiliente aux défis climatiques.

En 2021, le parlement argentin ratifiait de son côté une loi exigeant que l’éducation environnementale soit présente à travers tous les âges du cursus scolaire.

Mais de tels changements ne sont pas toujours pérennes. Ainsi, si l’Inde a longtemps fait office de pionnière, avec la décision de sa Cour suprême d’instaurer l’étude de l’environnement comme matière obligatoire à tous les niveaux du cursus dès 2004, le pays vient de connaître un rétropédalage en enlevant les chapitres de cette matière consacrée au réchauffement climatique.

Le PISA (Programme international pour le suivi des acquis des élèves) évalue depuis 2006 les connaissances en matière d’environnement des enfants à travers le monde. Rapport après rapport, les données collectées confirment les divergences déplorées par l’Unesco… Et en pointent d’autres.

Les données récoltées en 2018 montrent ainsi que si 79 % des enfants des 38 pays de l’OCDE assurent connaître le sujet du réchauffement climatique, ce chiffre passe de 90 % à Hong Kong, et chute à 40 % en Arabie saoudite.

Cette même année, le PISA a également interrogé l’espoir des élèves de pouvoir « faire quelque chose pour résoudre ces problèmes mondiaux ». 57 % ont répondu oui. Étonnement, poursuit le rapport, ce chiffre n’est pas corollaire des connaissances acquises : dans les deux pays les plus performants de l’OCDE – la Corée et Singapour –, seuls 20 et 24 % des élèves interrogés pensent pouvoir avoir un impact sur le dérèglement climatique.

D’après les données récoltées par l’OCDE, les jeunes se préoccupent du changement climatique, mais se sentent incapables de faire la différence. OECD PISA 2018
Les dimensions d’âge et de genre
Au sein d’un même pays, la sensibilisation au réchauffement climatique et l’envie d’agir pour lutter contre ce mal global peuvent également varier sensiblement en fonction de l’âge et du genre.

En Australie, par exemple, une équipe de chercheurs de l’université de Sydney ayant interrogé 1000 élèves urbains de 8 à 14 ans a montré que si un enfant sur deux se disait « fortement connecté à la nature », et à ce titre enclin à s’engager dans des activités de protection de la biodiversité, ce chiffre chutait à un sur cinq avec l’arrivée de l’adolescence.

Autre divergence pointée par les chercheurs : les filles font preuve de plus d’empathie envers la faune et ont en moyenne établi des liens émotionnels plus étroits avec la flore que les garçons.
En France, la loi « climat et résilience » d’août 2021 consacre dans son article 5 le rôle fondamental de l’éducation au développement durable pour tous, du primaire jusqu’au lycée. Une ambition présente également au niveau européen : depuis 2022, un nouveau cadre de compétences, le GreenComp, a été mis en place pour proposer une nouvelle approche qui « englobe et transcende la simple préservation de l’environnement en réexaminant la place des êtres humains et le sens à donner au développement de nos sociétés ».

Durant le premier quinquennat d’Emmanuel Macron, les collèges et lycées français auront vu débarquer dans chaque classe un élève éco-délégué, chargé de sensibiliser sa classe aux enjeux climatiques. Avec les nouveaux programmes de 2019, les termes « réchauffement (ou changement) climatiques » se sont également invités dans les programmes d’enseignement scientifique et de sciences et vie de la Terre des lycéens.

À l’époque, plusieurs voix du monde de la recherche, dont celle de Valérie Masson-Delmotte, climatologue et présidente du groupe 1 du GIEC, avaient jugé cette évolution comme manquant d’ambition.

Depuis, plusieurs pistes ont été lancées afin de renforcer les outils et moyens pour faire évoluer l’éducation à l’aune des enjeux climatiques.

En mars 2023, le rapport de l’Inspection générale de l’Éducation nationale – intitulé « Comment les systèmes d’enseignement et de recherche peuvent-ils être, face au changement climatique, à la fois transformés et transformants ? » – énumérait neuf recommandations, insistant notamment sur la formation des professeurs « aux impacts des activités humaines sur l’environnement ainsi qu’à la connaissance du contexte international », la mise en place de « mesure de l’impact environnemental des établissements », le « renforcement de la formation scientifique » en primaire, la mise en place de « projet éducatif lié à une thématique environnementale » avec une « plage dédiée interdisciplinaire ».

Dans la même logique, le 23 juin 2023, le ministère de l’Éducation nationale a énoncé 20 mesures qui doivent permettre aux élèves de mieux comprendre les enjeux de la transition écologique dans le cadre des enseignements.

À l’échelle globale, la question des disciplines concernées par cette éducation environnementale est de plus en plus débattue. Souvent cantonnée aux enseignements scientifiques, l’étude des défis climatiques devrait, pour certains, apparaître également dans les autres matières.

Historienne à l’université d’Oxford, Amanda Power propose ainsi, comme elle le soulignait dans un article publié sur The Conversation UK en 2020, de faire évoluer les programmes d’histoire pour éclairer les élèves sur les origines de la crise climatique :

« L’un des principaux problèmes liés à la compréhension par le public de la situation actuelle est que la plupart des informations et des interprétations proviennent des sciences. Les scientifiques peuvent expliquer ce qui se passe et faire des projections pour l’avenir. Savoir pourquoi les sociétés humaines ont fait les choix qui nous ont conduits là où nous en sommes ne fait pas partie de leur discipline. Pourtant, les crises climatiques et environnementales contemporaines sont le fruit de l’activité humaine. »

De manière tout aussi forte, le professeur nigérian en philosophie de l’éducation, Bellarmine Nneji, plaide pour intégrer l’éthique environnementale au cursus des élèves, dans l’optique de les préparer aux enjeux climatiques, et ce, dès le plus jeune âge. Dans un article publié en 2022 sur The Conversation Afrique, il soulignait ainsi :

« Les enfants sont curieux et se posent beaucoup de questions sur ce qui les entoure. C’est ce que l’introduction de la philosophie à l’école primaire et secondaire pourrait exploiter. Elle contribuerait à former le raisonnement des enfants et les préparerait à prendre part aux débats et à l’élaboration des politiques. »

Selon lui, l’enseignement à l’éthique environnementale permettrait aux jeunes générations de connaître leurs droits, au premier rang desquels celui, fondamental, d’hériter « d’un environnement sain et durable ».

Mesure Indice des prix : quelle pertinence méthodologique ?

Mesure Indice des prix : quelle pertinence méthodologique ?


Les écarts entre l’inflation réelle et celle perçue par les ménages et les erreurs de prévision des économistes sur son évolution soulignent les imperfections de l’indice des prix, observe Marie Charrel, journaliste au « Monde ».


De fait cet indice des prix à la consommation n’est représentatif que de ceux dont la structure de consommation est conforme au panier type. Or il y a coup de dispersion autour de cette moyenne. Le problème est que cette indice connaît des déformations régulières qui ne sont pas intégrées à temps, des déformations structurelles ( Exemple la montée régulière des dépenses contraintes) tout autant que des déformations conjoncturelles . Du coup quand on annonce en France une évolution en hausse des prix de l’ordre de 5 %, souvent cette évolution est plus proche de 10 % et inversement en période de déflation. NDLR

Le pouvoir d’influence de Beyoncé ne se limite pas à la scène pop et aux ventes de disques. Selon Michael Grahn, chef économiste de la Danske Bank à Stockholm, il s’étend même jusqu’à… l’inflation. De passage dans la capitale suédoise les 10 et 11 mai, la chanteuse américaine a attiré quelque 90 000 spectateurs à ses deux concerts. Cet afflux de visiteurs aurait, selon lui, fait grimper l’indice suédois des prix à la consommation de 0,2 % en mai, où il s’est établi à 9,7 % au total. A eux seuls, les prix dans les hôtels et restaurants ont bondi de 3,3 %.

Si la théorie de M. Grahn ne convainc pas tout le monde, elle a le mérite de rappeler que l’inflation est un indicateur imparfait, en partie influencé par des phénomènes inattendus. Ces derniers sont souvent moins anecdotiques que la tournée de « Queen B » – à l’exemple de la guerre en Ukraine et de la douloureuse flambée des matières premières qu’elle a alimentée. Dans un autre registre, le prix des oignons en Inde, produit de base de l’alimentation locale, détermine en grande partie les variations de l’inflation dans le pays. Et les politiques le surveillent de près, car sa flambée, en général accompagnée de colère populaire, est susceptible de faire tomber les gouvernements.

En Europe, le débat récurrent porte plutôt sur l’écart entre l’indice des prix à la consommation (l’IPC, ou sa version harmonisée par Eurostat, l’IPCH) et l’inflation perçue par les ménages. Une étude publiée mi-juin par les économistes d’Allianz souligne ainsi que cette dernière s’établissait à 16,1 % en mai, contre 6,1 % pour l’IPCH. « Comme observé durant la crise de 2008, cet écart s’est creusé ces derniers mois », détaillent les auteurs. Mais, cette fois, celui-ci devrait durer plus longtemps, estiment-ils. Avec un risque : plus les ménages anticipent une hausse des prix, plus ils modifient leurs comportements d’achat et d’épargne en conséquence.

Développement pays pauvres : quelle aide publique

Développement pays pauvres : quelle aide publique

Par
Florian Léon
Chargé de recherche, Fondation pour les Etudes et Recherches sur le Développement International (FERDI); Chercheur associé au CERDI (UMR UCA-CNRS-IRD), Université Clermont Auvergne (UCA) dans The Conversation

Jean-Baptiste Jacouton
Chargé de recherche, Agence française de développement (AFD) dans The Conversation .

Les 22 et 23 juin prochains se tiendra à Paris le Sommet pour un nouveau pacte financier mondial voulu par le président français Emmanuel Macron. L’objectif est de proposer des solutions pour faciliter l’accès des pays vulnérables aux financements nécessaires pour faire face aux conséquences des crises récentes et futures. Cet agenda place les banques publiques de développement au centre du débat et témoigne de la renaissance institutionnelle dont jouissent ces institutions depuis plusieurs années. Selon la base de données produite conjointement par l’Agence française de développement (AFD) et l’Institute of New Structural Economics de l’Université de Pékin, il existe plus de 500 banques publiques de développement, réparties sur tous les continents, et totalisant 23 000 milliards de dollars d’actifs. Cet écosystème regroupe des institutions très diverses. Les banques publiques de développement constituent un maillon essentiel pour le financement des économies vulnérables, notamment en période de crise. Divers travaux ont mis en évidence l’importance de ces banques pour soutenir l’activité économique durant une crise, au moment où les flux financiers privés se tarissent.

La capacité d’action contracyclique des banques publiques de développement repose sur deux raisons principales.

D’une part, ces acteurs ont un mandat explicite ou implicite de soutien à l’activité en période de crise. Ce rôle s’est confirmé au cours de la crise sanitaire pendant laquelle de nombreux pays ont utilisé leurs banques publiques de développement pour soutenir les entreprises les plus vulnérables, en particulier les plus petites.

D’autre part, les banques publiques de développement sont des institutions dont les ressources sont moins sensibles aux variations du cycle économique, comme nous l’avons montré dans une étude portant sur les banques publiques africaines. Contrairement aux banques commerciales, elles accueillent peu de dépôts et bénéficient d’une garantie implicite de l’État. Autrement dit, en période de crise, leurs ressources sont stables et elles peuvent maintenir leur activité tandis que les banques privées voient leurs ressources se contracter.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Certaines banques publiques de développement accroissent même leur activité en période de crise. Lors de la pandémie de Covid-19, l’US Small Business Administration a par exemple vu ses capitaux propres multipliés par 53 pour soutenir les entreprises états-uniennes, en faisant l’une des plus grosses banques publiques de développement au monde.

Bien qu’essentiel, le rôle des banques publiques de développement à la suite d’un choc risque de devenir insuffisant dans le futur. En effet, la multiplication et l’intensification des crises (économiques, climatiques, géopolitiques, sanitaires, etc.) met en danger leur capacité d’adaptation. Sous pression constante pour soutenir l’économie et la société, les banques publiques de développement accroîtraient leur exposition aux risques (par exemple en finançant des entreprises qui auraient fait faillite indépendamment de la survenue d’une crise), menaçant la pérennité de leurs activités.

Dès lors, il paraît essentiel que les banques publiques de développement adoptent une approche plus proactive, alors qu’elles restent dans une optique très réactive (soutien à l’économie suite à une crise). En orientant leurs activités vers les secteurs sociaux, en contribuant activement à la réduction des inégalités ou en renforçant la résilience face aux changements climatiques, leurs investissements doivent permettre de réduire l’ampleur et les conséquences des chocs en cas d’occurrence, autrement dit la vulnérabilité des économies.

La Banque africaine de développement, l’une des quelque 500 banques de développement recensées dans le monde. Shutterstock
Les banques privées ne sont pas incitées pour investir dans de tels projets, généralement associés à des rendements financiers limités et des risques élevés, en dépit d’impacts forts à long terme sur l’économie, la société ou l’environnement. Ainsi, les banques de développement doivent davantage de combler ce vide et entraîner avec elles des investissements privés.

Or, dans une étude récente, nous montrons que le narratif stratégique de nombreuses banques publiques de développement reste principalement centré sur la croissance économique et le financement des infrastructures, au détriment des considérations environnementales, notamment en matière de biodiversité, et sociales (réduction de la pauvreté et des inégalités économiques).

Il convient de se confronter aux défis que pose le passage à une vision proactive du rôle des banques publiques de développement. Trois points clés, parmi de nombreuses autres questions, sont soulevées ci-dessous.

Tout d’abord, les banques publiques de développement sont appelées à jouer un rôle clé dans les transitions. Les pays les plus vulnérables souffrent souvent d’une vulnérabilité multi-dimensionnelle : économique, sociale, politique, climatique.

Disposant de ressources limitées et de mandat parfois très spécifique, les banques publiques de développement se retrouvent confrontées à des arbitrages : un projet d’infrastructures peut permettre de désenclaver un territoire mais peut s’avérer très émissif ; la mise en œuvre de zones protégées peut se faire au détriment des agriculteurs locaux qu’il convient de dédommager. La gestion de ces arbitrages nécessite que les banques publiques de développement soient suffisamment bien outillées pour appréhender les impacts ex ante et ex post de leurs projets.

Afin d’être proactive, les banques publiques de développement doivent également pouvoir innover. Ce constat s’applique notamment aux banques nationales de développement, qui ont une meilleure connaissance des problématiques des géographies dans lesquelles elles interviennent. Les gouvernements doivent garantir l’indépendance de leurs banques nationales et viser à leur donner un cadre stratégique plutôt que d’entrer dans des logiques de micro-management.

Dans ce contexte, les banques nationales de développement devraient pouvoir innover en matière de processus, d’instruments financiers, d’accompagnement de leurs clients. En initiant les premières obligations vertes, ou via le co-financement de projets avec des investisseurs privés (financement mixte ou « blended finance »), les banques multilatérales telles que la Banque mondiale ou la Banque européenne d’investissement ont déjà montré que l’écosystème des banques publiques de développement a la capacité d’impacter les marchés financiers de façon significative. Aussi, les institutions multilatérales sont appelées à travailler davantage avec les banques nationales de développement pour renforcer leur capacité de financement et d’innovation.

Enfin, la puissance de feu des banques publiques de développement doit s’inscrire en synergie avec d’autres acteurs, notamment privés. L’ampleur des montants à engager (3 900 milliards de dollars par an) pour financer les transitions ne peut être assumée seulement par des investissements publics.

Il s’agit donc de mobiliser l’épargne privée mondiale pour la traduire en impacts positifs pour l’environnement et la société. Au-delà des investisseurs institutionnels, les banques publiques de développement sont également appelées à travailler plus étroitement avec les organisations philanthropiques, les organisations de la société civile, et les régulateurs (tels que le réseau des banques centrales et superviseurs pour le verdissement du système financier).

Ces différents enjeux, parmi tant d’autres, ont conduit à la création du mouvement Finance en Commun, initié en 2020 par l’AFD. En rassemblant l’ensemble des banques publiques de développement, Finance en Commun vise à accroître les échanges d’expérience et l’expertise de ces institutions. Dans le même temps, l’inclusion dans un réseau structuré permet aux banques publiques de développement de gagner en visibilité sur la scène internationale, avec pour but de catalyser davantage de financements en faveur des Objectifs de développement durable des Nations unies.

Indice des prix : quelle pertinence méthodologique ?

Indice des prix : quelle pertinence méthodologique ?


Les écarts entre l’inflation réelle et celle perçue par les ménages et les erreurs de prévision des économistes sur son évolution soulignent les imperfections de l’indice des prix, observe Marie Charrel, journaliste au « Monde ».


De fait cet indice des prix à la consommation n’est représentatif que de ceux dont la structure de consommation est conforme au panier type. Or il y a coup de dispersion autour de cette moyenne. Le problème est que cette indice connaît des déformations régulières qui ne sont pas intégrées à temps, des déformations structurelles ( Exemple la montée régulière des dépenses contraintes) tout autant que des déformations conjoncturelles . Du coup quand on annonce en France une évolution en hausse des prix de l’ordre de 5 %, souvent cette évolution est plus proche de 10 % et inversement en période de déflation. NDLR

Le pouvoir d’influence de Beyoncé ne se limite pas à la scène pop et aux ventes de disques. Selon Michael Grahn, chef économiste de la Danske Bank à Stockholm, il s’étend même jusqu’à… l’inflation. De passage dans la capitale suédoise les 10 et 11 mai, la chanteuse américaine a attiré quelque 90 000 spectateurs à ses deux concerts. Cet afflux de visiteurs aurait, selon lui, fait grimper l’indice suédois des prix à la consommation de 0,2 % en mai, où il s’est établi à 9,7 % au total. A eux seuls, les prix dans les hôtels et restaurants ont bondi de 3,3 %.

Si la théorie de M. Grahn ne convainc pas tout le monde, elle a le mérite de rappeler que l’inflation est un indicateur imparfait, en partie influencé par des phénomènes inattendus. Ces derniers sont souvent moins anecdotiques que la tournée de « Queen B » – à l’exemple de la guerre en Ukraine et de la douloureuse flambée des matières premières qu’elle a alimentée. Dans un autre registre, le prix des oignons en Inde, produit de base de l’alimentation locale, détermine en grande partie les variations de l’inflation dans le pays. Et les politiques le surveillent de près, car sa flambée, en général accompagnée de colère populaire, est susceptible de faire tomber les gouvernements.

En Europe, le débat récurrent porte plutôt sur l’écart entre l’indice des prix à la consommation (l’IPC, ou sa version harmonisée par Eurostat, l’IPCH) et l’inflation perçue par les ménages. Une étude publiée mi-juin par les économistes d’Allianz souligne ainsi que cette dernière s’établissait à 16,1 % en mai, contre 6,1 % pour l’IPCH. « Comme observé durant la crise de 2008, cet écart s’est creusé ces derniers mois », détaillent les auteurs. Mais, cette fois, celui-ci devrait durer plus longtemps, estiment-ils. Avec un risque : plus les ménages anticipent une hausse des prix, plus ils modifient leurs comportements d’achat et d’épargne en conséquence.

12345...12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol