Archive pour le Tag 'limites ?'

Page 2 sur 6

Intelligence artificielle, les limites

Intelligence artificielle, les limites

Comme l’évoque la métamorphose criminelle de l’ordinateur HAL dans 2001 : l’odyssée de l’espace, de Stanley Kubrick (1968), la perspective nourrit autant d’angoisse que d’enthousiasme. Le philosophe Daniel Andler, l’un des meilleurs spécialistes des sciences cognitives, publie opportunément, en cette heure de gloire des technosciences, Intelligence artificielle, intelligence humaine : la double énigme, somme dense, efficace, car pleine de savoir et d’humour, qui saura dégriser les anxieux comme les inconditionnels.( dans Le Monde)

S’il ne conteste pas l’importance du saut qualitatif ainsi franchi, marqué par l’émergence d’un « réveil éthique » dans une discipline qui ne s’intéressait jusque-là qu’aux prouesses intellectuelles, Daniel Andler prend à rebours l’opinion courante et toute une tendance philosophique fascinée par le brouillage croissant entre le cyborg et l’humain, en démontrant que l’écart entre la technologie et l’homme, loin de s’être comblé, s’est accru. Par une reconstitution précieuse de l’histoire de l’IA, qui occupe la première partie de ­l’essai, il montre à quel point la réalité des progrès et des échecs de l’IA contredit la « rhétorique de la victoire inéluctable ». Ce triomphalisme propre à la culture de la « numérisphère » (population de programmeurs et d’entrepreneurs qui s’épanouit à côté des chercheurs) n’est d’ailleurs pas sans rappeler les prophéties sur la victoire du prolétariat ou les discours confondant le capitalisme libéral avec une loi de nature, sans ­alternative possible ni ­pensable.

« Intelligence artificielle, intelligence humaine : la double énigme », de Daniel Andler, Gallimard, « NRF essais », 434 p., 25 €, numérique 18 €.

Guerre Ukraine: Les limites de la diplomatie

Guerre Ukraine: Les limites de la diplomatie

par Maxime Lefebvre, Affiliate professor, ESCP Business School dans the Conversation

Quand un conflit ne se termine pas par la capitulation de l’adversaire, comme ce fut le cas de l’Allemagne et du Japon en 1945, il se termine par des négociations. C’est d’ailleurs l’issue la plus fréquente : entre autres exemples, ce sont des négociations qui ont abouti à la fin de la guerre de Corée en 1953, à la fin de la guerre Iran-Irak en 1988 et aussi, plus près de nous, à la fin de la guerre russo-géorgienne de 2008. Voilà plus d’un an que la guerre en Ukraine a commencé. Il y a eu, dès le début du conflit, après l’échec de l’invasion russe, l’amorce de pourparlers entre les Ukrainiens et les Russes, mais ils n’ont eu qu’une portée limitée et n’ont débouché que sur quelques échanges de prisonniers.

Il y a eu aussi, assez vite, des négociations sous l’égide de l’ONU et de la Turquie pour conclure un accord sur l’exportation de céréales et d’engrais russes, régulièrement renouvelé depuis.

Il y a eu, enfin, des tentatives d’intercession françaises, israéliennes, turques et, tout récemment, le « plan de paix » assez vague mis sur la table par Pékin en février 2023, puis l’activisme du président brésilien Lula qui a envoyé un émissaire à Poutine et a suggéré une médiation tripartite Brésil-Chine-Émirats arabes unis.

Malgré tous ces efforts, le conflit se poursuit. Aujourd’hui, la question est moins de savoir ce que la diplomatie pourrait faire que de comprendre pourquoi le moment diplomatique n’est pas encore venu. Deux raisons l’expliquent fondamentalement. D’abord, le refus ukrainien d’entériner toute perte de territoire. Ensuite, l’impasse dans laquelle s’est enfermé le président russe Vladimir Poutine. Ce n’est que si ces deux obstacles sont surmontés que la question de la méthode pourra être posée.

Pour faire la paix, il faut d’abord que les parties considèrent qu’elles n’ont plus rien à gagner à la poursuite du conflit.

En cas de cessez-le-feu, même sans reconnaissance de la souveraineté russe sur les zones « annexées », l’Ukraine, qui n’a pas renoncé à l’objectif de restaurer la totalité de son intégrité territoriale, se verrait provisoirement, et peut-être définitivement, amputée d’une partie de son territoire.

À ce stade du conflit, le coût politique d’un cessez-le-feu serait beaucoup plus élevé pour Kiev que pour Moscou. C’est pourquoi l’Ukraine s’accroche à la perspective d’une contre-offensive et réagit fermement à l’idée d’un abandon de la Crimée, évoquée par le président brésilien Lula. Néanmoins, si cette contre-offensive ne venait pas, ou si elle échouait, le constat qu’il n’y a pas de solution militaire pourrait s’imposer dans les esprits, par une forme d’épuisement.

Mais comment fonder une paix durable sur un cessez-le-feu, si celui-ci n’est pas accompagné d’un accord sur les frontières et de garanties de sécurité ?

Au minimum, il faudrait prévoir le démarrage de discussions sur ces sujets, peut-être en mettant entre parenthèses le statut définitif des territoires ukrainiens actuellement contrôlés par la Russie (et en envisageant d’y organiser, à terme, des référendums d’autodétermination). Mais l’expérience des accords de Minsk, qui contenaient des dispositions allant en ce sens mais n’ont jamais mis en œuvre, n’incite pas à l’optimisme. C’était déjà ardu avant la guerre en Ukraine, ce le sera plus encore après.

L’hypothèse d’une victoire ukrainienne, qui serait obtenue grâce aux armes occidentales, doit aussi être envisagée, mais elle pose deux difficultés. La première est que l’Ukraine n’est pas une île, et que la Russie, même si elle reculait, n’accepterait sans doute pas sa défaite et continuerait de menacer, à l’abri de ses frontières, le territoire ukrainien. La seconde est que la Russie est une puissance nucléaire et qu’à un moment donné (perte du Donbass ? De la Crimée ? Franchissement de ses frontières ?) elle pourrait considérer que ses intérêts vitaux sont menacés et que l’utilisation de l’arme nucléaire est justifiée dans une optique défensive. On touche là une donnée stratégique de base de ce conflit : il n’est pas possible de défaire la Russie comme les Occidentaux ont bombardé la Serbie de Milosevic et l’ont obligée à abandonner le Kosovo en 1999.

Par ailleurs, et c’est là un deuxième obstacle fondamental, Poutine apparaît comme un obstacle à la paix. Il a enfourché le nationalisme russe à la fois pour conforter son pouvoir interne et pour renforcer sa puissance externe. Quelle que soit la motivation profonde de ses actions, sa violation ouverte et non provoquée de la souveraineté de l’Ukraine (le crime d’agression) lui a fait franchir une ligne rouge, d’autant que des crimes de guerre se sont ajoutés à cette faute première.

Les mots employés par les dirigeants américains (« boucher », « tueur », « brute »), la condamnation de l’action russe par une grande majorité des membres des Nations unies, l’inculpation de Poutine lui-même par la Cour pénale internationale, font que, dans ce conflit, c’est aussi le changement de régime en Russie qui est en jeu. Et c’est pourquoi les Occidentaux en font une question de valeurs et n’envisagent pas une fin du conflit dont Poutine sortirait gagnant.

En soutenant militairement l’Ukraine et en sanctionnant durement la Russie, la stratégie occidentale vise – sans le dire et sans faire directement la guerre – à provoquer des changements politiques en Russie, comme ils ont eu lieu en Serbie après 1999. Mais puisqu’il n’est pas possible de défaire complètement la Russie, cette perspective est très incertaine.

En outre, il ne faut pas exclure un scénario de radicalisation croissante à Moscou qui aboutirait à l’accession au pouvoir d’un successeur encore moins susceptible de négocier que Poutine. Et les exemples de la Biélorussie, de la Corée du Nord, de Cuba, de l’Irak avant 2003, de l’Iran, montrent qu’un régime autoritaire sous sanctions peut se maintenir longtemps en exploitant la fibre nationaliste.

Dès lors, serait-il envisageable de faire la paix avec Poutine et de le considérer à nouveau comme un interlocuteur fréquentable ? En politique, rien n’est impossible. Début mars, en marge d’une réunion du G20 à New Delhi, le secrétaire d’État américain Antony Blinken a rencontré son homologue russe Sergueï Lavrov, pourtant placé sur la liste des sanctions occidentales. Trois semaines plus tard, il a même évoqué devant le Congrès américain la perspective lointaine de discussions sur les frontières de l’Ukraine. Voilà qui montre que les États-Unis n’excluent rien.

Compte tenu des critiques dans les rangs républicains sur l’engagement américain en Ukraine, il est possible qu’une administration républicaine qui viendrait à succéder à l’actuelle équipe de Joe Biden serait plus encline à s’engager sur la voie d’une issue diplomatique, mais ce n’est pas certain.

Si l’heure de négociations arrivait, reste à savoir comment les organiser. La Russie de Poutine a déjà accepté des médiations : en 2008, la France, qui exerçait alors la présidence tournante de l’UE, avait joué ce rôle dans le conflit russo-géorgien ; et en 2014, c’est encore la France qui, avec l’Allemagne, avait cherché à régler le conflit russo-ukrainien dans le cadre du « Format de Normandie »

La polarisation du conflit actuel et le durcissement des positions entre la Russie et le camp occidental rendent difficilement envisageable un tel scénario aujourd’hui. Poutine a d’ailleurs déjà récusé la France en tant que médiatrice. Emmanuel Macron entend cependant rester dans le jeu diplomatique, comme l’a montré son récent déplacement à Pékin.

La Chine, nous l’avons évoqué, a proposé un plan de paix mais son positionnement n’est pas neutre : elle est liée à la Russie par une « amitié sans limites ». Elle a toutefois joué un rôle modérateur lors du sommet du G20 à Bali (les 15+16 novembre dernier), condamnant toute utilisation éventuelle de l’arme nucléaire. En conséquence de sa montée en puissance, elle apparaît désormais comme un acteur de premier plan des relations internationales et une des clés de la stabilité mondiale, et il n’est pas impossible que la solution du conflit en Ukraine passe par un dialogue direct entre Washington et Pékin.

D’autres pays pourraient prétendre au rôle de médiateur. Le Brésil et la Turquie s’y emploient déjà, nous l’avons dit. L’Inde, pour sa part, est dans une position plus neutre que la Chine, et pourrait chercher à s’impliquer davantage dans le dossier ukrainien, lors du sommet du G20 qui sera organisé à New Delhi en septembre prochain.

Restent les Nations unies, mais celles-ci sont dans un triste état : le Conseil de sécurité est paralysé par le droit de veto des grandes puissances, et les principes de la Charte ont été foulés au pied par la Russie dans son agression contre l’Ukraine. Le secrétaire général de l’ONU s’est rendu, dans les premières semaines du conflit, à Moscou puis à Kiev, mais sans obtenir grand-chose, sinon de positionner l’organisation dans l’accord sur les céréales.

En 1953, pour mettre fin à la guerre de Corée, l’armistice avait été conclu par les États-Unis (parlant au nom de l’ONU, puisqu’ils dirigeaient l’intervention armée au nom des Nations unies), la Corée du Nord et la Chine, avec l’Union soviétique en coulisses. Les négociations avaient démarré en 1951 mais n’avaient abouti qu’après la mort de Staline. Et la Corée du Sud, ne voulant pas renoncer à la réunification du pays, avait refusé de signer l’accord. Bref, la diplomatie n’avait pas tout réglé mais, au moins, les armes se sont tues…

On ne sait pas encore qui signera un jour l’accord qui mettra fin à la guerre en Ukraine. Et pourtant, si ce jour semble aujourd’hui éloigné, il n’est pas trop tôt pour l’envisager et pour le préparer.

Les limites du Conseil constitutionnel 

Les limites du Conseil constitutionnel  ( Picketty)

par Thomas Piketty, Directeur d’études à l’Ecole des hautes études en sciences sociales, Ecole d’économie de Paris dans « Le Monde »

Les cours constitutionnelles, ces institutions précieuses et fragiles, sont parfois instrumentalisées, rappelle l’économiste dans Le Monde..
Alors que les sages du Conseil constitutionnel s’apprêtent à rendre leur décision sur les retraites, il n’est pas inutile de poser une question simple. De façon générale, peut-on faire confiance aux juges constitutionnels ? Entendons-nous bien : les cours constitutionnelles jouent un rôle absolument indispensable dans tous les pays.

Malheureusement, comme tous les pouvoirs, ces institutions précieuses et fragiles sont parfois instrumentalisées et abîmées par les personnes auxquelles ces fonctions éminentes ont été confiées, et qui tentent souvent d’imposer leurs propres préférences politiques sous le couvert du droit.

Les exemples sont légion dans l’histoire. Aux Etats-Unis, la Cour suprême décide en 1896, dans le sinistre arrêt Plessy vs Ferguson, qu’il est parfaitement légal pour les Etats du Sud de pratiquer la ségrégation raciale autant qu’ils le souhaitent. L’arrêt constitue le fondement légal de l’ordre ségrégationniste jusqu’aux années 1960. Dans les années 1930, la Cour censure à plusieurs reprises les législations sociales adoptées par le Congrès dans le cadre du New Deal, au motif que certaines constitueraient une atteinte inacceptable à la liberté d’entreprendre (que les juges choisissent d’interpréter à leur guise).

Réélu en 1936 avec 61 % des voix, Roosevelt annonce son intention de nommer de nouveaux juges (la Constitution ne fixe pas leur nombre) afin de débloquer la situation. La Cour décide finalement de céder et de valider une loi décisive sur le salaire minimal qu’elle avait précédemment censurée. Plus près de nous, les arrêts Citizens United vs Federal Election Commission, en 2010, et McCutcheon vs Federal Election Commission, en 2014, ont décidé qu’il était illégal – car contraire aux principes de la liberté d’expression – d’imposer des plafonds aux financements politiques privés.

En Europe aussi, les abus de pouvoir ne manquent pas. Un cas particulièrement extrême est apporté par l’affaire Kirchhof en Allemagne. Juriste fiscal très remonté contre l’impôt, Paul Kirchhof fut pendant la campagne de 2005 présenté comme le futur ministre des finances d’Angela Merkel, avec à la clé une proposition-choc : une « flat tax » limitant le taux d’imposition des plus hauts revenus.

Dans la sphère politique, chacun est bien sûr libre de ses opinions, qui en l’occurrence n’ont guère séduit les Allemands : tout indique que cette proposition a contribué à réduire le score de la CDU, si bien que Mme Merkel fut contrainte de former une coalition avec le SPD et de se séparer de son conseiller.

Gestion de l’eau : les limites de la démocratie locale

Gestion de l’eau : les limites de la démocratie locale

par
Lucie Baudoin
Post-doctorante en sciences de gestion, Montpellier Business School
dans the Conversation

Face aux défis environnementaux, les décisions prises de manière unilatérale et centralisée ont montré leurs limites. Il est désormais admis que les parties prenantes – acteurs économiques, associations, collectivités locales – doivent être incluses dans une démarche participative et concertée. En France, la Commission nationale du débat public (CNDP), créée en 1995, est notamment en charge de s’assurer de la participation du public à l’élaboration de grands projets d’aménagement du territoire (les projets de parcs éoliens en mer, par exemple).

On attend des processus participatifs qu’ils aident à résoudre les problèmes environnementaux principalement via deux mécanismes : d’une part, par le partage d’expériences de chaque acteur, qui apporte des informations utiles pour formuler de meilleures décisions à terme. Ensuite, en permettant aux décisions prises d’être plus adaptées aux réalités du terrain, donc plus suivies et plus légitimes aux yeux des populations locales. Les fortes contestations contre le barrage de Sivens, ou l’aéroport de Notre-Dame des Landes ont porté d’ailleurs entre autres sur la qualité des rapports réalisés pour l’élaboration des projets, et sur la légitimité des décisions prises.

Néanmoins, intégrer la participation citoyenne à ces décisions n’est pas chose facile. En s’attaquant à des sujets complexes qui portent en eux une dimension sociale, comme le changement climatique, la préservation des écosystèmes ou la gestion des ressources en eau, la gouvernance environnementale est toujours confrontée à une diversité de perceptions.

En outre, ces enjeux affectent et sont affectés par une grande diversité d’acteurs. C’est le cas des bassines dans l’Ouest de la France, où des agriculteurs voient ces aménagements de stockage de l’eau comme une manière de s’adapter au changement climatique, et les associations de défense de l’environnement comme une menace supplémentaire pour un cycle de l’eau déjà malmené. Dans ces cas, les désaccords sont souvent profonds et perdurent des années en « conflits insolubles ».

Il serait dangereux et erroné de croire que la mise en place de processus de participation serait une recette magique pour réussir la transition écologique. Plus de vingt ans après la Convention d’Aarhus (2001) visant l’émergence d’une « démocratie environnementale », la littérature académique n’a pas prouvé empiriquement que les processus de participation ou de concertation garantissent toujours l’amélioration ou la préservation de conditions environnementales, telle que la qualité des eaux ou la pollution de l’air.

Tout d’abord, il s’agit d’un sujet très complexe à étudier dans le cadre d’une démarche scientifique systématique, et en l’état, il n’y a pas un consensus académique établi et éprouvé sur l’efficacité environnementale de la participation. À la question, « est-ce qu’inclure tout le monde résoudra les problèmes environnementaux ? », la réponse est « on ne sait pas trop, cela dépendra sans doute du problème et de la forme que prendra la participation ».

Un long chemin est encore nécessaire pour comprendre les conditions dans lesquelles la participation de l’ensemble des acteurs est efficace pour atteindre les objectifs environnementaux.

En effet, certains contre-arguments peuvent être avancés à l’effet positif de la participation sur les indicateurs environnementaux : dans le cas de crises environnementales exigeant une réponse rapide, les processus de participation peuvent être trop longs, et donc retarder la mise en place des mesures nécessaires. Ils peuvent également renforcer les rapports de force existants.

Dans son ouvrage fondateur de 1990 sur la gouvernance des communs, le prix Nobel d’économie Elinor Ostrom pointe déjà du doigt quelques facteurs pouvant compliquer une gestion collective réussie de ressources communes.

Entre autres, celle-ci est plus facile sur des territoires moins grands, aux frontières clairement définies, incluant des acteurs qui dépendent tous des mêmes ressources sur le long terme, et pouvant communiquer entre eux dans un climat de confiance. Or ces conditions sont loin d’être réunies pour tous les enjeux environnementaux de notre siècle, qu’il s’agisse du changement climatique ou de la gestion de grands bassins hydrographiques.

Surtout, participer à la prise de décisions environnementales requiert des acteurs concernés des ressources comme le temps, l’énergie, des connaissances de base sur des sujets qui peuvent se révéler très techniques et surtout, une certaine motivation à participer. Or ces ressources sont inégalement réparties au sein de la population, ce qui peut mener à une surreprésentation de certains acteurs – économiques notamment – dans les délibérations.

C’est en ce sens que les processus de participation peuvent reproduire ou amplifier des déséquilibres de pouvoir préexistants. Ces déséquilibres de représentation dans les assemblées pourraient même à terme se ressentir dans les conditions des milieux naturels.

Prenons le cas de l’eau. Dans ce domaine, il y a des décennies que des démarches participatives sont appliquées. Dans les pays de l’Union européenne, La Directive-cadre sur l’eau (DCE) adoptée en 2000 incite les États membres à favoriser la participation de tous dans l’élaboration des plans de gestion des ressources en eau dans les bassins hydrographiques.

Cette participation peut prendre deux formes : une consultation générale du public sur les orientations prises ; une participation active d’acteurs clefs dans le processus de prise de décisions. Dans les deux cas, on attend du processus qu’il aide à obtenir de meilleurs résultats en matière d’état des milieux aquatiques.

La France avait même largement devancé l’Europe dans cette démarche en mettant en place des comités de bassin, aussi appelés « parlements de l’eau », dès la fin des années 1960. Ces comités de bassin réunissent des représentants des collectivités locales, de l’État, des industriels, des agriculteurs, des associations de protection de la nature, de consommateurs… dans un exercice intense et ambitieux de concertation pour élaborer ensemble une politique de l’eau adaptée aux territoires.

Vingt ans après cette directive, en France comme ailleurs en Europe, les résultats ne sont pas au rendez-vous. Seuls 40 % des eaux de surface des pays de l’UE sont considérés en bon état écologique selon un rapport de 2018 de l’Agence européenne pour l’environnement ; alors que l’objectif initial était d’atteindre 100 % de masses d’eau en bon état en 2015 – un objectif reporté depuis à 2027.

Certes, l’injonction de participation fixée dans la DCE n’a pas été mise en place de la même manière dans chaque pays membre. Cependant, une étude couvrant l’Angleterre, la France, l’Allemagne, l’Italie, la Pologne et l’Espagne montre que les responsables administratifs engagés dans la mise en place des processus participatifs ont eux-mêmes jugé peu efficace la participation active d’acteurs-clefs et totalement inefficaces les consultations du public sur l’amélioration de l’état des milieux aquatiques. Ils pointent notamment la surreprésentation des acteurs agricoles conventionnels et un manque d’intérêt du grand public parmi les principaux obstacles rencontrés.

Dans le cas de la France, les comités de bassin peinent eux aussi à faire face aux enjeux de pollution diffuse des eaux, notamment liée aux activités agricoles. Alors qu’on attend d’un processus participatif qu’il évite les conflits entre usagers, les longues délibérations menées pour l’élaboration du schéma directeur 2016-2021 en Seine-Normandie n’ont pas empêché son annulation après une action en justice engagée par une fédération de syndicats agricoles.

Les consultations du public organisées par les agences de l’eau sont par ailleurs, hélas, largement ignorées, avec de faibles taux de réponse.

Combien de citoyens français savent à quelles instances de bassin ils sont rattachés et connaissent l’existence des comités de bassin censés les représenter et de ces démarches de consultation ?

Comme nous alertait Elinor Ostrom, il n’y a pas de panacée en matière de gouvernance collective.

Il est naturel que toutes les démarches participatives n’aboutissent pas forcément. Si nous attendons des miracles de la mise en place de processus de participation sur les enjeux environnementaux locaux comme globaux, il est fort probable que nous soyons déçus et même découragés quant à la faisabilité de la transition écologique.

S’il y a une leçon à retenir du cas de la gouvernance de l’eau, c’est qu’il n’y a pas de vraie participation sans sensibilisation et mobilisation de la population au sens large. Sans quoi certains groupes plus motivés ou dotés de plus de ressources risquent de préempter le processus, et réduire à néant les promesses de la participation.

ChatGPT : Perspectives et limites

ChatGPT : Perspectives et limites

Par Benoît Bergeret, directeur exécutif ESSEC Metalab for Data, Technology and Society et co-fondateur du Hub France IA.

En seulement cinq semaines, ChatGPT a été adopté par plus d’un million d’utilisateurs. Mais tous comprennent-ils les limites de l’outil, qui nous étonne par sa capacité à produire des textes cohérents, grammaticalement corrects et apparemment pertinents ? Quel impact anticiper pour son usage en entreprise ? Le système dont tout le monde parle peut-il devenir une « machine pensante » ? Est-il fondé de le voir comme un pas de plus vers l’IA généralisée, celle qui finira par nous diriger ?

Le langage n’est pas la pensée. Mais l’illusion est impressionnante. Selon Nick Cave, chanteur de The Bad Seeds, « les paroles écrites par ChatGPT sont une grotesque moquerie de ce qu’est être humain ». Il rejoint ainsi le philosophe américain John Searle : un système syntaxique peut donner l’impression qu’il comprend la langue alors qu’il ne comprend ni les prompts, ni les réponses produites. Et la recherche en neurosciences cognitives montre que la maîtrise du langage nécessite des capacités comme le raisonnement, les connaissances sur le monde et la cognition sociale. ChatGPT, système syntaxique par nature, a des compétences linguistiques formelles indéniables, mais rien de plus.

Neurosciences. Searle rejoint aussi les neurosciences : l’esprit humain n’est pas un système computationnel, il résulte de processus biologiques. Or, le numérique ne peut que simuler ceux-ci, pas les dupliquer. C’est un obstacle infranchissable au développement de la conscience, donc d’une IA capable d’égaler l’humain. Contrairement aux apparences, ChatGPT est une avancée intéressante, mais pas un « pas décisif » vers l’IA généralisée.

Bien sûr, la combinaison de cet outil syntaxique avec des moteurs de recherche sémantiques, produira des résultats impressionnants pour des usages « étroits » (« Narrow AI »). Mais nous resterons loin de l’IA généralisée.

L’outil va disrupter les stratégies de déploiement centralisées de l’IA : il va être difficile de demander à renoncer à son utilisation. L’expérience de Sciences Po, qui en a interdit récemment l’usage par ses étudiants, va être suivie avec beaucoup d’intérêt.

Pour les entreprises, il va falloir s’adapter vite, compléter les stratégies top-down d’adoption de l’IA à l’accueil et à l’intégration raisonnée de ces nouveaux outils. A minima, dans les semaines qui viennent, il va leur falloir mettre en place une gouvernance. Par exemple : définir le périmètre acceptable d’usage et interdire toute autre utilisation, mettre en place un contrat engageant la responsabilité du fournisseur, pour diminuer le risque lié à une interruption inattendue de l’accès au système.

Confiance. Il faut aussi établir la confiance par l’éducation en expliquant les limites de l’outil, en rappelant qu’il ne peut pas garantir la véracité des informations générées et que le producteur de contenu a la responsabilité d’une nécessaire vérification manuelle de toutes les informations. Les entreprises devront assurer une stratégie de résilience (« j’utilise ChatGPT, que ferai-je si je n’y ai plus accès ? »), garantir le respect des normes éthiques et des lois lors de l’utilisation, et enfin mettre en place un système de détection de ChatGPT dans les contenus produits.
Souhaitable pour l’entreprise s’il est utilisé de manière appropriée, l’outil va ajouter de la valeur au travail des employés. Selon moi, ChatGPT (avec ses imperfections) se révélera in fine un catalyseur de l’adoption de l’IA en entreprise.

Son arrivée soulève les questions liées à l’introduction rapide auprès du public de technologies numériques peu matures et mal comprises. La question de l’adoption consciente et informée de cet outil se pose : comment éviter les dégâts collatéraux similaires à ceux causés par les réseaux sociaux ?
Mais n’ayons pas peur de chatGPT : ce n’est au fond qu’un outil, le successeur fonctionnel du traitement de texte et du correcteur orthographique ! Un outil merveilleux, plein de promesses, mais qu’il ne faut pas adopter à l’aveugle. Et les entreprises ont une grande responsabilité dans le bon usage qui en sera fait.

Benoît Bergeret, directeur exécutif, ESSEC Metalab for data, technology and society et Co-fondateur du Hub France IA

Société-Les limites du tout numérique

Société-Les limites du tout numérique

Comme à chaque étape d’évolution technologique, le numérique a apporté des progrès indiscutables mais ses excès ont aussi favorisé la déshumanisation des relations sociales.

La vapeur, l’électricité, l’automobile ont constitué des étapes importantes de l’évolution technique mais ont également favorisé des effets pervers. Par exemple, le rail qui a remodelé l’aménagement du territoire et créé de véritables déserts économiques et sociaux en supprimant les lignes secondaires alors qu’au contraire il pouvait être un outil de développement harmonieux et équilibré.

L’ Électricité quant à elle ne doit pas faire oublier ses conditions de production tout autant que les gâchis de consommation. Il aura fallu attendre la guerre d’Ukraine pour qu’on commence à limiter l’inutile illumination permanente des villes qui par parenthèse trouble l’orientation des oiseaux migrateurs. Le numérique aura été la grande découverte et la grande application à partir de la fin du XXe siècle. Entreprises, citoyens, politiques perdent beaucoup en crédit s’ils ne glissent pas le mot numérique à chaque phrase.

Il s’agit évidemment d’un moyen extraordinaire pour transmettre en temps réel des masses d’informations qui demandaient précédemment des jours voire des semaines et même davantage. L’intérêt de la technique -autant que la mode- acontraint une grande partie de l’économie et de la société à se soumettre à la nouvelle religion. Évidemment avec la ferveur des nouveaux convertis.

Même les relations les plus intimes sont donc confiées également aux outils télé informatiques. Les progrès aidants, on pourra même se passer d’un humain pour converser. Et les perspectives d’évolution sont sans limites puisque des robots pourraient se substituer totalement à l’homme lors des échanges. D’autres envisagent d’implanter une puce dans le crane des humains véritablement en situation d’addiction technologique. Le Smartphone fait désormais parti du corps humain même la nuit. De ce point de vue, ses pannes seront un jour pris en charge par la sécurité sociale.

Les situations les plus kafkaïennes sont créées par ce recours surréaliste à la technique du digital. Ainsi toutes les relations administratives et commerciales ou presque passent par des plates-formes Internet ou des robots qui font semblant de répondre aux questions qui se posent.

Les marchands du temple ont bien entendu aussi envahi le numérique avec leur pub, leur fichier, leur site de vente. L’administration elle-même s’est engouffrée dans cette mode. Au lieu de répondre à une question, le robot propose la touche 1 ou la touche 2, 3 ou 4 avant même qu’on ait pu saisir le choix proposé.( Ou on propose de prononcer des mots que l’ordinateur ne comprend pas évidemment). Heureusement , il y a la touche 5 ( Où le mot de départ) qui permet de revenir au premier message qui tourne ainsi en boucle.

Le pire sans doute c’est que la numérisation a affecté encore davantage les rapports humains que les rapports commerciaux et administratifs. Mais en réalité, l’utilisateur du Smartphone, de la tablette ou de l’ordinateur converse surtout avec lui-même. Et les « progrès » aidant on pourra même se passer d’intermédiaires techniques et sombrer dans une sorte de schizophrénie permanente quand l’intéressé finira par se parler à lui-même. Il ne s’agit sans doute pas de déréglementer surtout ce qui relève du privé mais de développer une sorte d’éthique et de formation à l’usage de techniques qui mettent l’homme en situation de dépendance au même titre que l’alcool ou la drogue certes avec des conséquences moins mortelles.

L’excès de numérique ne met pas forcément en cause la vie humaine mais il peut condamner à vivre idiot.

Collectivités locales : Les limites méthodologiques du budget vert

Collectivités locales : Les limites méthodologiques du budget vert

. Lors du « One Planet Summit » en 2017, une initiative de Budget Vert a été lancée. Dans la suite des accords de Paris, l’idée était de fournir aux États des outils leur permettant de suivre leurs actions et leurs politiques publiques en matière climatique et environnementale. Par Mathieu Nohet, Fondateur de Manty

L’État français a, ainsi, été le premier à mettre en pratique cette initiative, avec un premier budget vert produit en 2021. Plusieurs collectivités locales se sont depuis lancées dans la construction d’un Budget Vert, et de nombreux guides à leur destination ont vu le jour.

Le fonctionnement est le suivant : pour chaque ligne de dépense, on assigne un impact (positif/négatif) suivant six grands objectifs environnementaux : la lutte contre le changement climatique ; l’adaptation au changement climatique et la prévention des risques naturels ; la gestion de la ressource en eau ; l’économie circulaire, les déchets et la prévention des risques technologiques ; la lutte contre les pollutions ; la biodiversité et la protection des espaces naturels, agricoles et sylvicoles.

Ensuite, ces 6 impacts sont agrégés, pour assigner une note globale à la dépense : la dépense est favorable si elle est « positive » sur au moins un axe sans être défavorable par ailleurs ; elle est « neutre » si elle est favorable sur un ou plusieurs axes, tout en étant défavorable sur un ou plusieurs axes ; et enfin, elle est « défavorable » si elle n’est favorable sur aucun axe.

Les limites du Budget Vert

En regardant les résultats de l’exercice pour l’État, on se doute qu’il y a un problème dans le système de classification. Près de 70% des dépenses analysées, soit 32 milliards d’euros sont classées comme « favorables ».

Pour donner un ordre de grandeur, l’État a dépensé 7,45 milliards d’euros uniquement pour subventionner le carburant en 2022. Au-delà de l’aspect politique et de la communication produite autour de la publication, cela pose la question du périmètre des dépenses analysées, et de la manière de les classifier.
La classification actuelle est binaire, sans aucune gradation. Les critères sont suffisamment vagues pour que l’appréciation puisse varier entre 2 évaluations, changeant radicalement les résultats. Aucun impact n’est chiffré. On peut donc imaginer un élu, qui, de bonne foi, met en place une politique publique n’ayant aucun impact, par méconnaissance des ordres de grandeurs ou des critères impactés.

Ainsi, une dépense permettant de protéger la biodiversité de manière anecdotique (installation d’un pigeonnier) ou d’économiser un peu d’eau (chasse d’eau automatisée) apparaitra aussi favorable qu’une dépense liée à l’isolation des bâtiments publics. De même, l’absence de quantification et d’ordre de grandeur pourrait faire apparaitre comme équivalente la dépense liée à l’isolation des bâtiments et une mesure permettant des économies d’énergie beaucoup plus faibles, comme par exemple le fait de changer tous les lampadaires de la ville ou de mettre des minuteurs dans tous les bâtiments.

Pire, les critères peuvent se contredire entre eux. Dans son livre « Pour en finir avec l’apocalypse », Guillaume Poitrinal évoque l’exemple suivant : sur l’ancien site d’une papeterie, une entreprise avait comme projet de construire le plus grand campus en bois du monde. Cet ensemble aurait utilisé la géothermie comme source d’énergie, et serait venu remplacer la friche industrielle, entièrement bétonnée, abandonnée depuis plus de 10 ans. Lors du projet, le diagnostic « faune et flore » du ministère de l’Environnement a découvert 3 espèces rares au milieu du béton et de la ferraille. Un criquet, un papillon et un lézard. Le projet a donc été en partie rejeté, au nom de la protection de la biodiversité. On a bloqué un projet permettant de remettre des milliers de mètres carrés de végétation en pleine terre, et représentant un puits majeur de carbone, afin de conserver une friche industrielle au nom de la protection de la biodiversité.

Les exemples comme celui-ci sont nombreux, on le voit récemment dans l’actualité avec des sujets autour de la gestion de l’eau et de la protection des espaces agricoles. Le besoin de priorisation est clair, et nous devons quantifier les efforts pour pouvoir arbitrer.
L’important c’est le CO2
Le Budget vert ne permet pas de quantifier l’impact des dépenses et se base sur une appréciation subjective, il doit donc être affiné pour pouvoir devenir un véritable outil de décision publique. En l’état, un budget vert ne permet pas réellement d’orienter l’action publique.

En reprenant les critères définis initialement, on voit que le premier critère est celui de la lutte contre le changement climatique. Le réchauffement climatique (autre manière de désigner le changement climatique) est causé exclusivement par l’action des gaz à effet de serre (GES), émis par les activités humaines.
Il est donc naturel de prioriser la réduction des émissions de gaz à effet de serre, qui sont la cause du reste. Ces émissions ont l’avantage d’être de plus en plus quantifiables, et de fournir un indicateur objectif, indépendant de toute sensibilité politique.

On peut imaginer une nouvelle forme de budget vert combiné à une comptabilité carbone performante, il s’agirait alors d’un « budget climat » permettant d’orienter l’action publique.
• Pour chaque dépense, évaluer la quantité de GES émise (ou la réduction espérée)
• Lorsqu’il y a besoin d’arbitrer, choisir la dépense permettant la plus grande réduction, ou la moins grande émission de GES
• Lorsque deux dépenses sont équivalentes, prendre en compte, dans l’ordre

o Adaptation au changement climatique
o Gestion de la ressource en eau
o Lutte contre les pollutions
o Biodiversité et protection des espaces naturels
o Economie circulaire, prévention des risques technologiques

Cette démarche, moins simple que celle du budget vert et se prêtant probablement moins à la communication politique, permet d’avancer vers l’objectif zéro émission, tout en prenant en compte d’autres dimensions. La priorisation est assumée, et nécessaire à la prise de décision.

Pour réaliser concrètement ce budget climat, le principal obstacle est la quantification des émissions. De nombreux outils ont vu le jour ces dernières années, permettant à l’État et aux collectivités d’évaluer leurs dépenses :
• L’ADEME et l’État proposent des guides permettant de mettre en place les bases d’une comptabilité carbone :
• Des offres commerciales proposant des outils numériques (Carbo, Greenly) permettent de construire un bilan carbone de manière collaborative, à partir des dépenses de la collectivité
• Des cabinets de conseil spécialisés en comptabilité carbone existent depuis de nombreuses années

Le Budget vert, un outil intéressant… mais limité

Le Budget vert est donc un outil intéressant, mais limité, plus adapté à la communication politique qu’à une véritable politique climatique. L’absence de quantification, la subjectivité de la notation et la multiplication des critères rendent impossible l’orientation de l’action publique à partir des conclusions du budget vert.

Une évolution possible est un « budget climat », basé sur la comptabilité carbone, et priorisant la réduction des GES par rapport aux autres dimensions. La priorité est donnée aux émissions, de mieux en mieux quantifiées, en prenant en compte les autres axes tels que l’adaptation au changement climatique ou la gestion de l’eau lorsqu’un arbitrage est nécessaire.

Climat: Les limites de l’action des individus

 Climat:  Les limites de l’action des individus

 

Dans le journal  « Le Monde » consacré au défi climatique, la sociologue Sophie Dubuisson-Quellier aborde la question de la répartition, entre les individus et le collectif, des efforts à fournir face à l’urgence.

A quel point les gestes individuels contribuent-ils à limiter notre empreinte carbone ? Faut-il arrêter de prendre l’avion, cesser de manger de la viande, changer sa chaudière à gaz ? Ou bien est-ce d’abord à l’Etat et aux grandes entreprises de faire des efforts ?

La question de la répartition des efforts à fournir entre les individus et le collectif agite de longue date les réflexions sur la manière de faire face à l’urgence climatique. Cet été, les discussions autour de l’usage de l’eau ou du fait de prendre l’avion pour les vacances ont été au cœur des débats. Dans cet épisode de « Chaleur Humaine », diffusé le 5 juillet sur le site du Monde, Nabil Wakim échange avec la sociologue Sophie Dubuisson-Quellier, membre du Haut Conseil pour le climat et autrice de La Consommation engagée (Presses de Sciences Po, 2009).

 

Vous travaillez depuis plusieurs années sur l’idée de « consommation engagée » et pourtant vous êtes très critique à l’égard de cette notion. L’incitation aux gestes individuels pour faire face à l’urgence climatique vous semble-t-elle utile ?

D’un côté on peut se demander : « Que peuvent faire les consommateurs en tant qu’individu ? », c’est-à-dire : « Qu’est ce qui est à leur portée ? Quelle est aussi la portée de ces actions individuelles à travers la consommation engagée ? » Et puis, de l’autre côté, notamment de la part des pouvoirs publics, il y a des injonctions très fortes qui s’adressent aux individus pour leur dire : « Eh bien, vous devez vous responsabiliser, vous devez faire attention, vous devez penser à vous, à vos gestes individuels, pour préserver le climat. » Donc, on est vraiment dans une situation où on attend énormément des individus. D’ailleurs, on déploie aussi toute une politique publique pour les mobiliser.

Pourquoi n’êtes-vous pas à l’aise avec cette idée d’inciter à des gestes individuels pour préserver le climat ? Diminuer ses trajets en voiture, changer sa chaudière à gaz ou manger des produits locaux, cela a-t-il un impact malgré tout ?

Tout simplement parce que la sociologie nous apprend en fait que beaucoup de ce qui relève des comportements individuels est inscrit dans des dimensions très collectives. Elles ont un poids tel que ça oriente ou contraint fortement les décisions individuelles. L’exemple de la chaudière à gaz est très intéressant : on peut se poser la question de ce choix d’équipement. Qu’est-ce qui relève d’une décision prise à un moment donné, optimisée, réfléchie, responsable ? Et qu’est-ce qui relève d’un équipement qui était déjà dans un logement ? Cet exemple montre qu’une grosse partie de ce qui est pensé comme nos choix individuels relève en fait de cette organisation collective.

Environnement : Alerte avec de nouvelles limites franchies

Environnement : Alerte avec de nouvelles limites  franchies

Depuis le début de l’année 2022, deux nouvelles limites planétaires ont été franchies, celles de la pollution chimique et celle du cycle de l’eau. Retour sur cette notion méconnue. Par Mélanie Mignot, INSA Rouen Normandie. (

 

Au cours des derniers mois, les franchissements de deux limites planétaires ont été annoncés dans les médias à la suite de publications scientifiques. Celle des polluants chimiques, en janvier dernier, puis celle du cycle de l’eau douce, en mai. Aussi inquiétantes qu’elles soient, ces annonces n’ont pas défrayé la chronique. Peut-être en partie car cette notion reste méconnue : qu’entend-on donc par limite planétaire ?

Le concept, défini par une équipe internationale de 26 chercheurs et publié en 2009 dans les revues scientifiques Nature et Ecology and Society, entend fixer des seuils à l’échelle mondiale que l’humanité ne devrait pas dépasser afin de continuer à vivre dans des conditions favorables et préserver un écosystème sûr, autrement dit une certaine stabilité de la planète. L’Holocène est souvent utilisée comme point de comparaison car cette période qui remonte à 11 700 ans apparaît plutôt stable d’un point de vue climatique.

Le dépassement des limites planétaires pourrait entraîner des modifications brutales, non linéaires et difficilement prévisibles sur l’humain et son environnement, compromettant donc la capacité de notre planète à rester dans des conditions semblables à l’Holocène.

À l’heure actuelle, certaines limites apparaissent comme déjà franchies : à savoir le changement climatique, l’intégrité de la biosphère (biodiversité), la perturbation des cycles biochimiques de l’azote et du phosphore, les modifications de l’occupation des sols et l’introduction de nouvelles entités dans l’environnement.

Certains phénomènes n’ont pas encore atteint ce seuil alarmant – ce qui n’empêche pas que les processus soient en cours : c’est le cas de l’acidification des océans, l’appauvrissement de la couche d’ozone stratosphérique, et l’augmentation des aérosols dans l’atmosphère.

La neuvième et dernière limite, le cycle de l’eau, a fait l’objet d’une dernière étude qui apporte un nouvel éclairage en déclinant l’eau douce en eau verte et eau bleue.

Toutes ces notions relatives à l’environnement sont liées, interconnectées, les processus de régulation interagissent et la perturbation de l’un affecte la régulation et/ou la résilience des autres. Une façon très interactive et accessible de percevoir ces notions est de participer un atelier de la Fresque du Climat, un jeu crée par Cédric Ringenbach.

La première étude, publiée le 18 janvier dans la revue scientifique Environmental Science and Technology, émane de scientifiques du Stockholm Resilience Center (SRC) et présente des données relatives à la pollution chimique. Cette dernière désigne toute entité émise lors de rejets de produits chimiques d’origine industrielle et/ou domestique. Elle peut résulter par exemple de l’utilisation de pesticides, de détergents ou encore de métaux lourds. Parfois, elle est aussi engendrée lors d’accidents ponctuels (industriels, marée noire, etc.). Ces polluants en s’accumulant dans l’environnement et/ou en formant des sous-produits de dégradation peuvent présenter un risque pour la santé humaine et l’environnement.

Les plastiques bien sûr, dont l’utilisation a explosé avant une prise de conscience relativement récente, génèrent une pollution pour la faune et la flore lorsqu’ils sont relargués dans l’environnement (micro plastique et formation du « 7ᵉ continent »

Cette étude est la première évaluation publiée des limites planétaires liées aux « entités nouvelles ». Les chercheurs concluent que lla frontière a maintenant été dépassée, augmentant les risques pour la stabilité du système terrestre. Une meilleure gestion des risques, une réduction de la production et des rejets de polluants sont nécessaires, et rapidement, pour revenir dans la zone sûre.

La deuxième étude publiée dans Nature Reviews Earth & Environment le 26 avril dernier, porte sur une nouvelle évaluation réalisée par des chercheurs du Stockholm Resilience Center avec d’autres scientifiques du monde entier au sujet de l’eau verte.

Ils y mettent en lumière que l’eau douce évaluée jusqu’alors portait essentiellement sur l’eau bleue, c’est-à-dire l’eau dans les rivières, les lacs et les eaux souterraines (40 % de la masse totale des précipitations).

L’eau verte quant à elle est stockée dans le sol et la biomasse, évaporée ou absorbée et évapotranspirée par les plantes. Elle retourne directement à l’atmosphère et représente 60 % de la masse totale des précipitations.

Or les chercheurs estiment que le rôle de l’eau verte n’a pas suffisamment été pris en compte dans les précédentes études, malgré son importance capitale : elle contribue à assurer la résilience de la biosphère, préserver les puits de carbone et réguler la circulation atmosphérique.

Ainsi, si l’on s’en tient à la définition actuelle des limites planétaires, la déforestation qui détériore le fonctionnement de l’eau verte en faveur d’une disponibilité accrue d’eau bleue ne participe pas à la transgression des frontières – actuellement établies en fonction de l’eau bleue. Cette contribution de l’eau verte devrait en réalité être prise en compte.

Parmi les exemples concrets, citons la forêt qui perd de son humidité du fait du changement climatique et de la déforestation – il est de plus en plus courant de découvrir des sols anormalement humides ou secs.

Pour conserver une chance de rester dans des conditions favorables à la vie telle qu’on la connaît à l’heure actuelle, il est urgent d’agir sur l’utilisation croissante de l’eau, la déforestation, la dégradation des terres, l’érosion des sols, la pollution atmosphérique et plus globalement, le changement climatique. Le franchissement de ces limites compromet peu à peu la capacité de résilience de la Terre.

De l’espoir et surtout des actions concrètes émergent progressivement : une conscience collective qui prend forme et une éducation au respect de l’environnement dès le plus jeune âge pour enrayer la tendance. En France, des collectifs tels que le Shift Project cherchent à éclairer et influencer le débat sur la transition énergétique.

Ils produisent des rapports, animent des conférences et des ateliers, afin d’accompagner sur les enjeux climatiques et forcer à l’action, pour bâtir un autre modèle économique, décarboné et prouver scientifiquement que des alternatives existent, si l’on s’ouvre au changement.

________

Par Mélanie Mignot, Enseignante chercheuse en chimie au sein du laboratoire COBRA, INSA Rouen Normandie.

La version originale de cet article a été publiée sur The Conversation.

Démocratie : les limites de la proportionnelle

Démocratie : les limites de la proportionnelle

Il faudrait sans doute autre chose pour redonner un contenu à la démocratie participative. Cette question ne saurait être résolue par une répartition des postes de députés entre formations politiques. La problématique est autrement plus large. L’adoption du scrutin proportionnel, qui bénéficie d’un fort soutien chez les Français, pourrait engendrer déceptions et mécontentement, argumentent Jean-Éric Schoettl et Jean-Pierre Camby. En effet ce qui est en cause , c’est le rapports entre l’élu et le citoyen et pas seulement à l’Assemblée nationale. Bref une démocratie qui ne se limite pas au dépôt d’un bulletin de vote mais qui associe les électeurs au processus de réflexion et de décision.

 Jean-Éric Schoettl est conseiller d’État honoraire. Jean-Pierre Camby est haut fonctionnaire honorable de l’Assemblée nationale. Il a codirigé, avec Christelle de Gaudemont, l’ouvrage collectif «Code électoral 2022» (Dalloz).

Dans un pays où le mode de scrutin législatif n’est pas inscrit dans le marbre de la Constitution (il relève en effet de la loi ordinaire) et dont les institutions pâtissent de désamour, il est tentant de chercher à conjurer le désenchantement démocratique par un changement de régime électoral. Aussi n’est-il pas surprenant que l’idée d’attribuer les sièges de députés à la proportionnelle - c’est-à-dire en proportion des voix recueillies par des listes – ait à nouveau le vent en poupe.

Ce serpent de mer est  chéri par toute une partie de l’échiquier politique (surtout par les partis demeurés le plus longtemps dans l’opposition) et maintes fois invoqué au cours de la Ve République,.

Climat: Les limites de la tarification carbone

Climat: Les limites de la tarification carbone 

 

Deux anciens patrons, Pierre-André de Chalendar et Louis Gallois, signent pour la Fabrique de l’industrie une tribune au « Monde » demandant au gouvernement des choix politiques clairs, pour affranchir l’industrie française des dépendances énergétiques et technologiques dont elle pâtit.

 

…..Si l’augmentation progressive du prix du carbone semble être une solution efficace, là encore il s’agit d’être prudent. Ainsi que nous venons de le montrer dans une étude tout juste parue, une augmentation du tarif des émissions de CO2 jusqu’à 250 euros la tonne – ordre de grandeur considéré comme tout juste suffisant par les spécialistes du climat – sera à la fois de nature à peser lourdement sur les ménages (entre 20 et 25 milliards par an simplement pour la consommation de biens et de services, hors fiscalité spécifique), mais aussi à plonger dans de lourdes difficultés des filières entières telles que le transport aérien et l’aéronautique, la sidérurgie, les matériaux de base, etc. (étude « La tarification du carbone et ses répercussions. Exposition sectorielle au surcoût carbone », Olivier Sautel, Caroline Mini, Hugo Bailly et Rokhaya Dieye, La Fabrique de l’industrie et Deloitte, Presse des Mines, 2022).

Une erreur courante consiste à penser que la France et ses partenaires européens se sont couverts contre ce risque depuis qu’ils se sont dotés, à raison, d’un mécanisme d’ajustement carbone aux frontières. La Fabrique de l’industrie l’a bien montré : ce mécanisme, encore très partiel et qu’il faudra parvenir à étendre en dépit de sa technicité, protège du dumping environnemental extra-européen, mais pas des baisses de la demande domestique induites par un prix croissant du carbone, qu’il faut donc anticiper et accompagner.

Dans ce contexte, il est urgent pour la France de réfléchir à ses dépendances, énergétiques pour commencer. En dépit des questions qu’il soulève, il apparaît évident que son parc électronucléaire est un actif précieux, aux vertus multiples : électricité compétitive et peu carbonée, autonomie énergétique, etc. La crise ukrainienne montre de manière particulièrement claire la nécessité de réduire les dépendances énergétiques.

Mondialisation: Les limites des sanctions économiques

Mondialisation: Les limites des sanctions économiques

ANALYSE.

 

La logique suivie par les Occidentaux face au conflit russo-ukrainien ne garantit cependant pas tout : dans l’histoire, seul un tiers des sanctions décidées ont connu un succès total. Décryptage. Par Rodolphe Desbordes, SKEMA Business School et Frédéric Munier, SKEMA Business School.

 

 

Au moins 1 275 sanctions nouvelles, avec en particulier l’exclusion de la Russie du système financier international. Telle est la riposte de nombre de pays du globe à la reconnaissance par Vladimir Poutine des républiques séparatistes ukrainiennes, puis à l’invasion armée.

La crise actuelle s’avère un exemple frappant d’usage de ce que l’on appelle la « géoéconomie ». Elle peut être définie, dans le cadre de la politique étrangère, comme l’utilisation d’instruments économiques pour influencer les objectifs politiques d’un autre pays.

 

Déjà en 1989, dans un article prophétique, le spécialiste de la stratégie militaire américaine Edward Luttwak prophétisait sa généralisation. Selon lui, dans le double contexte de mondialisation et de fin de la guerre froide, les rapports de force allaient davantage reposer sur l’économie que sur les moyens militaires.

L’avènement de la « globalisation » avait, lui, été annoncé dès 1983 par Theodore Levitt, économiste à la Harvard Business School dont il fut rédacteur en chef de la revue 4 ans durant. Il pointait le fait que les marchés entraient dans une dynamique croissante d’interconnexion à l’échelle du monde. Le phénomène n’a pas faibli depuis : à en croire l’indice KOF créé par un institut économique suisse, l’intensité de la mondialisation des échanges commerciaux et financiers a doublé au cours des 50 dernières années.

Dans le même temps et dans le contexte de la fin de la guerre froide, nous avons assisté à une évolution spectaculaire des formes de la guerre. Tandis que les conflits entre plusieurs États se sont faits plus rares, les tensions et conflits au sein d’un seul ont plus que doublé.

 

En 2020, on ne relevait ainsi que trois conflits interétatiques dans le monde contre une cinquantaine de guerres civiles. Parmi elles, la Syrie, l’Éthiopie, la Birmanie ou encore le Mali. Dans tous ces pays, l’État est aux prises avec des composantes de la société civile qui s’opposent entre elles et/ou à lui. Il s’agit de l’un des marqueurs de notre époque : la guerre, longtemps expression de la (sur)puissance des États, est aujourd’hui le plus souvent le signe de son effondrement.Cette diminution du nombre de conflits interétatiques ne signifie pas pour autant que les États, notamment les plus riches et les plus puissants, aient renoncé à défendre ou à imposer leurs intérêts. Ils ont simplement tendance à recourir à d’autres outils de puissance, plus économiques que militaires.

Ce glissement de la géopolitique militaire à la géoéconomie découle en grande partie de l’interdépendance engendrée par la mondialisation économique. Certes, la géopolitique traditionnelle n’a pas disparu, mais son exercice repose sur les armes de notre temps : moins d’acier et plus de capitaux, moins d’obus et plus de sanctions. Comme l’affirme Joseph Nye, grand théoricien américain de la puissance souvent considéré comme l’homologue libéral du plus conservateur Samuel Huntington, avec la mondialisation, les acteurs politiques ont tendance à substituer à la menace de sanctions militaires celle de sanctions économiques.

La raison en est double : les rapports de force géoéconomiques ciblent les fondements mêmes de la mondialisation, c’est-à-dire la création de la valeur, sans détruire durablement le capital, les infrastructures, les villes, ou tuer directement des personnes, comme le fait la guerre classique.

Sous le coup de sanctions, le jeu à somme positive de la mondialisation libérale devient un jeu à somme nulle : tout le monde n’est pas gagnant lorsque la géoéconomie entre en jeu !

L’examen quantitatif et structurel de la nature des sanctions imposées par des États à d’autres montre à quel point la grammaire de la conflictualité a évolué. Non seulement le nombre de sanctions a plus que doublé depuis 1990, mais, surtout, leur nature s’est modifiée.

Les sanctions classiques, comme les embargos sur les armes ou sur le commerce, subsistent aujourd’hui. Celles qui ont toutefois connu le plus grand essor sont directement liées à l’essor de la mondialisation financière et de la mobilité des personnes. L’intégration financière, un meilleur traçage des paiements, l’extraterritorialité du droit américain associé à la prévalence de l’usage du dollar américain, et une volonté d’utiliser des sanctions ciblées ont contribué à cette diversification des instruments de la géoéconomie.

 

Le nouvel âge des sanctions concerne aussi leurs objectifs. Aujourd’hui, la majorité est l’initiative des États-Unis et de l’Union européenne, soit des pays qui disposent d’un fort pouvoir de marchandage économique. Ils ont souvent pour but de faire respecter leurs principes fondateurs à l’étranger tels que les droits de l’homme et la garantie de l’État de droit. En témoignent les données agrégées au sein de la Global Sanctions database.

 

Les sanctions n’atteignent cependant pas toujours leurs objectifs. En moyenne, on peut considérer qu’elles ne rencontrent un succès total que dans à peine plus d’un tiers des cas. Pour l’Ukraine, on peut alors craindre que la géoéconomie laisse la place à une géopolitique classique, notamment si la Russie parvient à renforcer ses échanges avec des partenaires économiques restés neutres, comme la Chine. Les alliés de Kiev s’orientent d’ailleurs déjà vers un soutien militaire à long terme, avec l’envoi d’armes lourdes.

 

Il semble important, enfin, de ne pas oublier que les sanctions économiques peuvent ne pas générer les objectifs escomptés tout en entraînant des conséquences terribles pour les populations les subissant. Les travaux de l’historien Nicholas Mulder sur la Première Guerre mondiale et les empires coloniaux, par exemple, sont là pour le rappeler.

_______

Par Rodolphe Desbordes, Professeur d’Economie, SKEMA Business School et Frédéric Munier, Professeur de géopolitique, SKEMA Business School.

La version originale de cet article a été publiée sur The Conversation.

Rodolphe Desbordes et Frédéric Munier

Les limites de la tarification carbone

Les limites de la tarification carbone 

 

Deux anciens patrons, Pierre-André de Chalendar et Louis Gallois, signent pour la Fabrique de l’industrie une tribune au « Monde » demandant au gouvernement des choix politiques clairs, pour affranchir l’industrie française des dépendances énergétiques et technologiques dont elle pâtit.

 

…..Si l’augmentation progressive du prix du carbone semble être une solution efficace, là encore il s’agit d’être prudent. Ainsi que nous venons de le montrer dans une étude tout juste parue, une augmentation du tarif des émissions de CO2 jusqu’à 250 euros la tonne – ordre de grandeur considéré comme tout juste suffisant par les spécialistes du climat – sera à la fois de nature à peser lourdement sur les ménages (entre 20 et 25 milliards par an simplement pour la consommation de biens et de services, hors fiscalité spécifique), mais aussi à plonger dans de lourdes difficultés des filières entières telles que le transport aérien et l’aéronautique, la sidérurgie, les matériaux de base, etc. (étude « La tarification du carbone et ses répercussions. Exposition sectorielle au surcoût carbone », Olivier Sautel, Caroline Mini, Hugo Bailly et Rokhaya Dieye, La Fabrique de l’industrie et Deloitte, Presse des Mines, 2022).

Une erreur courante consiste à penser que la France et ses partenaires européens se sont couverts contre ce risque depuis qu’ils se sont dotés, à raison, d’un mécanisme d’ajustement carbone aux frontières. La Fabrique de l’industrie l’a bien montré : ce mécanisme, encore très partiel et qu’il faudra parvenir à étendre en dépit de sa technicité, protège du dumping environnemental extra-européen, mais pas des baisses de la demande domestique induites par un prix croissant du carbone, qu’il faut donc anticiper et accompagner.

Dans ce contexte, il est urgent pour la France de réfléchir à ses dépendances, énergétiques pour commencer. En dépit des questions qu’il soulève, il apparaît évident que son parc électronucléaire est un actif précieux, aux vertus multiples : électricité compétitive et peu carbonée, autonomie énergétique, etc. La crise ukrainienne montre de manière particulièrement claire la nécessité de réduire les dépendances énergétiques.

Démocratie : enjeux et limites de la transparence

Démocratie : enjeux et limites de la transparence

 André Yché, Président du conseil de surveillance chez CDC Habitat livre une nouvelle fois une réflexion approfondie cette fois sur les enjeux de la transparence en démocratie ( dans la Tribune)

 

L’État, c’est le secret, et d’abord le secret militaire. En 480 avant Jésus-Christ, la flotte grecque, après quelques revers, s’embosse dans le détroit de Salamine pour tenter d’empêcher l’armée et la flotte de Xerxès Ier de conquérir le Péloponnèse, sur la lancée de la victoire des troupes médiques sur les Spartiates de Léonidas au défilé des Thermopyles.

Tactiquement, le choix est excellent, car l’étroitesse du passage neutralise l’avantage numérique écrasant des Perses. L’inconvénient, c’est que, comme aux Thermopyles, si les Perses parviennent à prendre à revers les Grecs, le massacre est assuré, de telle sorte que les lieutenants et alliés de Thémistocle prennent peur. Hérodote raconte comment Thémistocle prend secrètement contact avec Xerxès Ier pour forcer les évènements : faisant allégeance au monarque perse, il indique qu’à la suite de dissensions chez les Grecs, qui sont réelles, il va devoir replier sa flotte et que le Grand Roi perdra l’occasion de la détruire s’il n’attaque incessamment. Ce que fait aussitôt le Perse, qui passe immédiatement à l’offensive et se laisse piéger dans les eaux peu propices aux grandes manœuvres du détroit. L’invasion est stoppée et Xerxès Ier se replie précipitamment en Asie Mineure. Mais pour obtenir ce résultat et forcer la main à ses alliés, Thémistocle les a délibérément trahis, commettant un acte qui lui aurait coûté sa tête, même après la victoire, eut-il été connu des intéressés.

En 675, puis en 717 après Jésus-Christ, profitant de l’affaiblissement de Byzance par les guerres incessantes livrées aux Sassanides, les armées arabes, qui ont conquis la Syrie, l’Égypte et la Palestine poussent jusqu’à Constantinople. Une flotte importante met le siège sous les murs de la ville, pénétrant dans le Bosphore et bloquant l’accès à la Corne d’Or. C’est un secret soigneusement gardé qui sauve Byzance, au point qu’il est aujourd’hui perdu : celui des feux grégeois qui, dans ces deux occasions, dévastent la flotte des envahisseurs. Cette arme secrète, longtemps décisive sur mer et au pied des fortifications, contribuera à la longévité de l’Empire byzantin qui ne succombera qu’en 1204 à l’assaut de la quatrième croisade.

Le secret économique peut devenir secret d’État. Ainsi en fut-il longtemps de celui de la fabrication de la soie jalousement conservée par les Chinois, les habitants du pays des Sères, qui en faisaient commerce avec les Égyptiens dès le Xe siècle avant Jésus-Christ, puis avec les Romains, à partir du IVe siècle avant Jésus-Christ. Mais le secret finit par être éventé, d’abord au profit de l’Inde, puis du Japon. Enfin, au milieu du VIe siècle, deux moines nestoriens apportent à l’empereur Justinien des œufs de vers à soie. Le quasi-monopole chinois sur la production de cette précieuse monnaie d’échange est définitivement compromis.

La Poste royale est créée par Louis XI qui dans un édit sur les Postes (1464) stipule que le courrier transporté par cette voie sera lu et inspecté. Lorsqu’en 1603, Henri IV ouvre ce service au public, cette pratique demeure et sous Louis XIII, elle donne lieu à la création d’un « cabinet noir » qui communique à Richelieu les pièces les plus intéressantes, sous la responsabilité d’un expert en décryptement, Antoine Rossignol, dont le patronyme désignera l’instrument destiné à forcer les serrures.

Bref, s’il est un « secret d’État », il n’y a point de secret pour l’État ni pour le Roi. Le « Secret du Roi », c’est le service qui permet à Louis XV de conduire une diplomatie parallèle qui, après la Guerre de Succession d’Autriche, amène un renversement d’alliances, en 1756, avant le déclenchement de la guerre de Sept Ans dont les conséquences seront catastrophiques pour la France. La « double track policy » aura montré ses limites, de même que l’amateurisme des diplomates de l’ombre.

Il apparaît donc que la préservation du secret est consubstantielle à l’exercice du pouvoir, au point que l’usage d’une transparence artificielle peut être un moyen de manipulation. Ainsi, le cérémonial de la Cour offrait en spectacle tous les détails, y compris les plus intimes, de la vie de Louis XIV. Et pourtant, il s’était fait une règle intangible de ne jamais exposer le motif de ses décisions, au point qu’il était même interdit de l’interroger à ce propos.

De la démocratie

En France, le premier tournant survient avec la Révolution, et il est à la fois exemplaire de tous les excès et illustratif de tous les débats. Après les avoir étudiés, tout est dit : sur le fond, les deux siècles qui suivent ne sont qu’illustration de ce condensé d’idéologie et d’Histoire, autour du lien entre démocratie et transparence.

L’axiome initial des révolutionnaires, c’est que l’opinion publique garantit la liberté du peuple contre la corruption et la trahison, c’est-à-dire contre les ministres et leurs conseillers, et pour tout dire, contre la monarchie elle-même. Et il faut bien reconnaître qu’à partir de 1793, la découverte de la correspondance secrète du Roi, conservée dans la fameuse « armoire de fer » dissimulée dans les appartements privés du monarque n’infirmera guère cette thèse, étayée par la tentative de franchissement des frontières stoppées à Varennes. La règle est donc la publicité des débats, des votes, des décisions, sans limites. « Les tyrans conspirent dans les ténèbres, le peuple délibère au grand jour ! » écrit Camille Desmoulins. C’est que la transparence absolue, l’accès du public à toutes les délibérations est gage de liberté et de justice : « La procédure doit toujours être faite en public, parce qu’alors la vérité n’a pas à craindre d’être étouffée par l’intrigue, l’artifice, la violence… » dixit Marat.

Deux menaces obsessionnelles vont alors conduire de la publicité des débats à la dénonciation des suspects : la hantise de la corruption, la crainte de la trahison. Ainsi se construit une société de défiance et de délation. Une déclaration de Camille Desmoulins légitime cette dérive : « La défiance est mère de sûreté ». La dénonciation devient un devoir civique. Mais faut-il imposer des bornes ? Robespierre, contre Brissot qui tente de préserver l’unité nationale, dénonce l’ennemi de l’intérieur, thème qui servira souvent, en toutes circonstances. Le terme de dénonciation lui-même, qui est substitué à celui de délation, exprime une volonté de valorisation de l’acte : il s’agit de protéger la République en mettant en lumière les complots ourdis dans l’ombre.

Après la trahison de Dumouriez au printemps de 1793, suivie par la découverte du double jeu de Mirabeau, après sa mort, qui vaut à sa dépouille d’être retirée du Panthéon, la suspicion est généralisée et les dénonciations, souvent anonymes, suffisent par elles-mêmes à étayer l’accusation devant le tribunal révolutionnaire. Le Comité de Salut public examine et trie chaque jour des milliers de courriers de délation et, dans les faits, la simple décision d’en sélectionner certains vaut condamnation. La rage de la transparence alimente désormais le déchaînement de la Terreur.

La réaction thermidorienne mettra un terme à l’emballement non maîtrisé des années 1793-1794, mais elle ne suspendra pas le phénomène, bien au contraire. Les règlements de compte s’ensuivront qui mèneront à l’échafaud les « enragés » et, au-delà, certains jacobins. Ainsi en va-t-il lors de tout basculement du pouvoir, à toutes les époques. Pour connaître un début de retour à l’ordre, il faudra attendre le 18 Brumaire, lorsque Sieyès aura enfin trouvé le « sabre » qu’il cherchait pour finir la Révolution.

Autant la « Glorieuse Révolution » anglaise de 1688 que l’installation de la République américaine, entre 1776 et 1787, furent préservées de ce type de psychose collective, par l’influence philosophique de Locke et de Benjamin Constant, plaçant au cœur de la République (ou d’une Monarchie constitutionnelle) les principes de l’Habeas Corpus, de l’État de Droit, et du respect de la sphère privée. Pendant plus d’un siècle et demi, cet équilibre parvint à prévaloir jusqu’à ce que l’expérience des deux guerres mondiales suivies des guerres de libération, avec leur cortège de désinformation, finisse par ébranler la confiance dans la parole publique et suscite un besoin de transparence accru dans l’opinion. En France, la parution en 1960 du célèbre ouvrage de Jean-Raymond Tournoux, Secrets d’État, n’a fait qu’amplifier un mouvement de révélation des coulisses de l’histoire officielle, illustré depuis lors par divers ouvrages tels que L’Histoire de la diplomatie secrète de Jacques de Launay.

De l’État de Droit

Mais la véritable rupture est venue avec l’ère des mass-medias annoncée dès les années 1960 par David Halberstam, prix Pulitzer en 1964, dans un de ses ouvrages, The powers that be. Cette mutation coïncide avec l’engagement américain au Vietnam narré par le même auteur dans The Best and the Brightest. Ainsi se trouvent rassemblées les composantes de la tragédie qui aboutira à la diffusion des « Pentagon Papers », première révélation massive de documents classifiés, autorisée par la Cour Suprême au nom du droit public à l’information.

Alors s’amorce une nouvelle phase au cours de laquelle du Watergate au Monicagate, en passant par l’Irangate, scandales et révélations se succèdent conduisant à l’héroïsation des « lanceurs d’alerte », jusqu’à la création de Wikileaks dans le but déclaré de réécrire l’Histoire.

Dès la fin des années 1970, la puissance du courant d’opinion était telle qu’en France même, la loi du 17 juillet 1978 créait un droit d’accès aux documents administratifs ainsi qu’une commission ad hoc chargée d’en assurer la mise en œuvre.

En l’espace de quelques décennies, la pratique du « fishing for truth » s’est généralisée à tous les pays au profit du pouvoir en place dans le cas des régimes autoritaires et au détriment de la démocratie dans tous les autres. Il est clair que de la manipulation des « incidents du golfe du Tonkin » ou de l’invention d’armes de destruction massive en Irak, jusqu’à la mise en pâture des frasques de tel ou tel politicien, un sérieux pas a été franchi dont on peut se demander s’il était évitable, eu égard au caractère inexorable de la spirale de la transparence, dès lors qu’une société s’y trouve engagée.

Ajoutons enfin que la prolifération de l’information ne signifie pas automatiquement un accès non biaisé à la vérité : c’est ce que soulignait Tocqueville dans « La démocratie en Amérique » lorsqu’il évoquait l’émergence, dans la presse, de pôles d’influence de l’opinion ; sans doute avait-il en tête le précédent, entre 1810 et 1830, de la « régence d’Albany » au cours de laquelle les grands journaux de l’Est, dont les sièges étaient implantés dans cette ville moyenne, ont fait la pluie et le beau temps dans la vie politique américaine.

Force est de constater que ce mouvement ne présente pas que des inconvénients, par exemple en matière de mise à jour de corruption et de fraude fiscale. Encore faut-il distinguer les réelles motivations des sycophantes qui, à l’instar de Cicéron publiant sa plaidoirie à l’issue du procès et de la fuite de Verrès, visent plutôt qu’à dénoncer les turpitudes d’un magistrat véreux à asseoir leur propre notoriété.

Le prix à payer, en termes de décrédibilisation de l’action politique, est extraordinairement élevé. Il en va de même de la parodie de justice exercée en permanence par les tribunaux médiatiques. Confrontés à leurs méthodes intrusives, même la vie privée de Kant ou celle de Thomas d’Aquin auraient pu être l’objet des pires rumeurs et des plus graves soupçons.

Au surplus, la divulgation prématurée de secrets d’État peut donner lieu à maintes manipulations. Le contenu de la dépêche d’Ems, à la suite des manigances de Bismarck, n’eut-il pas été connu de l’opinion chauffée à blanc, que la guerre franco-prussienne de 1870 aurait pu être évitée. Ce que cet épisode nous enseigne, c’est que transparence n’est pas vérité.

La crise sanitaire actuelle, comme toute crise, révèle les deux faces de Janus que présente ce phénomène. Lorsqu’il s’agit de mettre en lumière la réalité du régime de Pékin pour déciller enfin les yeux des Occidentaux, l’exigence de transparence est justifiée et utile. Mais fallait-il réellement cette crise pour mettre en lumière l’évidence ?

Limites du multilatéralisme de Joe Biden

Limites du multilatéralisme de Joe Biden  

 

Le président des Etats-Unis entend d’un côté lutter contre la crise climatique et de l’autre promouvoir les valeurs démocratiques, analyse l’économiste Kemal Dervis dans une tribune au « Monde ».(extrait)

 

Tribune.

En avril, le président américain Joe Biden a réuni 40 dirigeants mondiaux pour un sommet virtuel sur la lutte contre la crise climatique. Parmi ceux-ci, il y avait des représentants des principaux pays émetteurs, tels que le président russe Vladimir Poutine et le président chinois Xi Jinping, ainsi que des chefs d’Etat particulièrement vulnérables aux effets du changement climatique. Des dirigeants de la société civile et des entreprises y ont également participé. M. Biden et de nombreux autres participants ont annoncé des politiques plus ambitieuses en vue du sommet des Nations unies sur le changement climatique (COP26) en novembre.

Les 9 et 10 décembre, Biden remplira une promesse préélectorale en organisant un autre rassemblement virtuel, baptisé « Sommet pour la démocratie ». Bien que les détails n’aient pas encore été divulgués, la réunion se concentrera sur « la défense contre l’autoritarisme, la lutte contre la corruption et la promotion du respect des droits humains ». M. Biden invitera à nouveau des responsables de gouvernements, de la société civile et du secteur privé.

Les objectifs des deux sommets illustrent des aspects très différents de la coopération multilatérale. La réduction des émissions de gaz à effet de serre pour lutter contre le changement climatique est l’archétype du bien public mondial (BPM), entraînant des avantages à la fois non rivaux et non exclusifs. Leur accumulation dans un pays ne diminue pas les avantages pour les autres, et personne ne peut en être exclu une fois qu’ils sont fournis.

Cela donne généralement lieu à un problème de passager clandestin, car chaque pays est incité à minimiser ses propres coûts pour fournir le BPM et à compter, à la place, sur les contributions des autres. Récemment, les nouvelles technologies permettant d’obtenir des avantages économiques nets d’une transformation verte ont réduit le problème, mais ne l’ont pas éliminé. Une coopération mondiale est par conséquent nécessaire pour y remédier.

En revanche, la démocratie et les droits de l’homme, bien qu’ils puissent générer des externalités positives, ne rentrent pas dans cette définition du bien public mondial, parce que leurs avantages bénéficient presque uniquement aux citoyens des pays qui les pratiquent. Atteindre les objectifs du sommet de Biden sur la démocratie dépendra donc beaucoup plus de valeurs communes et partagées.

Alors que la coopération sur les BPM peut se dérouler de manière pragmatique avec une participation mondiale, la coopération basée sur les valeurs et les croyances, elle, implique le défi de déterminer quels gouvernements peuvent être éligibles. Poutine et Xi Jinping ne seront vraisemblablement pas invités en décembre, car ils pratiquent et revendiquent des valeurs différentes de celles des démocraties libérales.

123456



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol