Archive pour le Tag 'limité'

ChatGPT: Limite sémantique

ChatGPT: Limite sémantique

par Frederic Alexandre, Directeur de recherche en neurosciences computationnelles, Université de Bordeaux, Inria dans The conversation

Un des problèmes que l’IA n’a toujours pas résolu aujourd’hui est d’associer des symboles – des mots par exemple – à leur signification, ancrée dans le monde réel – un problème appelé l’« ancrage du symbole ». Par exemple, si je dis : « le chat dort sur son coussin car il est fatigué », la plupart des êtres humains comprendra sans effort que « il » renvoie à « chat » et pas à « coussin ». C’est ce qu’on appelle un raisonnement de bon sens. En revanche, comment faire faire cette analyse à une IA ? La technique dite de « plongement lexical », si elle ne résout pas tout le problème, propose cependant une solution d’une redoutable efficacité. Il est important de connaître les principes de cette technique, car c’est celle qui est utilisée dans la plupart des modèles d’IA récents, dont ChatGPT… et elle est similaire aux techniques utilisées par Cambridge Analytica par exemple.

Le plongement lexical, ou comment les systèmes d’intelligence artificielle associent des mots proches
Cette technique consiste à remplacer un mot (qui peut être vu comme un symbole abstrait, impossible à relier directement à sa signification) par un vecteur numérique (une liste de nombres). Notons que ce passage au numérique fait que cette représentation peut être directement utilisée par des réseaux de neurones et bénéficier de leurs capacités d’apprentissage.

Plus spécifiquement, ces réseaux de neurones vont, à partir de très grands corpus de textes, apprendre à plonger un mot dans un espace numérique de grande dimension (typiquement 300) où chaque dimension calcule la probabilité d’occurrence de ce mot dans certains contextes. En simplifiant, on remplace par exemple la représentation symbolique du mot « chat » par 300 nombres représentant la probabilité de trouver ce mot dans 300 types de contextes différents (texte historique, texte animalier, texte technologique, etc.) ou de co-occurrence avec d’autres mots (oreilles, moustache ou avion).

Plonger dans un océan de mots et repérer ceux qui sont utilisés conjointement, voilà une des phases de l’apprentissage pour ChatGPT. Amy Lister/Unsplash, CC BY
Même si cette approche peut sembler très pauvre, elle a pourtant un intérêt majeur en grande dimension : elle code des mots dont le sens est proche avec des valeurs numériques proches. Ceci permet de définir des notions de proximité et de distance pour comparer le sens de symboles, ce qui est un premier pas vers leur compréhension.

Pour donner une intuition de la puissance de telles techniques (en fait, de la puissance des statistiques en grande dimension), prenons un exemple dont on a beaucoup entendu parler.

Relier les traits psychologiques des internautes à leurs « likes » grâce aux statistiques en grande dimension

C’est en effet avec une approche similaire que des sociétés comme Cambridge Analytica ont pu agir sur le déroulement d’élections en apprenant à associer des préférences électorales (représentations symboliques) à différents contextes d’usages numériques (statistiques obtenues à partir de pages Facebook d’usagers).

Leurs méthodes reposent sur une publication scientifique parue en 2014 dans la revue PNAS, qui comparait des jugements humains et des jugements issus de statistiques sur des profils Facebook.

L’expérimentation reportée dans cette publication demandait à des participants de définir certains de leurs traits psychologiques (sont-ils consciencieux, extravertis, etc.), leur donnant ainsi des étiquettes symboliques. On pouvait également les représenter par des étiquettes numériques comptant les « likes » qu’ils avaient mis sur Facebook sur différents thèmes (sports, loisirs, cinéma, cuisine, etc.). On pouvait alors, par des statistiques dans cet espace numérique de grande dimension, apprendre à associer certains endroits de cet espace à certains traits psychologiques.

Ensuite, pour un nouveau sujet, uniquement en regardant son profil Facebook, on pouvait voir dans quelle partie de cet espace il se trouvait et donc de quels types de traits psychologiques il est le plus proche. On pouvait également comparer cette prédiction à ce que ses proches connaissent de ce sujet.

Le résultat principal de cette publication est que, si on s’en donne les moyens (dans un espace d’assez grande dimension, avec assez de « likes » à récolter, et avec assez d’exemples, ici plus de 70000 sujets), le jugement statistique peut être plus précis que le jugement humain. Avec 10 « likes », on en sait plus sur vous que votre collègue de bureau ; 70 « likes » que vos amis ; 275 « likes » que votre conjoint.

Cette publication nous alerte sur le fait que, quand on recoupe différents indicateurs en grand nombre, nous sommes très prévisibles et qu’il faut donc faire attention quand on laisse des traces sur les réseaux sociaux, car ils peuvent nous faire des recommandations ou des publicités ciblées avec une très grande efficacité. L’exploitation de telles techniques est d’ailleurs la principale source de revenus de nombreux acteurs sur Internet.

Nos likes et autres réaction sur les réseaux sociaux en disent beaucoup sur nous, et ces informations peuvent être exploitées à des fins publicitaires ou pour des campagnes d’influence. George Pagan III/Unsplash, CC BY
Cambridge Analytica est allée un cran plus loin en subtilisant les profils Facebook de millions d’Américains et en apprenant à associer leurs « likes » avec leurs préférences électorales, afin de mieux cibler des campagnes électorales américaines. De telles techniques ont également été utilisées lors du vote sur le Brexit, ce qui a confirmé leur efficacité.

Notons que c’est uniquement l’aspiration illégale des profils Facebook qui a été reprochée par la justice, ce qui doit continuer à nous rendre méfiants quant aux traces qu’on laisse sur Internet.

Calculer avec des mots en prenant en compte leur signification

En exploitant ce même pouvoir des statistiques en grande dimension, les techniques de plongement lexical utilisent de grands corpus de textes disponibles sur Internet (Wikipédia, livres numérisés, réseaux sociaux) pour associer des mots avec leur probabilité d’occurrence dans différents contextes, c’est-à-dire dans différents types de textes. Comme on l’a vu plus haut, ceci permet de considérer une proximité dans cet espace de grande dimension comme une similarité sémantique et donc de calculer avec des mots en prenant en compte leur signification.

Un exemple classique qui est rapporté est de prendre un vecteur numérique représentant le mot roi, de lui soustraire le vecteur (de même taille car reportant les probabilités d’occurrence sur les mêmes critères) représentant le mot homme, de lui ajouter le vecteur représentant le mot femme, pour obtenir un vecteur très proche de celui représentant le mot reine. Autrement dit, on a bien réussi à apprendre une relation sémantique de type « A est à B ce que C est à D ».

Le principe retenu ici pour définir une sémantique est que deux mots proches sont utilisés dans de mêmes contextes : on parle de « sémantique distributionnelle ». C’est ce principe de codage des mots qu’utilise ChatGPT, auquel il ajoute d’autres techniques.

Ce codage lui permet souvent d’utiliser des mots de façon pertinente ; il l’entraîne aussi parfois vers des erreurs grossières qu’on appelle hallucinations, où il semble inventer des nouveaux faits. C’est le cas par exemple quand on l’interroge sur la manière de différencier des œufs de poule des œufs de vache et qu’il répond que ces derniers sont plus gros. Mais est-ce vraiment surprenant quand on sait comment il code le sens des symboles qu’il manipule ?

Sous cet angle, il répond bien à la question qu’on lui pose, tout comme il pourra nous dire, si on lui demande, que les vaches sont des mammifères et ne pondent pas d’œuf. Le seul problème est que, bluffés par la qualité de ses conversations, nous pensons qu’il a un raisonnement de bon sens similaire au nôtre : qu’il « comprend » comme nous, alors que ce qu’il comprend est juste issu de ces statistiques en grande dimension.

Le Conseil constitutionnel limite le pouvoir du peuple

Le Conseil constitutionnel limite le pouvoir du peuple


par Jean Fougerouse
Maitre de conférences en droit public, Université d’Angers dans the Conversation


Deux propositions de référendum d’initiative partagée (RIP) prévoyant de limiter l’âge de départ à la retraite à 62 ans (proposition n°959 du 20 mars 2023 et proposition n°530 du 13 avril 2023) ont été rejetées par le Conseil constitutionnel (CC) le 14 avril et le 3 mai 2023. Cela porte à cinq les tentatives d’utilisation du RIP, après la proposition de loi visant à affirmer le caractère de service public national de l’exploitation des aérodromes de Paris (2019), celle de programmation pour garantir un accès universel à un service public hospitalier de qualité (2021) et celle sur la création d’une taxe sur les superprofits (2022).

Le CC doit en effet assurer le contrôle préalable de la proposition référendaire prévue à l’article 11 de la constitution. À ce titre, le juge a vérifié que les deux propositions étaient soutenues respectivement par 252 et 253 parlementaires sachant que le minimum exigé est d’un cinquième des parlementaires (soit 185). De plus une proposition de référendum ne peut pas avoir pour objet d’abroger une loi promulguée il y a moins d’un an. Le CC s’est prononcé sur ce point en prenant en compte la date d’enregistrement de la proposition, soit le 23 mars et le 13 avril. Or à cette date, la loi portant l’âge de départ à la retraite à 64 ans n’était pas promulguée : la condition était donc remplie.

Par les décisions du 14 avril et du 3 mai le CC a cependant fermé la possibilité d’organiser un RIP portant sur le maintien de l’âge de départ de la retraite, en confirmant l’interprétation restrictive de l’objet du référendum, tout en précisant que le pouvoir du peuple est encadré par la constitution et en contribuant à confiner le RIP dans un rôle d’instrument de l’opposition parlementaire.

L’article 11 de la constitution prévoit que la question posée par la proposition doit porter « sur l’organisation des pouvoirs publics, sur des réformes relatives à la politique économique, sociale ou environnementale de la nation et aux services publics qui y concourent ». Or, si le plafonnement de l’âge de la retraite à 62 ans concernait évidemment le domaine de la politique sociale, encore fallait-il que cette proposition constitue une « réforme ». Ce point précis n’avait pas été retenu dans la décision n°2022-3 RIP du 25 octobre 2022 justement en raison du défaut d’ampleur et de pérennité de la mesure objet de la proposition (taxe sur les superprofits).

Il s’agissait donc de savoir si la règle en vigueur (âge de départ à la retraite fixé à 62 ans) était identique à celle proposée (l’âge de la retraite ne peut être supérieur à 62 ans). Sur ce point, le CC précise dans la décision du 14 avril :

« la proposition de loi visant à affirmer que l’âge légal de départ à la retraite ne peut être fixé au-delà de 62 ans n’emporte pas de changement de l’état du droit. »

Cette affirmation nous paraît être un amalgame. En effet, il y a évidemment une différence entre fixer un âge et fixer un plafonnement à cet âge. En réalité le CC fait une confusion entre d’une part l’existence ou non d’une nouvelle règle (donc celle d’une « réforme ») et d’autre part la possibilité qu’une telle norme soit adoptée par référendum. Certes, le juge est habilité dans le cadre du contrôle qu’il opère à se prononcer sur ces deux questions. Mais leur objet est distinct.

Les deux propositions de référendum prévoyaient ainsi de fixer un plafond c’est-à-dire un âge maximum de départ à la retraite qui se serait imposé au législateur. Or, on sait que le législateur n’est pas compétent pour s’auto-limiter et que seule une norme constitutionnelle peut le faire.

Donc, fixer un plafond revient à produire une interdiction contraire aux normes constitutionnelles. Le CC étant compétent pour contrôler le respect de l’ensemble des normes constitutionnelles, pouvait estimer que la proposition était non conforme parce qu’elle violait une norme constitutionnelle. Cependant ce n’est pas le parlement qui est amené in fine à se prononcer sur cette proposition, mais bien le peuple.

À ce stade la question devient beaucoup plus délicate. Il s’agit de se prononcer non plus sur le pouvoir du parlement de s’autolimiter mais sur celle du peuple de limiter le pouvoir du législateur.

Le CC devait donc se prononcer sur la nature du pouvoir dont dispose le peuple lorsqu’il adopte une proposition par référendum. Le CC a retenu ici une approche fonctionnelle du peuple en considérant que ce dernier, sollicité sur la base du RIP, remplace le parlement et a les mêmes pouvoirs et limites.

D’une part :

« le législateur peut toujours modifier, compléter ou abroger des dispositions législatives antérieures, qu’elles résultent d’une loi votée par le Parlement ou d’une loi adoptée par voie de référendum » (donc en admettant que la proposition soit adoptée par référendum elle pourra être modifiée par le parlement, auquel elle ne s’impose nullement)

D’autre part :

« ni la circonstance que ses dispositions seraient adoptées par voie de référendum ni le fait qu’elles fixeraient un plafond contraignant pour le législateur ne permettent davantage de considérer que cette proposition de loi apporte un changement de l’état du droit » (nouvelle confusion entre le pouvoir du peuple et le caractère novateur de la proposition).

C’est une évolution notable de la position antérieure du CC selon laquelle « les lois adoptées par le peuple à la suite d’un référendum, constituent l’expression directe de la souveraineté nationale » justifiant qu’elles ne soient pas contrôlées contrairement à celles produites émises par le parlement.

Il est vrai que cette jurisprudence avait été émise avant la révision de la constitution de 2008 introduisant le RIP et son contrôle.

Un RIP confiné au rôle d’instrument de l’opposition parlementaire
Par ailleurs, les décisions du 14 avril et du 3 mai 2023 participent à la tendance qui réduit le RIP à une manœuvre parlementaire dans le droit fil de la décision du CC du 25 octobre 2022.

La procédure de dépôt d’une proposition de référendum apparaît ainsi moins comme une tentative de mettre en œuvre un mécanisme de démocratie directe qu’un moyen supplémentaire pour l’opposition de faire entendre sa voix et de peser dans son rapport de force politique avec l’exécutif.

Ainsi, la proposition déposée pour empêcher la privatisation d’Aéroports de Paris n’avait recueilli qu’un million de soutiens populaires mais avait tout de même convaincu le gouvernement de renoncer à cette privatisation.

À la différence de la saisine du CC par la minorité parlementaire pour contrôler la constitutionnalité des lois (article 61 de la constitution), cette arme de guérilla parlementaire risque de mettre le Conseil constitutionnel à rude épreuve car il pourrait apparaître comme celui qui empêche la consultation populaire, alors que ce contrôle préalable est nécessaire puisque le CC refuse de contrôler une loi adoptée par référendum (décision n°62-20 DC du 6 novembre 1962 et n°92-313 DC du 23 septembre 1992).

De son côté l’opposition parlementaire a perfectionné sa stratégie d’usage du RIP. On a ainsi pu constater l’intensification du recours à la proposition référendaire : après une première proposition enregistrée le 23 mars, une nouvelle demande a été déposée le 13 avril 2023 donnant lieu aux deux décisions du CC.

Or, la seconde proposition constituait sans nul doute une amélioration de la première (au moins sur le plan formel) et cette activité de perfectionnement de la demande se serait certainement poursuivie par le dépôt d’une troisième demande à la suite de la décision du CC si le président de la République n’avait pas promulgué dans la nuit du 14 au 15 avril la loi sur la réforme de l’âge de départ à la retraite validée partiellement par le CC.

Cette pratique partisane du RIP incite le juge constitutionnel à adopter une fonction d’arbitre institutionnel entre opposition et majorité, d’autant plus délicate que les membres du Conseil sont nommés par des autorités politiques et que le contexte de majorité relative peut pousser le juge à favoriser la stabilité institutionnelle par prudence.

Défense-réservistes de l’armée: Limite d’âge repoussée à 70 ou 72 ans

Défense-réservistes de l’armée: Limite d’âge repoussée à 70 ou 72 ans

Actuellement La limite d’âge entre 65 et 67 va être repoussée entre 70 et 70. En cause l’adaptation des effectifs aux enjeux de guerre notamment de haute intensité. Cela confirme à l’évidence que le dispositif militaire français est complètement inadapté à des conflits d’importance. Par exemple face à un conflit comme en Ukraine la France ne pourrait résister de 8à 15 jours d’après les experts.

La France dispose en effet d’une armée très complète mais qui est une sorte de miniature dans tous les domaines. Il y a des dizaines d’années que le budget de l’armée est réduit en euros constants. Le relais aurait pu être pris par une armée européenne de plus en plus introuvable non seulement pour des questions de moyens mais aussi de stratégie militaire et de politique industrielle.

on peut vérifier qu’en réalité à chaque fois c’est l’ensemble de la population mobilisable qui doit être sollicitée pour la défense. La France a voulu concentrer sa politique militaire sur les seuls professionnels considérant que les nouvelles technologies pouvaient suppléer les effectifs insuffisants. Le problème c’est qu’il convient de développer les deux aspects à la fois les nouveaux outils technologiques et les effectifs. En Afrique, faute de moyens la France a dû reculer notamment au Mali et au Burkina Faso. Là aussi les moyens en effectifs étaient notoirement sous dimensionnés. Or la France n’a pu développer qu’un contingent d’environ 5000 militaires sur un territoire presque aussi grand que l’Europe.

Par démagogie, on a supprimé le service militaire. En cas de conflit de haute intensité, c’est l’ensemble de la population qui sera sollicitée. Le seul problème, c’est qu’on risque de mobiliser des troupes qui ne sont pas formées comme ce qu’on voit par exemple en Russie avec des appelés qui servent de chair à canon.

Le ministre des Armées indique vouloir « rester dans le club des nations capables de se protéger » face à une « succession de menaces ».

« Il y a plusieurs objectifs avec cette enveloppe budgétaire inédite : continuer à réparer ce qui a été abîmé, un certain nombre de baisses de budget ont affecté notre modèle d’armée (…) et on a une succession de menaces qui s’additionnent entre elles », a-t-il souligné, en mentionnant le terrorisme, la guerre en Ukraine, la militarisation de l’espace ou encore le cyber. Il s’agit de « rester dans le club des nations capables de se protéger », a-t-il insisté.

Entre 2024 et 2030, l’enveloppe consacrée aux armées s’élèvera à 413 milliards d’euros, dont 13 milliards de recettes extra-budgétaires. Le budget défense sera augmenté chaque année de 3 à 4 milliards d’euros.

Une augmentation certes mais qui n’est pas du tout à la hauteur des enjeux. La faiblesse pouvoir politique empêche de reposer la question fondamentale du service militaire obligatoire. Macron lui-même l’a envisagée en 2017 est abandonné en cours de route.

Défense-réservistes de l’armée: Limite d’âge repoussée à 70 ou 72 ans

Défense-réservistes de l’armée: Limite d’âge repoussée à 70 ou 72 ans

Actuellement La limite d’âge entre 65 et 67 va être repoussée entre 70 et 70. En cause l’adaptation des effectifs aux enjeux de guerre notamment de haute intensité. Cela confirme à l’évidence que le dispositif militaire français est complètement inadapté à des conflits d’importance. Par exemple face à un conflit comme en Ukraine la France ne pourrait résister de 8à 15 jours d’après les experts.

La France dispose en effet d’une armée très complète mais qui est une sorte de miniature dans tous les domaines. Il y a des dizaines d’années que le budget de l’armée est réduit en euros constants. Le relais aurait pu être pris par une armée européenne de plus en plus introuvable non seulement pour des questions de moyens mais aussi de stratégie militaire et de politique industrielle.

on peut vérifier qu’en réalité à chaque fois c’est l’ensemble de la population mobilisable qui doit être sollicitée pour la défense. La France a voulu concentrer sa politique militaire sur les seuls professionnels considérant que les nouvelles technologies pouvaient suppléer les effectifs insuffisants. Le problème c’est qu’il convient de développer les deux aspects à la fois les nouveaux outils technologiques et les effectifs. En Afrique, faute de moyens la France a dû reculer notamment au Mali et au Burkina Faso. Là aussi les moyens en effectifs étaient notoirement sous dimensionnés. Or la France n’a pu développer qu’un contingent d’environ 5000 militaires sur un territoire presque aussi grand que l’Europe.

Par démagogie, on a supprimé le service militaire. En cas de conflit de haute intensité, c’est l’ensemble de la population qui sera sollicitée. Le seul problème, c’est qu’on risque de mobiliser des troupes qui ne sont pas formées comme ce qu’on voit par exemple en Russie avec des appelés qui servent de chair à canon.

Le ministre des Armées indique vouloir « rester dans le club des nations capables de se protéger » face à une « succession de menaces ».

« Il y a plusieurs objectifs avec cette enveloppe budgétaire inédite : continuer à réparer ce qui a été abîmé, un certain nombre de baisses de budget ont affecté notre modèle d’armée (…) et on a une succession de menaces qui s’additionnent entre elles », a-t-il souligné, en mentionnant le terrorisme, la guerre en Ukraine, la militarisation de l’espace ou encore le cyber. Il s’agit de « rester dans le club des nations capables de se protéger », a-t-il insisté.

Entre 2024 et 2030, l’enveloppe consacrée aux armées s’élèvera à 413 milliards d’euros, dont 13 milliards de recettes extra-budgétaires. Le budget défense sera augmenté chaque année de 3 à 4 milliards d’euros.

Une augmentation certes mais qui n’est pas du tout à la hauteur des enjeux. La faiblesse pouvoir politique empêche de reposer la question fondamentale du service militaire obligatoire. Macron lui-même l’a envisagée en 2017 est abandonné en cours de route.

Armée: Limite d’âge des réservistes repoussée à 70 ou 72 ans

Armée: Limite d’âge des réservistes repoussée à 70 ou 72 ans

Actuellement La limite d’âge entre 65 et 67 va être repoussée entre 70 et 70. En cause l’adaptation des effectifs aux enjeux de guerre notamment de haute intensité. Cela confirme à l’évidence que le dispositif militaire français est complètement inadapté à des conflits d’importance. Par exemple face à un conflit comme en Ukraine la France ne pourrait résister de 8à 15 jours d’après les experts.

La France dispose en effet d’une armée très complète mais qui est une sorte de miniature dans tous les domaines. Il y a des dizaines d’années que le budget de l’armée est réduit en euros constants. Le relais aurait pu être pris par une armée européenne de plus en plus introuvable non seulement pour des questions de moyens mais aussi de stratégie militaire et de politique industrielle.

on peut vérifier qu’en réalité à chaque fois c’est l’ensemble de la population mobilisable qui doit être sollicitée pour la défense. La France a voulu concentrer sa politique militaire sur les seuls professionnels considérant que les nouvelles technologies pouvaient suppléer les effectifs insuffisants. Le problème c’est qu’il convient de développer les deux aspects à la fois les nouveaux outils technologiques et les effectifs. En Afrique, faute de moyens la France a dû reculer notamment au Mali et au Burkina Faso. Là aussi les moyens en effectifs étaient notoirement sous dimensionnés. Or la France n’a pu développer qu’un contingent d’environ 5000 militaires sur un territoire presque aussi grand que l’Europe.

Par démagogie, on a supprimé le service militaire. En cas de conflit de haute intensité, c’est l’ensemble de la population qui sera sollicitée. Le seul problème, c’est qu’on risque de mobiliser des troupes qui ne sont pas formées comme ce qu’on voit par exemple en Russie avec des appelés qui servent de chair à canon.

Le ministre des Armées indique vouloir « rester dans le club des nations capables de se protéger » face à une « succession de menaces ».

« Il y a plusieurs objectifs avec cette enveloppe budgétaire inédite : continuer à réparer ce qui a été abîmé, un certain nombre de baisses de budget ont affecté notre modèle d’armée (…) et on a une succession de menaces qui s’additionnent entre elles », a-t-il souligné, en mentionnant le terrorisme, la guerre en Ukraine, la militarisation de l’espace ou encore le cyber. Il s’agit de « rester dans le club des nations capables de se protéger », a-t-il insisté.

Entre 2024 et 2030, l’enveloppe consacrée aux armées s’élèvera à 413 milliards d’euros, dont 13 milliards de recettes extra-budgétaires. Le budget défense sera augmenté chaque année de 3 à 4 milliards d’euros.

Une augmentation certes mais qui n’est pas du tout à la hauteur des enjeux. La faiblesse pouvoir politique empêche de reposer la question fondamentale du service militaire obligatoire. Macron lui-même l’a envisagée en 2017 est abandonné en cours de route.

E-commerce: Perspective et limite

E-commerce: Perspective et  limite

 

Dans une interview accordée à La Tribune, Vincent Chabault, sociologue à l’Université de Paris, spécialiste du commerce et de la consommation et auteur d’Eloge du magasin (Gallimard, 2020), analyse dans le détail les différentes tendances de la consommation numérique .

 

Intreview de Vincent Chabault, sociologue à l’Université de Paris, spécialiste du commerce et de la consommation et auteur d’Eloge du magasin (Gallimard, 2020), (Crédits : F.Mantovani/Gallimard) ( dans la Tribune)

 La crise sanitaire a amplifié la croissance du e-commerce qui était déjà forte les années précédentes. Les confinements et les contraintes sanitaires qui l’ont accompagnée ont entraîné un fort développement de la demande et de l’offre avec, dans certains secteurs, un véritable coup d’accélérateur. Jusqu’où le e-commerce peut-il aller. Peut-il tuer le commerce « physique » à long terme ?

Vincent Chabault - La crise a en effet accéléré des tendances qui étaient préexistantes. Le gros changement est aussi d’ordre psychologique dans la mesure où, aujourd’hui, la norme du magasin connecté, quelle que soit sa taille, s’est imposée. Pendant la crise, et notamment pendant les deux confinements, il y a eu une forte digitalisation de tous les magasins. Y compris de ceux, comme la grande distribution et surtout le petit commerce, qui se méfiaient de cette révolution numérique car ils ne la maîtrisaient pas. Désormais, ces outils numériques au service du commerce de détail ne sont plus vus comme une menace, mais bel et bien comme un outil de développement économique, surtout en temps de confinement. Dans la grande distribution le « drive » a explosé, notamment pour les produits frais, ce qui n’était pas le cas auparavant. Il a également progressé sous d’autres formes comme les « drives fermiers » au printemps 2020, quand les marchés étaient fermés, organisés avec des circuits courts avec l’aide des chambres d’agriculture et des prestataires numériques comme Cagette.net. Dans les petits commerces, les librairies, les artisans alimentaires, les boucheries… le « click and collect », davantage que la livraison à domicile, s’est renforcé.
 
Aujourd’hui, les magasins sont ouverts. La croissance du e-commerce est-t-elle aussi forte ?
Nous ne sommes pas encore revenus à la normale. Nous constatons néanmoins que dès que les magasins rouvrent en mode non dégradé, quand les routines d’achat reprennent un peu, les services numériques connaissent un reflux. En ce moment, il y a moins de livraisons, moins de « click and collect »… Pour autant, il existe des routines d’achat qui avaient basculé vers le numérique et qui perdurent depuis la réouverture des magasins. On le voit notamment dans l’alimentaire, avec le « drive  voiture », les livraisons à domicile, et, dans des villes comme Paris, le « drive piéton ». Résultat, il y a une polarisation du modèle commercial avec l’émergence de deux logiques de consommation : la première concerne la consommation de flux, de ravitaillement régulier, le « fond de placard »… Là, le numérique sous la forme du « drive » (voiture ou piéton), de la livraison voire du « quick commerce », va encore progresser aux dépens des hypermarchés et des centres commerciaux de périphérie, qui me semblent les plus menacés par l’essor du e-commerce. L’autre logique de consommation correspond à une consommation ponctuelle, d’exception, à forte dimension gastronomique pour les artisans alimentaires ou culturelle pour ce qui concerne les librairies, pour laquelle le magasin conserve sa légitimité pour son rôle de conseil, de relation, d’expertise…Cette polarisation de l’appareil commercial va probablement se renforcer dans les années à venir. S’il ne va pas remplacer le commerce classique, il est clair que pour une certaine forme de consommation, le e-commerce va effectivement progresser énormément aux dépens du réseau classique.
 
Pourquoi cette logique de consommation échappe-t-elle au e-commerce ?
Je pense que le shopping, la flânerie, les courses ponctuelles ont un avenir car la consommation n’est pas qu’une affaire d’économie. Faire du shopping est une activité socio- culturelle. C’est une pratique qui comporte une dimension identitaire et relationnelle forte et elle s’inscrit dans des liens sociaux et des sociabilités. Les adolescents par exemple fréquentent beaucoup les centres commerciaux. Par ailleurs, il faut aussi reconnaître qu’un certain nombre de produits passent difficilement par le e-commerce.

 

Présidentielles : Zemmour trop limité (le politologue Jérôme Sainte-Marie)

Présidentielles : Zemmour trop limité (le politologue Jérôme Sainte-Marie)

J

Jérôme Sainte-Marie est politologue, président de l’institut PollingVox, et auteur de l’essai Bloc contre bloc  analyse des hypothèses sur les présidentielles de 2022.

Marine Le Pen est-elle la grande perdante des régionales ?

Il faut distinguer les faits et leurs conséquences. Si on prend en compte les faits, c’est-à-dire les scores, c’est La République en marche qui essuie la plus lourde défaite car la fraction de l’électorat qui s’est déplacée avait un profil tout à fait en correspondance avec le parti d’Emmanuel Macron, alors que la sociologie de l’abstention handicapait, elle, naturellement Marine Le Pen. Si on prend en compte les conséquences, c’est-à-dire la dynamique politique dans la perspective de la présidentielle, on peut, oui, considérer que la présidente du RN a connu un échec plus grave. Il est cependant probable qu’au premier tour de la présidentielle, elle retrouvera les électeurs qui votent habituellement pour elle et ne se sont pas déplacés lors des régionales : l’électorat ouvrier, les jeunes…, bref, ceux qui sont en attente de protection, voire de changement politique important pour le pays et pour eux-mêmes et qui ont considéré qu’un scrutin local ne l’apporterait pas. Au fond, leur abstention a été très rationnelle. En revanche, Marine Le Pen a besoin pour crédibiliser sa capacité présidentielle d’attirer à elle des compétences, des cadres, des fractions de l’élite. Plus que le prétendu plafond de verre ou ses valeurs, sa crédibilité comme force de gouvernement est son principal handicap. C’est en le comblant qu’elle pourra se désenclaver. Or, le mauvais score du RN aux régionales ne va pas inciter ceux parmi les élites qui auraient pu la rejoindre à le faire. Même si, dans le futur, des sondages la placent toujours en tête en vue de 2022, ces enquêtes vont susciter de la méfiance et Marine Le Pen ne retrouvera pas tout de suite la dynamique nécessaire pour attirer des compétences.

Quelles conclusions doit-elle en tirer ?

Cela rappelle que mobiliser avant tout son propre électorat constitue une priorité pour tout candidat. Dans le contexte actuel, il n’y a plus d’électorat acquis, l’acte de voter a perdu de sa solennité et la déstructuration du système partisan permet de varier son choix suivant les scrutins. Jean-Luc Mélenchon l’a déjà expérimenté à son détriment, une bonne moitié de ses électeurs de 2017 l’ayant abandonné. Marine Le Pen peut mobiliser les catégories populaires, c’est-à-dire s’adresser aux Français qui ont voté non en 2005, soutenu les Gilets jaunes en 2018. Dans certains sondages, son score parmi les ouvriers et les employés tangentait ces derniers mois les 50 % dès le premier tour. Certes, ce n’est pas suffisant pour elle pour conquérir le pouvoir, mais c’est indispensable pour atteindre une masse critique dans les sondages puis dans les urnes. Telle est la condition de sa qualification pour le second tour. Son crédit dans les milieux populaires a été sa garantie principale de succès depuis son élection à la tête du FN en 2011. Or, il a manqué à la présidente du RN durant cette campagne, des messages s’adressant à l’identité sociale de son électorat. Le contraste est puissant avec les européennes de 2019. Marine Le Pen et Jordan Bardella avaient réussi à détourner le sens de ces élections en les transformant en référendum anti-Macron. Etait-ce possible aux régionales ? Ce n’est pas certain, le contexte social est atone et l’on ne parlait guère des réformes envisagées. Du coup l’accent a été mis sur les compétences des régions et sur la bonne gestion de celles-ci, débat dans lequel le RN est naturellement handicapé et qui visiblement n’intéresse guère les électeurs.

Le Rassemblement national exerce parfois la fonction tribunitienne attribuée autrefois au Parti communiste, mais il manque de relais syndicaux ou associatifs pour pleinement représenter les catégories populaires

Où est passé le bloc populaire ?

Un bloc, notion dérivée du bloc historique théorisé par Antonio Gramsci, se constitue par la rencontre d’un projet et d’une sociologie. Le bloc élitaire existe indubitablement, car le projet d’Emmanuel Macron est idéologiquement cohérent, bien adapté à nos institutions et a trouvé son public. Le bloc populaire est lui bien plus problématique. Le Rassemblement national exerce parfois la fonction tribunitienne attribuée autrefois au Parti communiste, mais il manque de relais syndicaux ou associatifs pour pleinement représenter les catégories populaires. Reste qu’aujourd’hui les clivages sociaux sont présents comme jamais. Lors de la présidentielle, on peut donc penser qu’une polarisation aura lieu, avec un effet de miroir idéologique entre Macron et Le Pen qui a son pendant sociologique.

Ces élections ont-elles vraiment signifié le retour de la droite ?

La victoire de la droite est en trompe-l’œil. Dans le cadre d’une élection, où seul s’est déplacé un tiers des inscrits, la composition de sa sociologie électorale constitue un avantage décisif. Dans cette élection, ce sont d’abord les retraités, les « bien installés » qui sont allés voter. Ils sont surreprésentés chez Les Républicains, même si Emmanuel Macron a récupéré les cadres supérieurs. Il y a donc eu un formidable effet d’aubaine pour la droite. Mais elle ne doit pas en tirer pour autant des conclusions pour la suite. La gauche, malgré son état au niveau national, a vu également tous ses sortants reconduits. La prudence devrait être de mise.

Xavier Bertrand est-il bien parti pour s’imposer comme le candidat de LR ?

Il est incontestablement sorti très conforté des régionales. Il a des atouts réels pour la suite. Il a été réélu à la tête de la région la plus pauvre de France, ce qui est un symbole utile. Il l’a emportée à deux reprises, et la deuxième très franchement, sur le RN. Il incarne le Français moyen, ce n’est pas ici péjoratif, et contrairement à d’autres leaders de la droite, il n’apparaît pas comme une simple solution de substitution à Emmanuel Macron, mais représente une formule originale. Une des expressions fétiches de Xavier Bertrand est « Je sais où se trouve le point d’équilibre de la société français ». S’il parvient à l’incarner, son offre électorale aura du potentiel.

Même si dans les sondages actuels, Eric Zemmour semble prendre pour l’instant à Nicolas Dupont-Aignan et au candidat LR, il n’apportera pas de nouvelles fractions d’électorat à la candidate du RN lors d’un second tour. En revanche, il facilitera la tâche d’Emmanuel Macron

Que peut changer une candidature d’Eric Zemmour en 2022 ?

Elle ne peut faire qu’un seul gagnant : Emmanuel Macron. Eric Zemmour manifeste un grand talent mais est devenu une figure extraordinairement clivante dont la capacité à rallier une majorité paraît illusoire au vu des sondages. Lorsque l’on parle de son potentiel électoral qu’il soit de 13 % ou 18 %, il faut rappeler qu’il est mesuré sans que soient mentionnés ses concurrents ni précisé s’il s’agit du premier ou du second tour de la présidentielle. A ce jeu-là, la plupart des personnalités politiques un peu connues obtiennent un résultat supérieur. Sur l’immigration, la sécurité, l’indépendance nationale, Marine Le Pen et Eric Zemmour sont très proches (l’Islam est une revanche une différence). Celui-ci ne pourra se distinguer qu’en faisant une campagne disqualifiant la personne de Marine Le Pen. Et même si dans les sondages actuels, il semble prendre pour l’instant à Nicolas Dupont-Aignan et au candidat LR, il n’apportera pas de nouvelles fractions d’électorat à la candidate du RN lors d’un second tour. En revanche, il facilitera la tâche d’Emmanuel Macron.

Parle-t-il au bloc populaire ?

Pour l’instant, pas du tout. Ce n’est pas son projet, d’ailleurs. Son emprise sur les milieux populaires est très faible. Il ne peut intéresser que des gens qui votent d’abord en fonction des questions migratoires, identitaires et sécuritaires. Lui-même ne prend jamais en compte les demandes sociales de l’électorat populaire, qu’il assimile curieusement aux programmes de gauche. On devine qu’il proposerait une solution libérale-identitaire qui ne peut parler qu’à des gens très motivés. En revanche, il se heurte au scepticisme, voire à l’inquiétude d’une bonne partie de l’opinion. Si l’on raisonne sur un plan strictement électoral, il a les handicaps de Marine Le Pen sans les atouts. La ferveur que cette hypothèse rencontre dans certains milieux aisés dit beaucoup de choses sur leurs conceptions de la nation et du peuple, mais pas forcément ce qu’ils aimeraient entendre.

Croissance France : un rebond très limité

Croissance France  : un rebond très limité

De toute évidence la croissance française aura bien du mal à dépasser les 4 % officiels prévus. On est loin de la dynamique de reprise constatée aux États-Unis ou en Chine. La France devra se contenter d’un petit rebond de 0,4 % pour le premier trimestre. En cause évidemment la crise sanitaire et les mesures restrictives mais sans doute aussi des raisons plus structurelles. Globalement la situation de la production notamment manufacturière en recul devient inquiétante.

Sur son niveau de 2019, le PIB  est encore en retard de plus de 6,4 %. En cause notamment la mollesse de la consommation intérieure.

Après le recul de 1,4% du PIB enregistré au dernier trimestre 2020, la reprise de l’économie vient notamment du léger redressement de la consommation des ménages (+0,3%), même si elle est restée fortement contrainte par les restrictions sanitaires (couvre-feu, fermeture des grands centres commerciaux, des restaurants, lieux culturels, etc.). En mars, elle a ainsi de nouveau reculé de 1,1%.

L’activité est surtout tirée par la construction (+4,2%), tandis que la production de biens est repartie à la baisse, notamment dans l’industrie manufacturière. «Le début d’année a été très perturbé, avec des problèmes de fret maritime, les pénuries de matières premières et de semi-conducteurs dans l’automobile», explique Selin Ozyurt.

Globalement, la production totale (services, industrie, construction) se rapproche légèrement de son niveau d’avant crise, avec un écart de -4,3%. Mais les disparités sectorielles demeurent, souligne l’Insee, avec des services marchands, très pénalisés par les restrictions sanitaires, qui restent davantage éloignés de leur niveau d’avant crise.

Alain Minc : pour un actionnariat salarié très limité

Alain Minc : pour un actionnariat salarié très limité

La spécialité d’Alain Minc  c’est de dire un jour une chose, le lendemain le contraire. Forcément une fois sur deux il peut avoir raison. Ainsi concernant la dette il a surpris beaucoup de monde en proposant qu’elle soit illimitée et perpétuelle. Un bon moyen d’assurer un retour financier bancaire permanent et conséquent! Aussi une belle irresponsabilité.

 

Aujourd’hui il dit en partie le contraire en distinguant notamment la bonne et la mauvaise dette. Or le problème central c’est qu’on ne sait pas faire la différence .

 

Concernant la dette et l’endettement de la France, Alain Minc estime «comme Mario Draghi, l’ancien président de la Banque centrale européenne, qu’il y a la bonne et la mauvaise dette. On ne peut pas penser que l’on va durablement payer les frais de fonctionnement de l’Etat, c’est-à-dire les salaires, par endettement. Ça, ça ne peut marcher qu’un temps. Mais il y a une bonne dette. Aujourd’hui, la France s’endette en dessous de 0 euro à dix ans. …. »

 

Évidemment Alain Minc  comme la plupart d’ailleurs des économistes ne dit rien de l’incontournable résurrection de l’inflation le moment venu et de la hausse concomitante des taux d’intérêt.

 

Alain Minc surprend aussi en proposant une dose raisonnable de social-démocratie avec 10 % du capital détenu par les salariés. Peut-être pour s’opposer l’intéressement ou à la participation aujourd’hui complètement enterrés et qui pourtant font les beaux jours de l’économie allemande qui pratique la cogestion et non l’intéressement à dose homéopathique.

 

Quant à la naissance d’un nouveau capitalisme, influencé par le développement durable et la transition écologique, Alain Minc analyse : «Je pense que le grand mouvement de prise en compte de l’écologie par le capitalisme suppose que les capitalistes acceptent une baisse des taux de rentabilité. Vous ne pouvez pas à la fois dire «je vais continuer à donner la même rentabilité à mes actionnaires» et faire de la dépense destinée à réduire votre empreinte carbone. Dès qu’on sera sorti de la crise, ces débats s’ouvriront.»

 

Alain Minc à sur ce point un train de retard. Il y a longtemps que ce débat est ouvert non seulement dans la société bien sûr mais aussi dans la définition des stratégies et des entreprises. Voir à cet égard les virages environnementaux pris par nombre de sociétés. Bref Alain Minc , l’un des sponsors de Macon, devrait se renouveler un peu. Comme Macron d’ailleurs !

« L’écologie et le social s’opposent à une croissance sans limite »

« L’écologie et le social s’opposent à une croissance sans limite »

 

 

 

Un collectif de cent enseignants et chercheurs internationaux signe, dans une tribune au « Monde », un manifeste appelant les pouvoirs publics à soutenir les acteurs de l’économie solidaire, qui assume des finalités sociales, écologiques, culturelles, contre l’augmentation des inégalités et contre le réchauffement climatique.

 

Tribune. Professeurs et chercheurs de différents continents (Afrique, Amérique, Asie, Europe) qui travaillons depuis de nombreuses années avec les acteurs de l’économie solidaire, nous voulons par ce texte interpeller les pouvoirs publics sur le soutien qu’ils peuvent apporter à cette économie émergente.

Celle-ci nous semble en effet à prendre en compte parce qu’elle assume des finalités sociales, écologiques, culturelles, contre l’augmentation des inégalités et pour la justice, contre le réchauffement climatique et pour une répartition équitable des ressources, contre l’uniformisation des comportements et pour l’expression des diversités. En bref, c’est une économie dont nous avons besoin au moment où se manifeste l’épuisement du système dominant.

Une capacité de destruction

La science économique s’est développée à partir d’un socle épistémologique qui néglige les ressources naturelles considérées comme inépuisables et qui sélectionne comme seule motivation l’intérêt matériel individuel. Cette vision a été créatrice de richesses matérielles mais a aussi fait preuve d’une capacité de destruction inédite.

 

Certes, ces effets pervers ont pu être partiellement endigués par l’Etat social dont le bien- fondé a été admis au niveau international en 1944 par la déclaration de Philadelphie. Celle-ci stipulait que le développement économique ne vaut que s’il est au service du développement social ; elle a entraîné la mise en place de formes importantes de redistribution publique. 

Mais le compromis établi entre marché et Etat a été déstabilisé par le consensus de Washington qui, en 1989, a préconisé la réduction du périmètre de l’intervention publique, la déréglementation et la dérégulation.

Depuis lors, la surexploitation de la nature et la montée des inégalités se sont tellement accentuées que la définition même de l’économie héritée du XIXsiècle est désormais en cause. Les désordres qu’elle engendre mettent en évidence son caractère obsolète, dû à l’ignorance de l’écologie et du social inhérente à un objectif de croissance sans limite.

L’avenir du télétravail : limité

L’avenir du télétravail :limité

Bertrand Jacquillat vice-président du Cercle des économistes et senior advisor de J. de Demandolx Gestion estime  dans l’Opinion que le télé travail aura forcément des limites.

 

L’utilisation du télétravail a explosé à la suite de la pandémie de Covid-19 pour les salariés dont la nature de leur travail s’y prêtait. Elle a donné naissance à la fois à un rêve et à un cauchemar. Le cauchemar pour certains, confrontés à la fermeture des lieux de vie et de loisirs que sont notamment les bars, les cafés et les restaurants, et des lieux de production culturelle, mais aussi à la baisse des prix de l’immobilier de bureau et des logements dans les grandes villes à la suite de l’exode de certains de ses habitants. Car c’est le rêve pour d’autres de pouvoir s’installer à la campagne et d’y travailler en conservant la même rémunération, en même temps que de s’occuper de leur jardin, ou pour d’autres d’appeler leurs clients d’une station de ski. Et pour tous d’éviter la perte de temps et la fatigue des trajets journaliers du domicile au lieu de travail.

Pour de nombreux salariés et leurs dirigeants, mais aussi pour les travailleurs indépendants, le lieu de travail n’est plus tant un lieu physique qu’un espace virtuel. Le personnel ainsi déplacé a réussi à faire apparaître comme naturel que le bureau soit installé dans une pièce d’appartement, équipée d’ordinateur portable, de tablette ou de smartphone. Il y a longtemps que l’on rêve de déplacer les villes à la campagne et leur étiolement, voire leur disparition, a souvent été annoncé. La généralisation d’Internet a semblé rendre plausible une telle hypothèse, et le succès du télétravail n’a fait que renforcer cette conviction.

Mais la probabilité que celle-ci se réalise est nulle.

Les travailleurs apprennent davantage dans les villes car ils sont confrontés à d’autres individus plus qualifiés, avec qui ils coopèrent ou sont en concurrence, et qui les tirent vers le haut

Innovation. Force d’abord est de constater que la part de la population mondiale vivant dans les métropoles ne cesse de s’accroître, non sans raison. Outre les nombreux avantages extraprofessionnels que procure la ville, les travailleurs apprennent davantage dans les villes car ils sont confrontés à d’autres individus plus qualifiés, avec qui ils coopèrent ou sont en concurrence, et qui les tirent vers le haut, ce que Zoom ne peut accomplir.

Les entreprises aussi bénéficient de ce phénomène de cluster, quand bien même ce terme a été utilisé pour dénommer aussi un foyer d’infection pandémique. Ainsi, une étude récente a mis en évidence que l’installation d’une nouvelle usine sur un territoire augmentait la productivité des entreprises concurrentes de 12 % dans les cinq ans qui suivaient son installation. Dans le contexte de l’économie de l’innovation, il est convenu que ce qui a fait le succès, d’abord de la route 128 autour du MIT dans le Massachusetts puis de la Silicon Valley autour de San Francisco, ce sont les échanges fréquents entre individus que permet leur proximité et la circulation de l’information qui en résulte.

Ces bénéfices ne concernent pas les seules entreprises du même secteur des semi-conducteurs et des « technos », mais aussi des entreprises d’autres secteurs. Même dans un monde aussi connecté que le nôtre, les percées conceptuelles conduisant aux innovations traversent plus facilement un hall universitaire ou la rue, que les océans ou un continent. Cette intuition a été parfaitement résumée dans le Bûcher des vanités de Tom Wolfe (1983) : « Il y avait toujours un endroit, The wagon wheel, Chez Yvonne, Rickey’s, où les membres de cette fraternité ésotérique, des jeunes hommes et femmes de l’industrie des semi-conducteurs, se réunissaient tous les jours après leur travail pour prendre un verre et fanfaronner sur leurs dernières trouvailles, tout aussi ésotériques les unes que les autres. » Ce phénomène a été illustré en modèle réduit avec la métaphore de la machine à café dans les entreprises autour de laquelle se retrouvent les salariés qui peuvent ainsi échanger sur un tas de sujets, qui ne concernent pas seulement l’exploit réalisé par Rafael Nadal en remportant sa treizième victoire aux Internationaux de tennis de Roland-Garros.

Les gains de productivité et les avantages de rémunération qu’entraîne la ville ne peuvent être reproduits dans des organisations qui fonctionnent par télétravail

Productivité. Certains historiens prétendent que la plupart des innovations majeures se sont produites dans les villes. La concentration des individus, des occupations, des métiers, des entreprises de secteurs industriels divers et variés constitue un environnement propice à la propagation des idées, et donc à l’innovation et à la croissance. C’est ce que montre une récente étude d’Akin, Chen et Popov qui ont réussi à surmonter l’opacité de ces échanges informels entre les individus, due au fait que leur contenu est invisible, même dans une économie de surveillance telle que la Chine, et qu’aucune trace écrite de ces échanges n’est laissée dont le matériau pourrait être utilisé par les chercheurs. Grâce notamment aux données de géolocalisation fournies par leurs smartphones, l’intuition de Tom Wolfe a pu être confirmée. Les rencontres, même fortuites, des salariés dans les cafés situés à proximité de leur lieu de travail avaient pour conséquence une augmentation des brevets déposés par leurs entreprises. A l’inverse, les entreprises de vidéo conférences font tout pour protéger la totale discrétion, voire l’anonymat, des échanges effectués sur leur système.

Ainsi, les gains de productivité et les avantages de rémunération qu’entraîne la ville ne peuvent être reproduits dans des organisations qui fonctionnent par télétravail. En définitive, s’il est un fait bien établi de l’économie urbaine, c’est celui du surcroît de productivité que les villes procurent. Le doublement de la taille d’une ville entraîne une augmentation de la productivité comprise entre 3 % et 8 % selon les pays et la spécialisation sectorielle de leurs villes. Cette plus grande productivité entraîne une hausse des salaires, certes compensée en partie par un coût de la vie plus élevé.

Et pourtant la crise sanitaire du Covid 19 ne semble pas s’être traduite par une baisse de la productivité alors qu’une grande partie des salariés restait confinée chez eux. La ville ne serait-elle alors qu’une collection d’individus qualifiés et les bureaux de l’entreprise qu’un moyen de faciliter leur coordination ? Après tout si les dirigeants et cadres d’une entreprise peuvent se voir, discuter, partager des documents au travers de l’internet, est-il besoin de proximité physique ? La réponse est donc clairement oui. Certes, si la pandémie devait perdurer, le télétravail prendrait durablement de l’importance, et l’attractivité de la ville et la vie urbaine en seraient grandement affectées. Mais une fois la pandémie jugulée, d’une manière ou d’une autre, l’activité urbaine reprendra le dessus, même si le télétravail conserve une certaine place, justifiée par les avantages qu’il procure et que nous avons évoqués, notamment dans des professions et des activités dont l’efficacité ne dépend pas ou peu de l’interaction humaine. Souhaitons donc que l’avenir du télétravail soit limité.

Bertrand Jacquillat est vice-président du Cercle des économistes et senior advisor de J. de Demandolx Gestion

 

 

GAFA : limite et danger d’une régulation « populiste »

GAFA : limite et danger d’une régulation populiste

Aurélien Portuese, Professeur, St Mary’s University London et Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University (*) d’une régulation sous pression populiste des géants du numérique. Une vision évidemment libérale.

 

« Avec trois condamnations cumulant près de 10 milliards d’euros d’amende, Google est le résultat parlant d’une recherche toujours plus poussée des autorités à l’encontre des géants du numérique: après le temps de l’enthousiasme numérique où d’aucuns se félicitaient de la puissance des algorithmes, de l’ampleur de l’innovation digitale, et des services fournis gratuitement – voici venu ce qu’il est convenu d’appeler le « techlash » !

Sanctionnées, vilipendées, et bientôt démantelées? Les géants du numérique font l’objet de nombreuses pressions populaires que nos régulateurs et responsables politiques ont souvent bien du mal à  refreiner. Et pourtant ! L’histoire nous enseigne que la régulation de la concurrence devrait demeurer le domaine de l’expertise et de l’analyse économique plutôt que le domaine de l’opinion publique et l’instrumentalisation politique.

Aux origines populistes du droit de la concurrence

Avec la révolution industrielle que connurent les Etats-Unis dans la seconde moitié du XIXe siècle, l’accumulation de capital dans les villes et l’émergence d’innovations telles que les chemins de fers ont conduit à des révoltes d’agriculteurs qui se sont révélées être politiquement influentes. Par ces révoltes, les agriculteurs ont pu exprimer leurs craintes face à ce qui était considéré alors comme une concurrence déloyale de ces conglomérats industriels – la productivité accrue conduisait également à une déflation des prix au détriment des agriculteurs et des petits commerçants. Ainsi, des plateformes programmatiques ont été élaboré au sortir desquelles, notamment, la lutte contre les monopoles et le contrôle des chemins de fers étaient mêlées à la revendication d’un argent libre pour tous (« Free Coinage of Silver »).

-

 

-

Né aux Etats-Unis avec le Sherman Act de 1890, le droit de la concurrence tire ses origines de multiples mouvements populistes initiés par les agriculteurs – tels que le « Farmers’ Alliance » et le « Grange Movement ». Ces initiatives ont contribué à fonder en 1891 le « People’s Party« , aussi dénommé  « The Populists ». Avant cette législation fédérale, douze Etats (agraires) avaient déjà initié ce type de législation. La  formation d’un « trust » (soit, un cartel) par Rockefeller en 1879, le « Standard Oil Trust » ayant des ramifications sur plusieurs Etats, a convaincu le Congrès d’introduire une législation « anti-trust » au niveau fédéral. Proposée par le républicain John Sherman, cette législation fédérale adoptée en 1890 était destinée à protéger les « petits commerces et les honnêtes hommes», comme l’interprètera en 1897 la Cour Suprême, contre les grandes entreprises et leurs excès.

Il est alors évident que les origines du Sherman Act, et du droit de la concurrence tel qu’il a influencé sa transposition en Europe des décennies plus tard, sont éminemment populistes : une lutte contre les grandes entreprises et une défense des petits commerçants comme choix politiques sans pour autant exiger une démonstration des méfaits économiques à imputer à ces grandes entreprises.

Les dangers d’un populisme dans la concurrence

La concurrence dans la société est souhaitable pour son efficacité économique (des prix bas, des entreprises compétitives et une innovation accrue) et pour le processus qu’elle engendre : un esprit entrepreneurial récompensant les mérites économiques des entreprises florissantes et sanctionnant les entreprises en décalage avec les besoins des consommateurs. Or, cette justification économique n’est pas partagée par la vision populiste de la concurrence. Le populisme dans la  concurrence perçoit le besoin d’organiser le marché par l’Etat afin qu’il y ait un nombre suffisant d’entreprises à tailles égales afin que ces entreprises puissent réellement se concurrencer entre elles : seul un nombre suffisant d’entreprises garantit la déconcentration économique et politique du pouvoir détenu par les entreprises. Cette vision a historiquement conduit non seulement à sanctionner des pratiques efficientes ne créant aucun dommage pour les consommateurs, mais également à démanteler des entreprises pour la seule raison qu’elles avaient acquis une taille trop importante.

Premièrement, des comportements tels que la pratique des prix minimums aux distributeurs, la pratique des restrictions imposés par le fournisseur à ses distributeurs, la fusion entre petites entreprises, la vente à prix bas par des entreprises dominantes…ont été considérés comme illégales car renforçant l’entreprise dominante, sans nécessité de démontrer au préalable que les consommateurs étaient lésés. Deuxièmement, le démantèlement d’entreprises – néanmoins rarissimes dans l’histoire – s’est toujours soldé par des échecs. Il y a trois expériences de démantèlement d’entreprises : Standard Oil en 1911, AT&T en 1984, et Microsoft en 2000. Standard Oil une fois démantelé en 34 entreprises, aucune de ces entreprises n’a pu survivre sans être rachetée (pour donner naissance à des entreprises comme Exxon Mobil, BP PlC, Chevron Corporation…) et aucune baisse de prix n’a été démontrée. Après 10 ans d’investigations et une fois AT&T démantelé en huit entreprises de téléphonie, la baisse des prix a principalement été le fait d’innovations comme l’émergence de la téléphonie sans fil sans pour autant éviter la constitution aujourd’hui d’un duopole entre Verizon et AT&T. Surtout, le réseau physique de téléphonie mobile était considéré comme monopole naturel. Enfin, le régulateur américain a échoué à démanteler Microsoft par un jugement d’appel qui a simplement exigé que Microsoft agisse sans discriminer les concurrents de ses produits Windows. Par conséquent, toute tentative de démanteler les géants du numérique (ou « GAFA » pour Google, Amazon, Facebook et Apple) serait fondée sur des motifs hasardeux, ne saurait être qu’une mesure de dernier recours, et prendrait des années d’investigations pour un échec probable quant aux bienfaits pour les consommateurs et pour l’innovation espérée.

La nécessaire « économisation » de la régulation de la concurrence

Commencé dans les années 70s aux Etats-Unis et dans les années 2000 en Europe, l’approche économique – plutôt que politique voire populiste – de la concurrence a consisté à questionner les interdictions de comportements d’entreprises par le prisme de l’efficacité économique : désormais, seuls seront interdits les comportements qui ne concourent pas à l’efficacité économique du marché. Cette efficacité est alors mesurée par l’accroissement ou pas du bien-être du consommateur par la pratique concernée. A contrario, seront sanctionnés les comportements pour lesquels un dommage aux consommateurs sera démontré (prix élevé ou qualité réduite du fait de cartels ou d’abus de position dominante). Ainsi, les synergies entre entreprises pour des gains d’efficience peuvent désormais être acceptées, les fusions pour une meilleure productivité bénéficiant aux consommateurs sont encouragées, les relations contractuelles entre fournisseurs-distributeurs sont libres dès lors qu’elles ne se font pas au détriment des consommateurs.

L’organisation de nos économies autour de nouveaux « business models », principalement l’économie digitale autour des plateformes, était rendu possible. Ainsi, les stratégies d’intégration verticales des entreprises dans lesquelles des écosystèmes digitaux se créent ont bénéficié de la bienveillance du régulateur.

De même, l’essor de l’économie du gratuit dans laquelle l’utilisateur final ne paie pas le service financé par les publicitaires était rendu tout autant possible par le jeu complexe d’obligations contractuelles réciproques dans lesquelles l’échange de données personnelles a remplacé le paiement d’un prix. Il n’est pas anodin que la grande période d’innovation digitale, à savoir 1995-2015, s’est accompagnée – si ce n’est a été facilitée – par une économie de la concurrence à la fois aux Etats-Unis et en Europe où seuls les dommages prouvés aux consommateurs étaient sanctionnés et où le pouvoir de marché était perçu comme la condition sine qua non à l’émergence de ces plateformes de réseaux.

Inquiets de la taille de certaines entreprises du numérique et invoquant l’héritage populiste du Sherman Act, certains auteurs appellent désormais à revenir entièrement sur l’économisation de la régulation de la concurrence qui a émergé depuis les années 70s. Se revendiquant explicitement comme étant populistes, ces auteurs appellent à démanteler les GAFA. Ces appels au démantèlement de Google, Facebook, Amazon ou encore Apple interviennent non pas après avoir démontré l’inefficacité de sanctions potentielles ni même après avoir démontré  la réalité de dommages aux consommateurs, mais seulement comme volonté de faire émerger des plus petites entreprises digitales afin que le pouvoir économique et politique soit déconcentré : dans la lignée de l’historique populiste de la défense des petits entrepreneurs, ce populisme moderne auto-proclamé comme « Antimonopoly Movement » entend restructurer les marchés conformément à une démocratie dite « économique » et à un objectif d’intérêt général plus ambigu que la stricte défense du bien-être des consommateurs.

Avec leurs profitabilité et leurs capitalisations importantes, les géants du numérique sont les Standard Oil du XXIe siècle : des cibles de choix pour dénoncer la concentration économique et politique des pouvoirs et défendre ainsi les entreprises potentiellement empêchées de se développer en raison de la taille des géants du numérique. Avec cette analyse dans la lignée de l’héritage populiste du Sherman Act, et sans même démontrer le pouvoir de marché, l’absence d’innovation et/ou la qualité décrue des services offerts (souvent gratuitement), cette école de pensée néo-populiste s’attire néanmoins les faveurs à la fois de l’opinion publique et de responsables politiques en mal d’élaborer un programme économique populaire.

Aux mêmes causes, les mêmes conséquences : l’abandon d’une jurisprudence ayant conduit à interdire des comportements pourtant bénéfiques pour les consommateurs a été l’aboutissement de longues années de débats académiques ayant fini par convaincre de démontrer les erreurs commises dans le passé. Ainsi, revenir sur l’ « économisation » de la concurrence à la faveur d’une vision plus politique de la concurrence reviendrait à commettre les mêmes erreurs du passé – au détriment des consommateurs qui en paieraient les coûts indus. La passion populiste, quoique séduisante et engageante, ne saurait prévaloir sur une analyse raisonnée, experte et détachée, de l’économie de la concurrence.

« C’est une erreur de croire que la passion, quand elle est heureuse et pure, conduit l’homme à un état de perfection ; elle le conduit simplement à un état d’oubli » avançait Victor Hugo.

Cette passion populiste nous conduit à l’oubli – l’oubli des erreurs du passé et l’attrait pour des solutions éprouvées.

Résister à l’appel du pied d’un populisme dans la concurrence, c’est résister à toute forme de populisme dans la société – où la réflexion médiate est souvent plus juste que l’intuition immédiate, où l’expertise n’est pas sacrifiée sur l’autel du ressenti majoritaire, où l’économie revêt les attributs d’une science plutôt que les traits de la méfiance.

Résister en Europe à la vision populiste à l’endroit des géants du numérique, c’est aussi encourager l’émergence en Europe même d’entreprises digitales capables d’évoluer et de les concurrencer. Voilà un objectif de politique économique enthousiasmant loin de l’instrumentalisation politique d’une concurrence dévoyée !

(*) Par Aurélien Portuese, Professeur, St Mary’s University London ; Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University ; Chercheur affilié à l’Université Catholique de Paris. Cet article fait écho à la publication académique co-écrite avec Pr. Joshua Wright « Antitrust Populism : Towards a Taxonomy » publié au Stanford Journal of Law, Business & Finance (Mars 2020) et nominé pour un Prix chez Concurrences. Aurélien Portuese a également bénéficié d’un financement de l’Académie libre des sciences humaines.

Fed : pas de limite au rachat d’obligations

Fed : pas de limite au rachat d’obligations

 

Face à la crise sanitaire qui se développe aux États-Unis et à une économie qui peine ( comme en témoigne notamment la destruction d’emplois) la banque fédérale américaine veut sans doute rassurer. Elle indique qu’elle peut en réalité être encore davantage accommodante. En clair,  faire encore davantage tourner la machine à billets.

“Nous avons mis en place beaucoup de mesures d’adaptation ; il y a plus que nous pouvons faire, il y a plus que nous allons faire”, a-t-il déclaré à CNN International.

Si les signes d’un rebond économique en mai et juin sont “extrêmement bienvenus”, la Fed suit de près l’évolution de l’épidémie de coronavirus car elle déterminera la trajectoire de l’économie, a ajouté Richard Clarida.

Il y a surtout cette promesse que la banque fédérale américaine ne définira aucune limite sur la quantité d’obligations qu’elle peut acheter et que donc les mesures de soutien notamment via les prêts encore prendre une dimension plus importante

« convention citoyenne: un effet limité pour le climat»

« convention citoyenne: un effet limité pour  le climat»

François Gemenne, Chercheur en sciences politiques, estime  dans le Monde que les avancées dans la lutte contre le réchauffement climatique de la convention citoyenne restent limitées. Et pour cause elles ne font que reprendre les orientations d’ailleurs souvent contradictoires du gouvernement, n’imposent réellement rien et surtout ne prévoit pas les moyens ,surtout les financements, pour favoriser la transition écologique.

Tribune. La convention citoyenne pour le climat s’est achevée le 21 juin dans un climat de satisfaction générale : satisfaction des participants, qui ont voté à la quasi-unanimité le rapport final ; satisfaction des organisateurs, qui ont fait la démonstration de la possibilité d’un tel exercice de démocratie participative ; satisfaction du gouvernement enfin : la ministre de la transition écologique et solidaire, Elisabeth Borne, à qui ont été remises les conclusions, a estimé que celles-ci allaient « dans la direction des grandes orientations prises depuis le début du quinquennat ».

Au lendemain de la vague verte des élections municipales, Emmanuel Macron a reçu, lundi 29 juin, les 150 citoyens tirés au sort et les a chaleureusement félicités pour leur travail. Sans doute s’en est-il aussi félicité, par la même occasion, puisqu’il a avalisé 146 des 149 mesures proposées. Et a promis l’organisation d’autres conventions citoyennes, sur d’autres sujets.

Quel bilan tirer de ces neuf mois de travail ? Il est contrasté, selon qu’on regarde le verre du côté de la démocratie participative ou du côté des avancées pour le climat. Du point de vue de la démocratie participative, le bilan de la convention citoyenne est indéniablement un succès. L’exercice a véritablement constitué une démonstration d’intelligence collective sur un sujet complexe. Il faudrait être un esprit grincheux pour ne pas reconnaître cette réussite. Mais celle-ci soulève aussi un grand nombre de questions.

Tout d’abord, dans quelle mesure ces 150 citoyens tirés au sort sont-ils toujours, à l’issue de l’exercice, représentatifs de la population française ? Pendant des mois, les citoyens ont auditionné militants, politiques et experts, et l’exercice les a souvent transformés en fervents défenseurs du climat. A quelques exceptions près, la plupart des mesures proposées, y compris les plus radicales, ont été votées à une large majorité. Bien sûr, quelques rares mesures ont été rejetées, bien sûr, quelques opinions minoritaires ont été exprimées, mais, globalement, peu de lignes de fracture ont émergé, sur des sujets pourtant controversés dans la population.

Pourquoi a-t-on toujours parlé des « 150 », et jamais des « 87 pour et 63 contre », par exemple ? Sans doute l’effet de groupe a-t-il joué à plein, renforcé par des projets artistiques comme les portraits géants de JR ou le projet de documentaire de Yann Arthus-Bertrand, Les 150. Surtout, je crois que la délibération collective, encadrée et façonnée par des experts, a fait naître un consensus qui, à l’évidence, n’existe pas dans la société française. En témoignent les réactions violentes suscitées par certaines propositions, celle concernant la limitation de vitesse sur les autoroutes notamment. »

 

Sondage vitesse limite: 110 km/h: 75% contre

Sondage vitesse limite: 110 km/h: 75% contre

Selon une étude menée auprès d’un millier de Français les 24 et 25 juin par Odoxa pour Le Figaro et France Info la limitation de vitesse à 110 km/h sur autoroute proposée par la Convention citoyenne pour le climat est massivement rejetée (74%) par les Français. Le rejet est le même, si ce n’est pire, que celui enregistré il y a deux ans lors de l’annonce du passage à 80 km/h sur les routes nationales, prélude au mouvement des Gilets jaunes.

Inflammable donc pour l’exécutif, cette proposition a été défendue ces derniers jours par plusieurs ministres, dont Élisabeth Borne, la ministre de la Transition écologique et solidaire, qui s’y est par exemple dite favorable «à titre personnel» sur BFMTV, ou encore l’eurodéputé écologiste Yannick Jadot. Pourtant, même les sympathisants d’EELV ne sont que 47% à y être favorables. Le but principal de cette mesure – faire baisser la pollution émise par les voitures – n’est pas non plus jugé crédible : 55% des Français pensent qu’abaisser la vitesse de 20 km/h ne permettra pas de l’atteindre.

Sur le reste, les 150 citoyens tirés au sort pour composer la Convention peuvent se réjouir : les Français sont largement en faveur de leurs propositions. Rénovation énergétique obligatoire des bâtiments, révision de la Constitution pour y intégrer la préservation de l’environnement, et même la création d’un crime «d’écocide» remportent leur adhésion. Il faut préciser tout de même qu’environ 4 Français sur 10 n’ont pas entendu parler de la Convention. Les autres pensent globalement que si ces propositions étaient mises en place, elles seraient efficaces et réalistes.

Seul hic : les Français interrogés sont très sceptiques quant à l’avenir de ces propositions. Près de 73% d’entre eux pensent que seule une petite partie des propositions sera appliquée par Emmanuel Macron et le gouvernement. En conséquence, ils sont très majoritaires (81%) à vouloir que les principales mesures proposées par la Convention soient soumises à un référendum.

 

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol