Archive pour le Tag 'enjeu'

Réguler les plates-formes: Un enjeu démocratique

Réguler les plates-formes: Un enjeu démocratique 

Réguler le contenu des réseaux sociaux doit moins passer par la contrainte que par la préservation des droits individuels face aux géants du Web, estime le juriste Winston Maxwell dans une tribune au « Monde ».

 

Tribune.

La haine en ligne, mais aussi les contenus illicites de toute nature et les infox préoccupent les régulateurs du monde entier. Selon un récent rapport de la Commission européenne, un tiers des contenus haineux en ligne signalés ne sont pas supprimés par les réseaux sociaux. Ces réseaux sont quotidiennement mis en cause, soit parce qu’ils ne font pas assez pour maîtriser la viralité des contenus préjudiciables, soit parce qu’ils en font trop, en éliminant certains contenus et utilisateurs sans autre forme de procès. Certains comparent Facebook, avec sa « Cour suprême » privée, à un Etat souverain. Les grandes plates-formes ont un rôle structurant dans notre débat public et sont devenues, comme la radio et la télévision, des médias ayant une forte influence sur la société. Il ne s’agit pas, bien sûr, de réguler ces réseaux comme la télévision, car le rôle des réseaux sociaux est différent, et une régulation trop stricte créerait une ingérence intolérable dans la liberté d’expression. Mais le besoin d’un encadrement réglementaire est devenu flagrant, sur deux fronts.

 

Le premier front consiste à inciter les réseaux sociaux à trouver des solutions, notamment algorithmiques, pour réduire la présence et la viralité de contenus haineux. Le projet de règlement européen Digital Services Act, actuellement en négociation à Bruxelles, obligerait les plates-formes à effectuer un diagnostic interne sur les risques systémiques créés par leurs services et à proposer des solutions pour réduire ces risques. Devançant le règlement européen, la loi française du 24 août 2021 impose aux réseaux sociaux de mettre en place des mesures techniques et organisationnelles permettant de fluidifier le traitement des signalements, sous le contrôle du Conseil supérieur de l’audiovisuel (CSA). En matière de régulation des contenus, l’Etat doit rester le plus neutre possible, afin de minimiser l’impact sur la liberté d’expression.

Dans les années 1990, on croyait que la multiplication des points de vue sur Internet était la meilleure garantie d’une liberté d’expression saine (la théorie du « marketplace of ideas »). La législation américaine (Communications Decency Act, adopté en 1996) et européenne (directive « Commerce électronique », en 2000) est construite sur cette théorie de laisser faire. Aujourd’hui, nous nous rendons compte que la quantité des points de vue n’est pas une garantie suffisante, car sans un minimum d’encadrement, cette abondance peut conduire à des dérives mettant en péril l’objectif même de la liberté d’expression, à savoir la préservation du débat démocratique. D’où la nécessité de redonner vie à la régulation audiovisuelle, et en France au rôle du CSA, pour réguler les réseaux sociaux en tant que médias à forte influence, tout en s’efforçant de préserver l’espace de liberté inédit créé par ces plates-formes.

Lanceur d’alerte : enjeu démocratique

Lanceur d’alerte : enjeu démocratique

 

La loi Sapin 2 est insuffisante et la France doit se doter d’une législation plus complète et plus étendue, d’après ,un collectif de représentants d’ONG et de syndicalistes dans une tribune au « Monde »

 

Tribune.

 

Plus que jamais, l’actualité démontre à quel point les lanceurs d’alerte sont indispensables au bon fonctionnement de la démocratie. Des révélations de Frances Haugen sur la manière dont Facebook privilégie le profit au détriment de la sécurité de ses utilisateurs, aux « Pandora Papers » qui jettent à nouveau une lumière crue sur la fraude fiscale, il ne se passe pas un seul jour sans que l’importance de ces vigies ne soit rappelée.

Sans ces révélations, nombre de scandales financiers, sanitaires ou environnementaux resteraient inconnus du grand public, et les auteurs de ces méfaits, impunis. Pourtant, ces simples citoyennes et citoyens qui se dressent pour protéger l’intérêt général et le bien-être de chacun restent bien mal lotis. Intimidations, licenciement, mise au placard, menaces… restent le lot quotidien de ces hommes et femmes : il est donc urgent d’améliorer leur protection.

C’est pour cette raison que, en 2017, la France s’est dotée d’une loi générale de protection des lanceurs d’alerte, la loi Sapin 2. Cette loi, si elle a marqué un premier pas vers un statut du lanceur d’alerte, est insuffisante. La directive européenne de 2019 vient pallier certaines de ses défaillances, notamment en écartant l’obligation d’une alerte interne préalable qui amenait trop souvent les lanceurs d’alerte à se mettre en danger. Mais cette directive à elle seule ne comblera pas toutes les lacunes de notre législation.

Il n’est plus possible de se contenter de mots ou de se cantonner à des effets de manche. Les pouvoirs publics doivent agir et vite. Pour que les faits répréhensibles dénoncés cessent, et pour que les lanceurs d’alerte ne soient pas exposés à des risques de représailles, le Parlement et le gouvernement doivent être les moteurs d’une transformation profonde de la culture de l’alerte au bénéfice de toutes et tous. La transposition de la directive est une occasion immanquable !

C’est à cette fin que notre coalition d’associations et de syndicats a publié douze propositions concrètes dont plusieurs ont été reprises par le député Sylvain Waserman : renforcement du rôle du Défenseur des droits en matière d’accompagnement, mise en place d’une véritable immunité pénale incluant les actes nécessaires à l’obtention des informations, obligation pour les autorités de déployer une aide financière et psychologique…

Ses deux propositions de loi doivent être défendues aussi bien par les parlementaires, qui doivent les adopter dans les meilleurs délais – car le temps presse ! –, que par le gouvernement qui doit affirmer publiquement son soutien et montrer, à la veille de la présidence française du Conseil de l’Union européenne (UE), qu’une transposition ambitieuse de la directive est possible, et dans le délai imparti, soit avant le 17 décembre 2021.

Le plan de relance européen : Enjeu

Le plan de relance européen : Enjeu

Pour dépasser les débats stériles entre comptables souverainistes et prophètes macronistes, Yves Bertoncini, spécialiste des questions européennes explique, dans une tribune au « Monde », qu’il faut tenir compte des dimensions économiques, financières et fiscales du plan de relance européen pour en saisir la portée et les enjeux politiques.

 

Tribune. 

Le plan de relance pour l’Europe (baptisé « Next Generation EU ») a pu être adopté en juillet 2021, fût-ce dans la douleur, car les vingt-sept Etats-membres de l’Union européenne (UE) ont tous considéré qu’il était dans leur intérêt que des aides financées par un emprunt commun puissent être versées afin d’endiguer la crise liée au coronavirus.

Il s’est agi alors d’envoyer un signal macroéconomique aux Etats, à travers une contribution exceptionnelle équivalant à environ 1 % du produit intérieur brut (PIB) de l’UE sur trois ans, et qui complète les interventions de la Banque centrale européenne (BCE) et d’autres subsides communautaires et nationaux. Tout comme il s’est agi d’adresser un signal de solidarité politique aux citoyens et aux investisseurs, faisant écho à la volonté des Européens de préserver la cohésion de l’UE, le « marché intérieur », en prenant à nouveau acte de leur interdépendance économique.

Cette interdépendance explique pourquoi les bénéfices du plan de relance européen doivent être évalués sur une base transnationale, et pas seulement au regard de l’aide obtenue par tel ou tel pays (40 milliards d’euros pour la France). Si des partenaires aussi importants que l’Italie et l’Espagne n’avaient pas eu l’assurance de recevoir une aide massive de l’UE, leur déconfiture économique et financière aurait en effet eu des conséquences très négatives en France, au-delà des considérations purement comptables et boutiquières.

Il est loisible de souligner que la France aurait pu s’endetter seule, sans doute à un coût un peu inférieur – même si cela aurait pesé sur son endettement public, qui se rapproche désormais des 120 % du PIB… Mais on ne saurait oublier que notre voisin italien, encore plus lourdement endetté, aurait eu bien d’avantage de difficultés à se financer sur les marchés – d’où l’apport précieux de « Next Generation EU » au-delà des Alpes et, par ricochet, de ce côté-ci aussi.

La solidarité financière incarnée par « Next Generation EU » a aussi une dimension temporelle : si l’ensemble des subventions et des prêts prévus (qui pourront aller jusqu’à 750 milliards d’euros) ont vocation à être décaissés pour accompagner la sortie de crise, entre 2021 et 2023, leur remboursement sera lui étalé sur une trentaine d’années, jusqu’en… 2058.

Ce décalage temporel est lui aussi constitutif d’un apport financier immédiat et bienvenu, en une période particulièrement critique : la France recevra ainsi 40 milliards en trois ans, alors qu’elle n’aura à contribuer qu’à moyen et long terme au remboursement de l’emprunt ayant permis le lancement du plan de relance de l’UE.

 

La monnaie : aussi un enjeu civique

La monnaie : aussi un enjeu civique

 

 

 

Par Patrice Baubeau, Université Paris Nanterre – Université Paris Lumières (*)

Un petit détour par l’histoire permet de replacer dans un cadre plus large la question des trois fonctions de la monnaie identifiées traditionnellement : étalon des valeurs, intermédiaire des échanges et réserve de valeur. Cette mise en perspective révèle ainsi une quatrième fonction fondamentale, l’identification, qui dénote l’origine commune, politique et sociale, du fait monétaire.

Les outils monétaires émergents, cryptomonnaies du type bitcoin, cryptomonnaies d’État, ou encore monnaies virtuelles utilisées dans les jeux vidéo, donnent un poids particulier à cette fonction d’identification et aux conséquences politiques et sociales qui y sont attachées.

La question de l’identification apparaît au côté des analyses de la monnaie par Aristote, dans Le Politique et L’Éthique à Nicomaque, ouvrages qui portent principalement sur la Cité, ses limites, son organisation, sa justice. Il développe ainsi, à la suite de Platon, une réflexion politique et citoyenne qui associe les limites de la Cité avec la naissance de la monnaie, dont l’usage dévoyé peut entrer en conflit avec les règles de la Cité idéale : en faisant primer le gain du commerce extérieur sur la solidarité des échanges intérieurs ; la valeur d’échange sur la valeur d’usage ; l’espace infini des désirs et des spéculations sur le domaine limité des besoins.

Bref une telle monnaie, dégagée de ses enjeux civiques, tend à devenir sa propre fin, alimentant inégalités et discordes au sein de la Cité. C’est pourquoi la monnaie, objet politique, est également un marqueur de citoyenneté : son usage insère l’usager dans une communauté politique, sociale et éthique et l’y identifie.

Cette fonction d’identification de la monnaie n’est pas demeurée l’apanage des Cités grecques : un caractère constant des monnaies est le souci des émetteurs – à moins qu’ils ne soient contrefacteurs – d’identifier leur origine, le plus souvent territoriale ou politique par des marques indiquant le lieu de production, l’émetteur ou la date.

La multiplication, depuis les années 1970, des monnaies sociales et complémentaires correspond d’ailleurs le plus souvent à un projet « territorial » consistant à constituer un espace monétaire solidaire et de petite taille. Ce faisant, l’usage de la monnaie peut devenir non seulement militant (économie durable, alternative, écologique…) mais appuyer ou manifester une identité – c’est notamment le cas de l’eusko basque.

Le cash n’est pas synonyme d’anonymat

Or cette quatrième fonction, cette fonction d’identification, est largement négligée en économie – les historiens et plus spécialement les numismates y sont au contraire très attentifs. Pourtant, sa prise en compte entraîne deux apports importants.

En premier lieu, elle renverse la perspective usuelle sur l’anonymat. L’anonymat n’apparaît plus comme une propriété du cash, mais devient l’une des modalités de l’identification par la monnaie, ce qui permet d’ailleurs une approche beaucoup plus graduée.

En effet, comme nous l’avions écrit dans un article de recherche en 2016, il n’y a pas « un » anonymat : l’anonymat est toujours, en fait, un anonymat à l’égard d’une personne ou d’une institution. Il est donc susceptible de configurations variées, lesquelles s’inscrivent, de ce fait, dans une fonction générale d’identification.

Ainsi, le paiement habituel en espèces auprès d’un commerçant que l’on connaît n’entraîne bien évidemment aucun anonymat du payeur à l’égard dudit commerçant. En revanche, il garantit l’anonymat des clients du commerçant à l’égard de son banquier ou de son percepteur.

De même, l’usage d’une carte de paiement sans contact aboutit à un anonymat presque entier du client envers le commerçant, le reçu de paiement ne comprenant aucun élément d’identité exploitable, mais identifie précisément le client auprès de la banque émettrice de la carte de paiement ou de celle tenant les comptes du commerçant.

De manière générale, un processus de « nationalisation » de la monnaie a fait progressivement coïncider les limites de l’État moderne et celles des espaces monétaires dont ces États sont devenus les maîtres.

Parallèlement, l’État assume une autre fonction cruciale pour le bon fonctionnement de la vie civique et sociale, au-delà des seuls systèmes de paiement : l’identification des personnes. Cette fonction s’est considérablement étoffée depuis le XIXe siècle avec le développement des diverses formes d’état civil et de sécurité sociale ainsi que l’essor du vote personnel.

En conséquence, dans un État de droit, non seulement les individus ont un droit à l’identité que l’État ne peut leur dénier, mais les modalités de l’identification relèvent du domaine de la loi, avec les garanties juridiques qui l’entourent.

Les innovations monétaires changent la donne

Aujourd’hui, les nouveautés monétaires viennent rappeler l’importance de cette quatrième fonction d’identification. Un premier modèle, déjà ancien, a consisté à délimiter des espaces virtuels au sein desquels des formes monétaires spécifiques sont employées : les plates-formes de « jeu » massivement multijoueurs prévoient généralement des techniques d’accumulation de symboles de richesse en vue d’attacher des objets, des services ou des compétences aux avatars.

Déjà, dans ce cas, l’étanchéité entre virtuel et réel est imparfaite, puisque des « fermes » de joueurs se sont développées en vue d’acquérir dans l’univers virtuel des objets ou des capacités ensuite revendues en monnaie réelle aux joueurs désireux de performance. Cela revient en quelque sorte à échanger, via des biens et services virtuels, une monnaie virtuelle contre une monnaie réelle.

Dans ce contexte, l’identification se déroule au sein de l’univers clos de la plate-forme considérée, puisque les « identités » des avatars sont entièrement contrôlées par le prestataire. Celui-ci détermine aussi les conditions d’émission et d’usage de « sa » monnaie. On retrouve, mais limité à un univers fermé et virtuel, le modèle de contrôle de la monnaie et des identités que réalisent les États territoriaux.

Le second modèle, beaucoup plus récent, découle de l’innovation représentée par la blockchain. Cette dernière inclut en son sein un dispositif d’identification qui permet de valider la transaction entre un vendeur et un acheteur et qui met l’enregistrement de cette validation à la disposition des autres participants au système de paiement.

D’un côté, l’identification des transactions rend indispensable l’identification des utilisateurs qui effectuent des échanges. Mais de l’autre, cette identité correspond à celle qui est déclarée au sein de l’espace monétaire virtuel, et non pas à une identité telle qu’elle est reconnue par un État. D’ailleurs, rien n’empêche un agent économique de se créer un avatar différent pour chacune des cryptomonnaies existantes, voire d’y associer des adresses IP (celles qui caractérisent les machines qui accèdent à Internet) différentes. Ce n’est pas un hasard si le bitcoin est rapidement devenu la devise préférée des cybercriminels

C’est ici que le projet de monnaie virtuelle diem (ex-libra) de Facebook prend tout son sens. Les usagers y ont une identité, garantie par la plate-forme et à laquelle, de plus en plus, des droits et des devoirs sont attachés, qui portent sur la liberté d’expression, l’intégrité du « profil », et même le destin post-mortem des comptes.

Facebook est donc en mesure d’identifier, très précisément, ses usagers. C’est d’ailleurs le cœur de son business model : vendre les caractéristiques individuelles de ces profils. Si une monnaie propre, ou presque, telle que le diem, est associée à l’écosystème Facebook, l’entreprise ou, plus sûrement, la constellation d’intérêts lucratifs dont Facebook est le cœur, sera en mesure de gérer simultanément des actifs monétaires propres et les preuves d’identité afférentes à leur usage.

 


La gestion de la monnaie par les États peut également conduire à des catastrophes telles que l’épisode hyperinflationniste allemand au début des années 1920. WikimediaCC BY-SA

Or, laisser la monnaie dans des mains entièrement privées n’est pas toujours une bonne idée, même si la gestion de la monnaie par les États a également abouti à des catastrophes, à l’image des épisodes hyperinflationnistes en Allemagne en 1923, en Hongrie en 1946 ou au Zimbabwe depuis l’an 2000. Laisser l’identification des êtres humains dans les mains privées est encore pire : que devient un être humain dont la seule preuve d’existence est un acte privé, éventuellement cessible et dont les tiers ne peuvent prendre connaissance ?

Ainsi, abandonner au plus offrant ces deux éléments clés de la construction de la Cité antique ou de l’État moderne que sont la monnaie et l’identité annonce le pire des mondes.

Des solutions existent, anciennes ou nouvelles. Les monnaies digitales de banque centrale (CBDC), à l’essai en Asie ou en Europe, en témoignent. Elles limitent le risque d’entraîner la substitution d’une forme lucrative d’identité à la forme civique dont nos droits dépendent, en soumettant le paiement à l’identification plutôt que l’inverse.

Dans un monde où l’émission d’actifs monétaires, la création d’identités et la gestion des profils correspondants ne sont plus du seul ressort des États, il devient en effet urgent de réfléchir à l’articulation de ces différentes dimensions afin de conserver les bénéfices des innovations suscitées par l’essor d’Internet sans y perdre nos droits, nos biens et nos êtres. Et donc de prendre en compte la quatrième fonction de la monnaie : l’identification.

_______

(*) Par Patrice Baubeau, Maître de conférence HDR, Histoire, histoire économique, Université Paris Nanterre – Université Paris Lumières.

Climat–Taxe carbone: « enjeu contre le réchauffement »

Climat–Taxe carbone: « enjeu contre le réchauffement »

 

 Ruth Guerra et Stéphane Chasseloup, associés du cabinet KPMG Avocats abordent l’enjeu de la taxe carbone vis-à-vis du climat dans une interview à l’Opinion.

 

Que prévoit le projet de la Commission européenne ?

Ruth Guerra : C’est une première, le « paquet » de 12 mesures qui sera présenté le 14 juillet donne une vision transverse pour atteindre les objectifs européens de réduction d’émissions de CO2. Il concerne aussi bien les transports et les énergies renouvelables, que la performance énergétique des bâtiments, l’instauration d’un mécanisme carbone aux frontières (CBAM), ou la réforme de la directive sur la taxation de l’énergie… Tout est remis à plat pour permettre d’atteindre la neutralité climatique en 2050, en mettant l’Union sur la voie d’une réduction d’au moins 55 % de ses émissions nettes de CO2 d’ici à 2030.

Quel est l’intérêt du mécanisme carbone aux frontières, une taxe qui ne dit pas son nom ?

Stéphane Chasseloup : La finalité de ce mécanisme est de lutter contre le risque de délocalisation d’industriels, tentés d’échapper au coût de la pollution carbone. Pour lutter contre le réchauffement climatique, peu importe le lieu de production, il faut qu’un produit polluant supporte une taxe ou un coût équivalent à ses émissions de CO2. Cela revient à taxer également ce qui l’est déjà dans l’Union européenne (UE) et ce qui est produit hors de l’UE. Pour être certain d’être conforme à la réglementation de l’Organisation mondiale du commerce (OMC), l’idée est de répliquer, en miroir, l’actuel système européen d’échange de quotas d’émissions de gaz à effet de serre (ETS).

C’est-à-dire ?

S. C. : Sur le papier, le mécanisme est assez simple : je suis importateur d’acier, par exemple. Je fixe le volume que je compte importer sur un an, ce qui va déterminer le nombre de certificats CBAM qui régleront la quantité de CO2 émise lors de la production du produit importé. Le 31 mai de l’année suivante, je fais le bilan. Si j’ai importé davantage que prévu, j’achète plus de certificats. Dans le cas contraire, je revends des certificats sur le marché, comme c’est le cas aujourd’hui. A ce stade, les secteurs ciblés sont le ciment, l’acier, l’aluminium, les engrais et l’électricité, mais on comprend que cela évoluera dans le temps. L’importateur sera doté d’un numéro auprès d’une autorité CBAM, qui n’existe pas encore, à reporter sur sa déclaration d’importation.

Mais qui évaluera le volume de CO2 contenu dans un produit importé ?

R. G. : Le projet prévoit que l’importateur, sur la base des informations fournies par le fournisseur, calcule son impact carbone. C’est très compliqué. Il prévoit aussi la possibilité qu’un « vérificateur indépendant » aille auditer et attester la réalité des émissions des entreprises étrangères. Personne n’arrive à imaginer que ce système puisse fonctionner d’un point de vue pratique. La troisième option, c’est la valeur par défaut, fondée sur les 10 % des producteurs les plus polluants dans l’UE, par catégorie de marchandises.

Comment s’assurer que ce dispositif ne sera pas considéré comme discriminatoire au regard des règles de l’OMC ?

S. C. : L’Etat français a été le premier à affirmer qu’il n’y avait pas de sujet sur ce point. Or, il y en a un, ce sont les quotas gratuits. Pour éviter la fuite d’entreprises lorsque le coût du carbone communautaire grimpe au-dessus de ce qui se pratique ailleurs, on a octroyé des quotas d’émission gratuits à certains opérateurs. Mais si l’Europe commence à taxer le CO2 aux frontières, il faut traiter équitablement les membres de l’UE et les autres pays. S’il y a des quotas gratuits dans l’UE, il en faut aussi à l’entrée. Du coup, l’idée est de supprimer progressivement les quotas gratuits. Mais bien sûr, ceux qui y sont aujourd’hui éligibles protestent bruyamment. Bruxelles vient de les renouveler jusqu’en 2030, et les pays extérieurs à l’UE préviennent qu’ils attaqueront le CBAM s’il est considéré comme une barrière à l’entrée…

Combien est censé rapporter ce dispositif ? Et à quelle échéance ?

R. G. : Entre 5 et 14 milliards d’euros, ce qui démontre qu’il est difficile d’identifier le coût carbone de ce qu’on importe. L’objectif n’est de toute façon pas à finalité budgétaire. L’ambition est de créer des « vocations », de susciter des accords bilatéraux avec les Etats-Unis, la Chine et beaucoup d’autres zones géographiques. Si tout le monde s’engage sur une fiscalité carbone, il n’y aura plus besoin de mécanisme aux frontières et cela évitera toute distorsion de concurrence. On sent la volonté politique de l’Europe d’être pionnière sur le sujet, et fer de lance d’un dispositif plus mondial.

S. C. : Concernant le calendrier, le texte doit en principe être voté en 2023 pour une entrée en vigueur à partir de 2026, avec une période transitoire jusqu’en 2030, voire 2036. Il faut créer les mécanismes en droit interne, revoir les systèmes de contrôle douanier, mettre sur pied une autorité CBAM… La montée en puissance du système sera concomitante à la suppression des quotas gratuits. Mais il faut que les industriels prennent en compte dès maintenant la composante environnementale de la production hors UE.

L’autre gros sujet, c’est la révision de la directive sur la taxation de l’énergie. Quel est l’enjeu ?

R. G. : Aujourd’hui, la fiscalité de l’énergie est une fiscalité de rendement. Le projet d’augmentation de la taxe carbone en France en 2019 consistait en une majoration des différentes taxes existantes (TICGN, TICPE…), qui a mené aux Gilets jaunes. La nouvelle directive prévoit que la fiscalité énergétique soit corrélée à la part carbone de l’énergie utilisée. Plus une énergie est carbonée, plus elle sera taxée. Cela devrait bouleverser les étiquettes. Compte tenu de leurs émissions de CO2, le taux minimum de taxation sur le gaz naturel, les fiouls lourds et les énergies fossiles devrait augmenter. Mais ce sera une fiscalité beaucoup plus cohérente avec les objectifs de neutralité carbone de l’Europe.

Ce sera donc politiquement plus « vendable » ?

S. C. : L’engagement politique est plus fort aujourd’hui sur ce sujet. La Commission espérait que la révision soit adoptée avant la fin de l’année, mais les débats continueront vraisemblablement jusqu’à la présidence française de l’UE l’an prochain. La portée de cette directive dépendra ensuite de sa transposition en droit national, ce qui est toujours très complexe quand on regarde les arrêts de la Cour de Justice… Le texte vise en tout cas à harmoniser au niveau européen les taux planchers de taxation, ainsi que les exonérations obligatoires et facultatives.

La fiscalité est un chemin inévitable dans la lutte contre le réchauffement climatique ?

R. G. : C’est un passage obligatoire. Mais cela implique que des procédés de production industrielle mis en œuvre actuellement soient revus en profondeur. Le sujet de la fiscalité énergétique est d’une grande complexité car il nécessite une vision transverse des concepts fiscaux et issus du droit de l’énergie et de l’environnement.

Données personnelles, un enjeu de souveraineté.

Données personnelles, un enjeu de souveraineté. 

L’enjeu des données qui transitent chaque jour vers les Etats-Unis et la Chine au détriment de l’Europe est infiniment plus grand que la production de masques en tissu sur le territoire national », mettent en garde Robin Reda et Jean-François Husson  , le député de l’Essonne et le sénateur de Meurthe-et-Moselle

Tribune dans l’Opinion

Chaque jour, 80% des données émises par les Français sur les plateformes numériques, sur nos smartphones, ou par nos objets connectés sont captées par les Etats-Unis et la Chine parce que les logiciels source y sont résidents. A l’heure où le gouvernement s’interroge sur le tracking des malades infectés du Covid-19 par le biais d’une application smartphone, il y a fort à parier que les géants du web étrangers sont déjà capables d’établir une cartographie de l’épidémie en Europe à partir de nos conversations personnelles sur les réseaux sociaux, de rendez-vous médicaux conclus sur les applications médicales ou des écarts au confinement à domicile qui échappent aux autorités mais dont le trajet reste en mémoire dans les serveurs de Waze.

Si les données personnelles renseignent par définition sur un individu, elles sont surtout des données communes : ainsi le répertoire d’un téléphone portable renseigne sur les liens qu’entretient une personne avec un nombre considérable d’autres personnes. L’ensemble de ces données constitue un véritable patrimoine national. Or celui-ci ne fait l’objet d’aucun contrôle, est ouvert à tous les vents, commercialisable sans limite alors même qu’il constitue une part de nos vies privées, de nos intimités.

La crise actuelle nous invite à repenser notre souveraineté. Relocaliser la production d‘industries comme celle du médicament ou des masques en France est une nécessité. Mais celle-ci doit impérativement s’accompagner d’une nouvelle souveraineté sur nos données : une véritable souveraineté numérique. La valeur ajoutée de la quantité des données qui transitent chaque jour vers les deux grandes puissances mondiales en passe de réactiver des guerres commerciales au détriment de l’Europe est infiniment plus grande que la production de masques en tissu sur le territoire national sur fond de rhétorique industrielle martiale.

Pour maîtriser notre destin, il est temps de comprendre le basculement du monde dans l’économie de la donnée. Si ce patrimoine numérique qui renseigne sur chacun d’entre nous, n’est pas stocké et protégé en France, il continuera d’alimenter des bases de données extraterritoriales qui asphyxient définitivement tout espoir de « produire en France » en nous privant de la principale matière première d’expertise de l’industrie du futur.

Pire, sans souveraineté retrouvée, nous risquons demain la mise en confinement numérique totale. Que deviendrait l’économie sans les logiciels et sans les données fournis et actualisés chaque jour par les Etats-Unis ? Nous le savons, ce monde ne relève plus de la science-fiction. L’Europe souffrira tôt ou tard d’avoir laissé la main à de véritables cyber-empires. Notre nation s’inclinera face à des géants sans frontières et sans droit qui ont dépassé de loin la puissance des Etats.

Dans le fameux « monde d’après », stoppons l’épidémie de l’impuissance digitale. Mais mettre fin à l’hémorragie des données produites en France, en ne les transférant qu’en échange de protocoles souverainement définis, nécessitera du courage. Notre Constitution pourrait consacrer ce patrimoine national numérique, enjeu parmi d’autres dans la reconquête de notre liberté et de notre compétitivité.

Robin Reda est député de l’Essonne et vice-président de Libres. Jean-François Husson est sénateur de Meurthe-et-Moselle.

Conseil de l’Arctique : un enjeu stratégique pour les États-Unis et la Russie

Conseil de l’Arctique : un enjeu stratégique pour les États-Unis et la Russie

 

Mercredi, en Islande, en prélude à la réunion du Conseil de l’Arctique ce soir, le ministre des Affaires étrangères américain Anthony Blinken a rencontréson homologue canadien Marc Garneau. À cette occasion, face aux prises de positions belliqueuses de la Russie à propos de l’océan Arctique, il a réaffirmé vouloir « préserver cette région en tant qu’endroit de coopération pacifique » en matière de climat ou d’avancées scientifiques.

Les ministres américain et russe des Affaires étrangères se rencontrent mercredi soir en Islande à propos de l’Arctique Le secrétaire d’État américain Antony Blinken a semblé vouloir faire de l’Arctique, un nouvel enjeu géopolitique au coeur de la réunion régionale qui les rassemble mercredi et jeudi à Reykjavik -la capitale islandaise-, un laboratoire d’une certaine coopération ciblée sur des défis communs comme la lutte contre le réchauffement climatique, son homologue russe Sergueï Lavrov a fait monter la tension avec des propos tonitruants.

« Il est clair pour tout le monde depuis longtemps que ce sont nos terres, notre territoire », a-t-il en effet lancé lundi au sujet du Grand Nord, défendant une sorte de pré carré russe et dénonçant notamment les velléités « offensives » des Occidentaux via l’Otan et la Norvège.

L’ »activité militaire » de la Russie dans l’Arctique est « parfaitement légale et légitime », a-t-il plaidé.

Cryptomonnaies: aussi un enjeu de souveraineté

Cryptomonnaies:  aussi un enjeu de souveraineté

Etudiées par les banques centrales, les monnaies numériques pourraient permettre de renforcer la lutte antiblanchiment, mais elles risquent aussi de bouleverser le fonctionnement du système financier. Un article de dans le Monde deMarie Charrel.

 

Les Allemands ont beau être farouchement attachés aux bons vieux billets, leur ministre des finances, Olaf Scholz, l’affirme haut et fort : « Une Europe souveraine a besoin de solutions de paiement innovantes et compétitives. » A ce titre, elle doit être aux « avant-postes sur la question des monnaies numériques de banque centrale et doit activement la faire progresser », a-t-il déclaré vendredi 16 avril.

Deux jours plutôt, la Banque centrale européenne (BCE) présentait une vaste enquête menée auprès d’un panel d’Européens, dont la plupart se disent favorables à la création d’un euro numérique. L’institution doit décider cet été si elle se lancera, ou non, dans un tel projet. La Réserve fédérale (Fed) se montre prudente, mais elle y réfléchit également avec le Massachusetts Institute of Technology (MIT), tandis que, lundi 19 avril, la Banque d’Angleterre (BOE) et le Trésor britannique ont instauré un groupe de travail sur la question. Mais ce n’est rien à côté de la Chine, qui depuis un an, expérimente déjà un « e-yuan » dans quatre grandes villes.


Depuis quelques mois, la plupart des banques centrales intensifient leurs travaux sur les monnaies numériques, en s’inspirant de la technologie sur laquelle repose la cryptomonnaie bitcoin, née en 2008 : la blockchain, ou « chaîne de blocs », qui permet de crypter, répertorier et sécuriser les transactions. Le déclin des paiements en espèce, accéléré par la pandémie de Covid-19, les a convaincues de se tenir sérieusement à la page sur le sujet. Tout comme l’essor du bitcoin et de ses petits frères (Ether, Ripple, Litecoin…), ainsi que la multiplication des projets d’e-monnaies privées, comme celle de Facebook (le Diem, toujours dans les cartons).

A première vue, ces monnaies numériques de banque centrale – dites « MNBC » – ne changeront pas grand-chose au quotidien des particuliers et des entreprises, puisque la majorité des paiements sont déjà dématérialisés. La différence est pourtant fondamentale : l’essentiel des euros que nous détenons aujourd’hui sur nos comptes et livrets d’épargne sont créés par les banques commerciales, par le jeu du crédit. Les MNBC, elles, seraient l’équivalent des billets directement imprimés par les instituts monétaires. En outre, elles pourraient être détenues directement par ces derniers, sans passer par les banques. Et cela changerait beaucoup de choses.

 

Dans les pays émergents où une partie de la population ne dispose pas de compte bancaire, ces MNBC pourraient ainsi favoriser l’inclusion financière, en permettant les paiements et transferts par téléphone portable. Elles pourraient également faciliter les virements transfrontaliers et les rendre moins coûteux. Au profit, notamment, des immigrés envoyant de l’argent à leur famille dans leurs pays d’origine. Plus faciles à tracer que les billets, elles pourraient en outre simplifier la lutte contre la fraude et le blanchiment.

Insécurité : un enjeu aux présidentielles pour 86% des Français

Insécurité : un enjeu aux présidentielles  pour 86% des Français

D’après sondage Ifop réalisé pour le JDD ,86% des Français assurent que l’enjeu de la sécurité sera « important, pour les présidentielles, ce thème devançant même la lutte contre le chômage (68%) et celle contre la précarité malgré la crise économique qui se profile (62%).

La préoccupation sécuritaire a bondi de 26 points depuis mai 2020, après un « été orange mécanique », selon l’expression du président (ex-LR) de la région Hauts-de-France Xavier Bertrand, marqué par une série de faits divers comme l’agression mortelle d’un chauffeur de bus à Bayonne, et un automne rythmé par les attaques djihadistes, avec notamment la décapitation du professeur Samuel Paty en octobre. Si ce sont les sympathisants de droite (85%) qui jugent les sujets sécuritaires comme davantage prioritaires, le sujet est également considéré comme important à gauche (63%, dont 70% chez les électeurs socialistes).

A un an du scrutin, « la sécurité s’annonce comme un enjeu majeur de la prochaine élection présidentielle », prévient Frédéric Dabi, directeur général de l’Ifop. Interrogés par l’institut sur le poids de cette question dans leur choix en 2022, 86% des Français assurent qu’il sera « important, dont 44% « tout à fait important ». Sur ce terrain, les sympathisants de droite et d’extrême droite sont « en fusion » selon l’expression de Frédéric Dabi, puisque respectivement 98 et 99% des électeurs LR et RN en font un élément déterminant de leur vote. Mais la préoccupation sécuritaire n’est plus l’apanage de la seule droite : elle pèsera lourd, aussi, dans le vote des sympathisants LREM (86%), PS (80%) et même LFI (70%).

Semi-conducteurs : un enjeu d’indépendance économique

 Semi-conducteurs : un enjeu d’indépendance économique

 

 

 

.Par Clément Rossi, directeur de la Stratégie, des Partenariats et des Relations extérieures du Forum International de la Cybersécurité (FIC) dans la Tribune.

Quel est le point commun entre un avion de combat, un smartphone, une trottinette électrique et un data-center ? La pénurie de composants électroniques ! Elle révèle en effet la forte dépendance des industries européennes en matière de semi-conducteurs. Cette dépendance matérielle, résultat de la stratégie du « fabless », qui a longtemps prévalu aux États-Unis et en Europe, devient désormais un risque stratégique (et systémique) majeur dans le contexte actuel de guerre technologique et commerciale que se livre la Chine et les États-Unis.

Les Etats-Unis cherchent à bloquer la Chine

Pour conserver un avantage compétitif sur les technologies numériques, en particulier sur la 5G, les États-Unis cherchent en effet à bloquer la Chine, quitte à bousculer la filière des semi-conducteurs, où Taïwan domine largement le segment « fonderie » avec 75,7% du marché mondial, et surtout une large avance sur la production de circuits de taille inférieurs à 7 nanomètres.

Le principal producteur taïwanais, TSMC, a ainsi été soumis à de fortes pressions pour interrompre ses relations commerciales avec la Chine et implanter une partie de sa production sur le territoire américain. Dans le même temps, les États-Unis ont placé SMIC, principal producteur chinois de puces électroniques, sur la liste noire d’exportation, limitant l’accès de l’entreprise aux composants embarquant des technologies américaines, qu’ils soient ou non produits sur le territoire américain.

Lourdes conséquences pour l’Europe

Cette stratégie de coercition américaine a de nombreux effets de bord. A court terme, elle amplifie le choc sur la filière semi-conducteur, déjà soumise à rude épreuve avec la pandémie. Au plan géopolitique, elle aiguise l’appétit de l’ogre chinois envers Taïwan. Au plan industriel, enfin, elle pousse la Chine à s’autonomiser en matière de semi-conducteurs et à combler son retard technologique en renforçant ses propres capacités. Dans le cadre de son plan « Made in China 2025″, le pays redouble ainsi d’efforts pour réduire sa dépendance : il investit massivement dans le secteur et débauche à tour de bras des ingénieurs spécialisés en Corée du Sud et à Taïwan. Objectif : produire en 2025 70% des puces dont elle a besoin pour son industrie. 

Mais cette stratégie a aussi de lourdes conséquences pour l’Europe. Alors que la Chine et les États-Unis vont redévelopper des capacités de fonderie, l’Europe pourrait-elle rester en dehors du jeu au moment où l’intelligence artificielle, le calcul haute performance, la 5G et les objets connectés vont faire exploser la demande de semi-conducteurs (le marché devrait progresser de 8,4% en 2021) ?

Des industries de pointe en Europe

Certes, l’Europe dispose d’entreprises à la pointe dans le domaine, qu’il s’agisse du franco-italien STMicroelectronics ou bien encore du hollandais ASLV, spécialiste de la lithographie EUV (ultraviolet) permettant de fabriquer des composants de très petite taille. L’américain Globalfoundries dispose quant à lui d’une vaste usine dans la « silicon Saxony » allemande. Mais la filière reste largement dépendante de Taïwan et de Corée du Sud en termes d’approvisionnement.

Certaines de ses pépites comme l’Allemand Siltronic (racheté par le Taïwanais Global Wafers fin 2020), les Britannique Dialog Semiconductor (racheté par Renesas début 2021) et ARM (dont le rachat par l’Américain Nvidia est encore en débat) sont par ailleurs l’objet de toutes les convoitises.

Soutien à l’industrie européenne des semi-conducteurs

Pour réduire cette dépendance stratégique et profiter de l’explosion attendue du marché, l’Europe doit donc adopter rapidement des mesures volontaristes combinant diversification des approvisionnements, aide à l’installation d’industriels étrangers sur son territoire, soutien au développement de la filière locale et contrôle des investissements étrangers. Sur le front de la diversification, des alternatives aux fournisseurs taïwanais existent en Asie du Sud-Est (Malaisie et Corée du Sud) ou aux États-Unis, en particulier sur les produits finis que sont les circuits programmables (FGPA). La réglementation ITAR, qui permet aux États-Unis de bloquer les exportations de produits intégrant des technologies américaines, reste cependant un obstacle majeur, en particulier en matière de défense.

Consciente des enjeux, l’Union européenne s’est engagée en décembre 2020, dans le cadre du plan de relance, à soutenir l’industrie européenne des semi-conducteurs. Objectif : produire à terme au moins 20% des circuits intégrés dans le monde. Un plan d’investissement ambitieux, qui pourrait atteindre 30 milliards d’euros, devrait ainsi être annoncé d’ici la fin du premier trimestre 2021. « Sans une capacité européenne autonome en matière de microélectronique, il n’y aura pas de souveraineté numérique européenne », soulignait Thierry Breton, commissaire européen. Une autonomie qui passera clairement par un rééquilibrage de notre dépendance et le renforcement de nos partenariats, tant avec les États-Unis qu’avec la Chine, compte tenu des investissements nécessaires. A eux seuls TSMC et Samsung prévoient d’investir respectivement 21 et 26 milliards d’euros dans les semi-conducteurs en 2021. « Le guerrier victorieux remporte la bataille, puis part en guerre. Le guerrier vaincu part en guerre, puis cherche à remporter la bataille » (Sun Tzu).

Gestion de l’eau : Un enjeu stratégique

Gestion de l’eau : Un enjeu stratégique

 

L’archéologue Corinne Castel et l’architecte-urbaniste Bernd Gundermann rappellent, à l’occasion de la Journée mondiale de l’eau, que les villes doivent depuis toujours faire face aux défis posés par cette ressource.( Le Monde)

 

Tribune. 

 

Depuis des millénaires, les eaux nourrissent les populations, mais aussi les mythes qui forgent nos imaginaires. Les premières civilisations urbaines sont nées dans les bassins de l’Euphrate, du Tigre et du Nil. Les fleuves étaient conçus alors comme des personnalités divines. Ces premières villes, déjà confrontées aux problèmes de la gestion de la ressource en eau et de la bonne gouvernance, offrent un écho saisissant aux enjeux contemporains.

Bien sûr, la démographie est aujourd’hui sans commune mesure avec ce qu’elle était en Mésopotamie. L’accélération de l’urbanisation, l’industrialisation à outrance, la mondialisation et la financiarisation du monde ont changé la donne. Nous sommes arrivés à un point de basculement où les activités humaines ont une incidence globale telle sur l’écosystème terrestre qu’elle affecte la santé des populations et la sécurité alimentaire.


Mais les expériences multiples dans les pays lointains du passé, comme celles issues de la diversité de notre monde contemporain, constituent toujours une source d’inspiration pour penser les villes de demain, alors qu’il faut nourrir, loger, protéger une population urbaine mondiale toujours plus grande.

Les premières villes mésopotamiennes ont en commun de naître et de se développer dans un contexte globalement aride, soit dans les marécages du pays de Sumer (sud de l’Irak actuel), soit dans les steppes inhospitalières de Syrie, en tout cas loin des vertes prairies de nos climats tempérés.

Comment ces villes ont-elles pu se développer dans des milieux si contraignants où alternent longues périodes de sécheresse et brusques montées des eaux, souvent dévastatrices, comme le long de l’Euphrate où la période des crues est trop tardive pour les récoltes d’hiver, trop précoce pour les cultures d’été ? Comment certaines villes ont-elles pu s’établir et perdurer plusieurs siècles en limite des marges du désert, là où il ne pleut, en moyenne, que 200 mm d’eau par an, bien avant la mécanisation et nos technologies de pointe ? Comment gérer la pénurie et l’incertitude des rendements agricoles, face à l’irrégularité des pluies ?


Les interactions entre les humains et leur environnement résultent d’une histoire très ancienne, qui nous parle davantage d’adaptation à des milieux difficiles que de maîtrise de la nature et de son exploitation. Les premiers habitants urbains se sont installés le long des fleuves, bien sûr, mais sur une terrasse au-dessus pour éviter les crues. Ils ont fondé des villes parfois éloignées des cours d’eau, mais à la jonction entre des écosystèmes complémentaires pour pratiquer à la fois pastoralisme et agriculture vivrière. Ils ont construit des maisons et bâtiments publics, parfois vastes et pourvus d’étages, en briques de terre crue fabriquées sur place. Une architecture aux remarquables qualités bioclimatiques et pluricentenaire lorsqu’elle est régulièrement entretenue.

La 5G Etats-Unis : un enjeu à 80 milliards de dollars

 La 5G Etats-Unis : un enjeu à 80 milliards de dollars

Yves Gassot, ancien directeur général de l’IDATE DigiWorld s’interroge sur le montant des enchères de la 5G aux États-Unis ( La tribune)

Courant janvier, se sont interrompues aux Etats-Unis les enchères engagées le 8 décembre pour attribuer 280 MHz de spectre dans la bande C qui seront utilisés pour le déploiement de la 5G. Elles ont permis au Trésor de tabler sur 80.9 milliards de dollars de recette, une somme record qui dépasse largement les quelques 45 milliards des enchères de 2015 ainsi que les prévisions des analystes. En sus de cette somme, il faut ajouter les quelques 17 milliards de dollars que les opérateurs mobiles devront assumer pour financer la relocalisation des équipements des opérateurs satellite qui occupaient la bande C. On ne connait pas encore les sommes qui ont été engagées par chaque opérateur. Il faut pour cela attendre une seconde phase (phase d’assignement) qui permettra aux opérateurs retenus au terme de la première phase de choisir exactement leurs fréquences. Même à l’heure des quelques 1.900 milliards de dollars annoncés par Joe Biden pour son plan de relance, la somme spectaculaire atteinte par ces enchères justifie quelques explications. Elle suscite aussi des interrogations sur les changements en cours sur le marché des mobiles à l’aube de la 5G outre-Atlantique.

Pourquoi de tels montants ? On savait que la bande des 3.5 GHz (exactement 3.7/3.98 GHz) était stratégique. C’est le cas aux Etats-Unis comme en Europe. Elle fait partie des fréquences intermédiaires (2.5/4 GHz) qui représentent un bon compromis entre la couverture que permettent les radiofréquences basses (typiquement 600 à 900 MHz) et les très hauts débits qu’on peut atteindre avec les ondes millimétriques (de type 28 et 39 GHz aux Etats-Unis), qui, moins encombrées, offrent des canaux avec une beaucoup plus grande bande passante mais pour une portée très limitée. La portion de spectre alloué est aussi significative. Elle se décompose en trois catégories de licences suivant que les fréquences seront libérées début 2022 (licences A) ou ultérieurement (licences B et C).

A cela s’ajoutent les conséquences de la fusion entre T-Mobile et Sprint, numéros trois et quatre du marché américain, intervenue en avril dernier. Au terme des 25 milliards de dollars déboursés, T-Mobile, contrôlé par Deutsche Telekom, a mis la main sur près de 200 MHz de précieuses fréquences intermédiaires (2.5 GHz). Cela lui a permis de mener avec brio une stratégie de déploiement de la 5G très offensive au détriment des deux leaders, Verizon et AT&T.  T-Mobile a d’une part valorisé les fréquences en 600 MHz acquises en 2017 pour 8 milliards de dollars pour afficher très vite l’année passée une large couverture du territoire (quelques 280 millions d’habitants aujourd’hui) en 5G, même si les canaux utilisés sur cette fréquence ne lui permettent pas d’offrir un débit significativement supérieur à ceux que l’on trouve en 4G.

Dans le même temps, l’opérateur s’est employé à déployer de la 5G avec des débits beaucoup plus élevés sur les fréquences « en or » à 2.5 GHz héritées de Sprint. L’opérateur a annoncé à la fin de 2020 avoir couvert en 2.5 GHz plus de 100 millions d’habitants. Mais T-Mobile doit aller vite. Au total, les analystes considèrent que T-Mobile a une fenêtre d’opportunité de 18 mois – avant que ses concurrents ne puissent utiliser les fréquences des enchères en cours – pour conforter son statut de principal opérateur 5G. Enfin, même si l’intérêt de T-Mobile pour les enchères en cours est relatif, on s’attend à ce qu’il ait misé quelques 10 milliards de dollars, ne serait-ce que pour pousser à la hausse les prix qui seront payés par ses concurrents.

Verizon aurait misé plus de 30 milliards dans les enchères

Au regard de cette stratégie, Verizon qui avait conquis son statut d’opérateur numéro un par sa capacité à doubler tous ses concurrents dans le déploiement de la 4G, n’a pas pu faire la preuve au cours de ces derniers trimestres qu’il conservait le leadership bien qu’il ait ouvert un premier réseau 5G en avril 2019. Disposant d’à peine plus du tiers des fréquences inférieures à 6 GHz détenues par T-Mobile, il a d’abord mis l’accent sur l’usage des ondes millimétriques (fort de 100 MHz dans les bandes 28 et 39 GHz) en ouvrant dans les grandes villes de l’« ultra-haute vitesse »  en 5G. 60 villes affichaient à la fin décembre des sites offrant ce service. Naturellement avec ces fréquences, il ne s’agit que de hot-spots avec des portées limitées. Pour offrir une plus large couverture, Verizon va devoir s’engager au cours des années à venir dans une densification de son réseau à travers la construction de micro-cellules. Dans ces conditions, pour afficher rapidement une plus large couverture 5G, Verizon a lancé le Digital Spectrum Sharing (DSS), une technologie qui lui permet de réutiliser des fréquences 4G pour offrir de la 5G à ses abonnés.

La solution présente l’avantage d’une certaine flexibilité mais ne rajoute pas vraiment de capacités alors que, comme tous les opérateurs, Verizon doit faire face à une croissance continue du débit sur les réseaux 4G. On peut signaler que Verizon, imité en cela par T-Mobile, a aussi commencé à déployer la 5G sur certains sites pour offrir des services vidéo. Verizon a par ailleurs été le principal bénéficiaires (pour 1.89 milliard de dollars) des enchères de l’été dernier dites CBRS, qui concernaient aussi des fréquences proches de 3.5 GHz, qui lui donneront des capacités sur les grandes métropoles mais avec des contraintes liées au principe de leur accès partagé. Mais tout cela pris en compte, on comprend que Verizon a joué son va-tout dans les enchères du mois dernier. Certains analystes estiment que l’opérateur a pu miser de 30 à 40 milliards de dollars pour avoir les 100 MHz des fréquences A.

AT&T a du souci à se faire

 

AT&T de son côté a aussi du souci à se faire face à la stratégie conquérante de T-Mobile même s’il dispose de plus de fréquences intermédiaires et plus de spectre au total que Verizon. Il a néanmoins subi ces dernières années l’offensive de T-Mobile et ne peut pas rester à l’écart de l’attribution des fréquences 3.5 GHz, les mobiles représentant son premier marché. Les analystes estiment qu’AT&T aurait investi quelques 20 milliards de dollars dans les dernières enchères, soit probablement beaucoup plus que ce qu’il avait prévu. A cela s’ajoutent les investissements dans ses réseaux (15 à 18 milliards par an), ceux dans son nouveau service vidéo HBO Max, et les dividendes qu’il faut continuer de verser.

L’affaire entretient d’autant plus les spéculations que, depuis plusieurs trimestres, l’objectif d’AT&T est de faire la preuve de sa capacité à revenir à un taux d’endettement (Ebitda/dette) proche de deux pour ne pas dégrader son crédit d’emprunteur. Avec encore 147.5 milliards de dollars de dettes (ratio de 2.7) à l’issue du quatrième trimestre 2020, AT&T reste encore très lesté par le poids de ses acquisitions spectaculaires : en 2015 de DirecTV (49 milliards de dollars plus 18 milliards de dette) et en 2018 de Time Warner (85 milliards). La compagnie a mis aux enchères la vente de DirecTV qui perd plusieurs centaines de milliers d’abonnés par trimestre. Mais les candidats ne se bousculent pas et les fonds d’investissement ne paraissent pas décidés à mettre plus de 17 milliards…

L’automatisation : le grand enjeu d’Amazon

L’automatisation : le grand enjeu d’Amazon

Un article du Wall Street Journal aborde la problématique de l’automatisation pour une entreprise comme Amazon grande utilisatrice de main-d’œuvre.

 

Amazon a bien plus d’employés que ses concurrents, que ce soit Microsoft, Google ou Apple, et nombre d’entre eux sont des travailleurs manuels peu qualifiés, et non des ingénieurs logiciels. L’entreprise est également partenaire avec environ 2,4 millions de vendeurs tiers sur sa marketplace, qui génèrent la majorité des ventes sur sa plateforme de e-commerce. Mais le nouveau directeur général, M. Jassy — un fidèle adjoint et un disciple dévoué du fondateur Jeff Bezos — dispose d’un outil puissant pour manager un tel bataillon d’employés et de partenaires : une infrastructure logicielle en cloud tout aussi étendue qu’il chapeaute depuis sa création.

Si Andy Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général

La manière dont Amazon utilise des logiciels pour tout gérer ne ressemble à aucune autre entreprise ou presque, à l’exception peut-être des géants de la « gig-economy » (économie à la tâche) que sont Uber, Lyft, DoorDash et Instacart. Qu’ils conduisent une camionnette de livraison, qu’ils prélèvent des articles sur des étagères ou qu’ils essaient de faire le suivi de leurs stocks de produits pour éviter d’être déréférencés, les employés, les sous-traitants et les vendeurs tiers d’Amazon sont contrôlés, évalués, récompensés — et font même l’objet de signalements en vue être sanctionnés ou coachés — par des logiciels.

Bien que M. Jassy soit souvent décrit par ceux qui ont travaillé pour lui comme quelqu’un ressemblant beaucoup à Jeff Bezos — mais peut-être en plus doux et chaleureux —, on peut affirmer qu’il existe actuellement un fort contraste entre la façon dont il se comporte dans ses relations quotidiennes et celle dont les algorithmes et l’intelligence artificielle d’Amazon traitent les millions d’employés de terrain et de marchands sur sa marketplace. Si M. Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général.

Ayant fondé Amazon Web Services à partir d’une petite start-up qu’il a dirigée au sein d’Amazon, au début des années 2000, pour en faire le mastodonte du secteur du cloud (qui génère la moitié des bénéfices d’Amazon), M. Jassy a une parfaite compréhension non seulement des arcanes Internet des innombrables entreprises de la tech, de Netflix à Slack, qu’AWS accompagne, mais aussi comment cette unité est connectée à la myriade d’activités exploitées par Amazon lui-même. Aujourd’hui âgé de 53 ans, M. Jassy a rejoint Amazon en 1997, juste après avoir obtenu son diplôme de la Harvard Business School.

L’expérience acquise par M. Jassy dans le domaine du cloud ne l’a peut-être pas préparé à prendre la tête d’un concurrent comme Walmart, dont le modèle est toujours basé sur les magasins physiques. Mais, avec ses vingt-quatre ans passés chez Amazon, il dispose de tous les atouts pour diriger les activités de l’entreprise, que ce soit le e-commerce ou le reste de son empire tentaculaire. (Le cloud computing est une technologie informatique à distance accessible par Internet, centrale dans un nombre incalculable de domaines, de la révolution mobile aux dizaines de services que nous considérons comme allant de soi, comme par exemple le streaming ou l’IA).

L’empire Amazon est aujourd’hui confronté à des défis — technologiques, opérationnels et réglementaires — aussi importants que ceux auxquels il a dû faire face par le passé.

Andy Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ?

Primo, une question concerne l’essence même de la société qu’Amazon souhaite être. Ses dirigeants insistent sur leur volonté de préserver la santé de leurs employés et de leur donner des opportunités de carrière et de formation. Mais la façon dont Amazon manage à la fois ses salariés et les vendeurs tiers via des algorithmes est souvent en contradiction avec ces aspirations. Si M. Jassy décidait d’apporter des changements, Amazon parviendra-t-il à concevoir ses logiciels et ses systèmes de manière à ce qu’ils répondent mieux aux besoins de ceux auxquels ils servent et sur lesquels ils exercent leur pouvoir ?

Secundo, l’infrastructure en cloud qu’Amazon utilise pour gérer et conclure des transactions avec ses millions de clients héberge également des systèmes qui, selon de nombreux témoignages, poussent ses employés à travailler encore plus dur, et laissent souvent ses vendeurs tiers dans le flou sur la meilleure manière de naviguer sur sa marketplace — ce qui alimente les plaintes et les enquêtes sur ses pratiques en matière de conditions de conditions de travail et de concurrence. Amazon va-t-il concevoir ses systèmes de manière à améliorer la qualité de vie de ses employés et à promouvoir des relations meilleures et plus transparentes avec ses marchands ?

Tertio, M. Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ? Enfin, dans quelle mesure pourra-t-il atteindre ses objectifs alors les enquêtes antitrust et les appels au démantèlement de l’entreprise se multiplient ?

Le départ de M. Bezos de son poste de directeur général donne à l’entreprise l’occasion d’essayer de redorer son image publique, à Washington et dans le monde entier. Beaucoup de ceux qui ont travaillé avec M. Jassy expliquent que, bien qu’il ressemble à M. Bezos à certains égards, il est d’un naturel plus doux et plus réservé.

Vice-président senior de la vente au détail chez Amazon de 1997 à 2002, David Risher a travaillé en étroite collaboration avec M. Jassy. « Si l’on se fie à son passé, il va diriger tout autant avec son cœur qu’avec sa tête, assure M. Risher. Il manage toujours avec une véritable empathie, pas en faisant semblant. » Les deux hommes sont toujours en contact : M. Jassy est membre du conseil consultatif de l’association Worldreader de M. Risher, qui aide les enfants défavorisés à avoir accès aux livres numériques.

Dans les activités de e-commerce d’Amazon, à toutes les étapes de la chaîne d’approvisionnement, les humains intègrent rapidement des emplois qui ne nécessitent presque aucune formation. Cela a été rendu possible par la manière dont ces tâches sont régies et encadrées par les algorithmes et l’automatisation. Dans les centres logistiques les plus sophistiqués d’Amazon, par exemple, les employés collectant des articles sur les rayonnages robotisés sont surveillés par des caméras équipées d’un système d’intelligence artificielle. Un lecteur de code-barres connecté au cloud contrôle la vitesse à laquelle ils choisissent les articles, le nombre et la durée de leurs pauses et s’ils prennent les bons articles et les placent aux bons endroits. Les responsables ne doivent intervenir que si le logiciel signale un problème, par exemple si un employé prend du retard.

Un porte-parole d’Amazon rejette l’idée que, dans les entrepôts, toute personne est « gérée par un algorithme », au motif que tous les collaborateurs ont au-dessus d’eux un manager humain qui en est responsable et les coache s’ils ne répondent pas aux objectifs de rendement. « Nos travailleurs de terrain sont le cœur et l’âme d’Amazon », et reçoivent les mêmes avantages que les autres employés de l’entreprise dès leur premier jour de travail, ajoute le porte-parole. Par le passé, Amazon avait assuré que seul un faible pourcentage de ses collaborateurs étaient licenciés ou quittaient l’entreprise pour manque de performances.

L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter

Les logiciels, eux, ont déjà remplacé les salariés qui s’occupaient des comptes des partenaires commerciaux. Même les grandes marques qui décident de vendre sur Amazon ont pour la plupart affaire avec les systèmes automatisés de l’entreprise. L’IA régit presque entièrement la façon dont les vendeurs sont traités sur la marketplace d’Amazon, et il n’est pas toujours facile de travailler avec elle, explique Jason Boyce, qui a été pendant dix-sept ans l’un des 200 meilleurs vendeurs sur la plateforme, et a ensuite fondé Avenue7Media, qui aide les entreprises à vendre sur la marketplace d’Amazon.

« Leur IA n’est pas toujours très subtile », estime-t-il. Il arrive que les listings de vendeurs soient réduits sans préavis ou presque : les petites entreprises doivent alors se débrouiller pour payer les salaires, ajoute-t-il.

« Amazon investit lourdement pour épauler ses vendeurs, car nous travaillons ensemble pour servir leurs clients et protéger leurs marques, déclare un porte-parole d’Amazon. Il est dans notre intérêt économique de minimiser les perturbations affectant les ventes de nos partenaires commerciaux, et nous travaillons dur pour éviter les erreurs en matière d’exécution. Nous contactons tous les vendeurs présentant peu de faibles risques ou permanents avant de les suspendre, et nous fournissons des indications claires pour qu’ils puissent faire appel de ces décisions par l’intermédiaire de notre équipe. »

Jeff Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon

M. Jassy pourrait choisir d’améliorer ces systèmes, ou, au contraire, se contenter d’automatiser la plupart des rôles occupés par des employés. Et, si les régulateurs n’interviennent pas, il pourrait faire de même dans les relations avec nombre de ses partenaires et des marchands présents sur sa marketplace.

A l’heure actuelle, Amazon cherche autant d’employés que possible. Mais selon les résultats des actions destinées à renforcer la syndicalisation au sein de l’entreprise, celle-ci pourrait bientôt avoir une autre grande raison d’automatiser le plus rapidement possible des postes. L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter.

Il est clair qu’Amazon veut utiliser ses infrastructures d’IA et de cloud computing pour mener à bien une automatisation encore plus poussée, comme par exemple sur la livraison autonome, à la fois par drones et véhicules sur roues. Alors qu’au niveau local, Amazon sous-traite à des milliers de franchisés le dernier kilomètre de livraison sur son propre réseau logistique, la société pourrait mettre fin aux contrats avec ces entreprises pratiquement du jour au lendemain, comme elle l’a déjà fait par le passé, sans que cela n’affecte la taille des effectifs qu’elle emploie directement.

M. Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon. Outre la syndicalisation, le plus grand défi qui se profile dans l’immédiat pour l’entreprise pourrait être d’affronter, pendant des années, des séries auditions devant le Congrès et des enquêtes fédérales cherchant à déterminer si Amazon constitue un monopole susceptible d’être démantelé, souligne Paul Armstrong, analyste du secteur et créateur du bulletin d’information What Did Amazon Do This Week.

Sous la direction de M. Jassy, « je pense que vous risquez de vous retrouver avec un Amazon plus ennuyeux », ajoute M. Armstrong. Connu pour son sang-froid et son souci du détail, M. Jassy a aussi l’avantage de ne pas s’identifier à l’entreprise aussi personnellement que M. Bezos, son créateur. Cela pourrait lui être utile, car il sera contraint de comparaître devant le Congrès de manière récurrente et de passer une grande partie de son temps à s’enfermer avec ses avocats, si les actions antitrust contre Amazon se concrétisaient.

Utiliser l’IA, les logiciels et l’automatisation pour alléger les tâches des employés, ou pour les obliger à travailler plus dur afin de suivre le rythme, est un choix auquel toutes les entreprises sont confrontées à l’ère de la numérisation. Mais aucune ne l’est plus qu’Amazon. Il est possible que M. Jassy choisisse de gérer cette transition différemment de M. Bezos, connu pour son exigence. Il est également possible qu’il se sente contraint, à cause de la surveillance des régulateurs, de gérer les choses autrement que son prédécesseur.

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Traduit à partir de la version originale en anglais

L’Enjeu de la prospective

L’Enjeu de  la prospective

Par Jean-Eric Aubert (président de la Fondation 2100), Thierry Gaudin (président d’honneur de la Fondation 2100)

 

Ceux qui font profession de prévoir le futur, autrement dit qui s’adonnent aux métiers de la prospective, courent en général deux risques : le premier est de se tromper, le second est d’avoir raison trop tôt. La pandémie de Covid-19 nous en offre un exemple tout frais. De nombreux travaux scientifiques ont évoqué la possibilité de la survenue d’un tel épisode sanitaire bien avant qu’il n’apparaisse. Des auteurs ont écrit des livres prémonitoires comme le grand épidémiologiste américain Michael Osterholm (« Deadliest Enemy : Our War Against Killer Germs », 2017), la CIA a alerté, sans parler de Bill Gates qui a sonné l’alarme sur la survenue probable d’une grande et mortelle pandémie. Et pourtant, aucun pays n’a accordé d’importance à ces signaux avancés et tous ont été surpris et largement impréparés.

Est-ce une raison suffisante pour que les prospectivistes changent de métier ? Certainement pas. C’est même le contraire. L’humanité fait face à de tels défis - réchauffement climatique, révolutions technologiques, basculements géopolitiques, transitions démographiques… - qu’il est plus nécessaire que jamais d’en comprendre les enjeux, d’anticiper leurs conséquences et d’agir pour prévenir les catastrophes. Cet horizon peut paraître éloigné, mais les enfants qui naissent aujourd’hui seront, pour la plupart, encore en vie à la fin du siècle. Leur laisser une planète vivable implique de s’engager dans cette prospective opérationnelle et mondiale dès maintenant - d’autant que l’adaptation des sociétés humaines à de profonds changements prend toujours du temps.

Projeter une vue d’ensemble

Comprendre les phénomènes à l’oeuvre, c’est d’abord chercher à en projeter une vue d’ensemble. Une approche partielle, influencée par les conformismes et les consensus, ne permet pas de saisir la complexité de ces phénomènes et leurs interactions. Et lorsque les visions sont inspirées par des idéologies ou des modes, celles-ci biaisent la perception. Soit par excès d’optimisme, par exemple dans les possibilités des technologies vantées par les « transhumanistes ». Soit par excès de pessimisme, avec les perspectives d’effondrement mondial prophétisées par les « collapsologues ».

L’ enjeu de l’hydrogène

L’ enjeu de l’hydrogène

 

Laurent Favre (Plastic Omnium) évoque l’enjeu de l’hydrogène pour l’Europe.

 

La pandémie va laisser des traces et rebattre les cartes de l’industrie automobile mondiale. L’Europe, qui pratique en permanence le compromis sécurité sanitaire/maintien de l’activité, apparaît plus durablement touchée, constate Laurent Favre, directeur général de l’équipementier Plastic Omnium depuis le 1er janvier 2020…

Quel bilan et surtout quelles leçons tirez-vous de la pandémie ?

Evidemment, la première partie de 2020 a été très chaotique mais par temps de pandémie, être global est un avantage. Nous avons trente usines en Chine, d’où la pandémie est partie, ce qui nous a permis de préparer le reste du groupe, humainement et économiquement. Sur le plan sanitaire, nous avons mis en place un protocole unique dans toutes nos usines, ce qui a encore rapproché les équipes : chez Plastic Omnium, tout le monde travaillait de la même façon. Cela nous a fait prendre conscience à quel point il faut pouvoir se reposer sur une organisation fondée sur la cohésion et la solidarité des équipes.

Parallèlement, nous avons travaillé sur le monde de demain. Pas question de laisser la Covid-19 imposer son agenda ! Cette crise n’a fait qu’accélérer et amplifier les tendances lourdes qui se dessinaient. Depuis 2017, les volumes mondiaux de ventes de véhicules reculaient, sous l’influence des nouveaux usages et des exigences liées aux nouvelles mobilités. Il va falloir accélérer notre adaptation à ce nouveau contexte ; les sujets sociétaux et environnementaux sont d’ailleurs très présents dans les plans de relance mondiaux. Dans le groupe, nous nous sommes aussi rendu compte qu’on ne profitait pas à plein des outils digitaux, la visite virtuelle d’usines, le télétravail… De cette crise émergera un nouveau modèle de fonctionnement.

Quid de la conjoncture mondiale automobile. La pandémie rebat-elle les cartes ?

Le marché asiatique est reparti très rapidement. En Chine, les volumes au second semestre ont été supérieurs à ceux de la même période de 2019. L’Amérique du Nord a repris un fonctionnement quasi normal, cette région ayant clairement choisi de préserver l’économie. En revanche, l’Europe qui représente 55 % des débouchés du groupe, et pratique en permanence le compromis sécurité sanitaire/maintien de l’activité, apparaît plus durablement touchée.

Oui, cette crise va laisser des traces et rebattre les cartes car l’écart se creuse entre le Vieux continent et la Chine, en termes de croissance et de développement technologique. De ce fait, la pandémie va certainement fragmenter le marché de la mobilité. Le secteur fonctionnait autour de plateformes globales, desservant des implantations mondiales. L’avenir se dessine autour d’organisations beaucoup plus locales, répondant à des besoins spécifiques régionaux.

Dans ce contexte, les appels du gouvernement à la relocalisation ont-ils un sens ?

En l’occurrence, la France ne représente que 6 à 7 % de nos débouchés, et notre stratégie a toujours été de développer, d’acheter et de produire là où nous vendons. Pas question de produire en France ce que nous vendons en Chine et inversement ! Cela ne changera pas. En revanche, la chaîne logistique sera plus affectée. Avant la Covid, les barrières douanières, les fluctuations de taux de change, le débat grandissant sur la pollution liée au transport des pièces pesaient déjà en faveur de la localisation de ces chaînes. La crise amplifie ce besoin, on le voit aujourd’hui avec la pénurie de composants électroniques qui pénalise le secteur automobile.

Nouvelles mobilités égalent nouvelles productions. Cela entraîne-t-il des bouleversements chez Plastic Omnium ?

La première étape de la mobilité propre consiste à décarboner les moteurs thermiques, essence et diesel. C’est un gros marché pour Plastic Omnium qui est leader mondial des systèmes de dépollution. La deuxième étape, c’est l’hybridation des véhicules : on mixe moteurs à combustible et électrique, cela nécessite des réservoirs plus complexes, domaine dans lequel le groupe innove beaucoup.

Le « tout électrique » arrivera dans un troisième temps. Nous estimons qu’il représentera 30 % du marché mondial, dix fois plus qu’aujourd’hui, en 2030, avec de gros écarts par région. Ce sera sans doute plus important en Europe, moins aux Etats-Unis. Cela signifie que 70 % du marché sera toujours très « hybridé ». Nous préparons le coup d’après avec le moteur à hydrogène, qui est un véhicule électrique pour lequel le stockage de l’énergie se fait par le biais de réservoirs à hydrogène.

Où en est Plastic Omnium dans ce domaine ?

Depuis 2015, nous avons investi 200 millions d’euros dans le réservoir hydrogène à haute pression (700 bars), qui permet de maximiser la quantité d’énergie dans un minimum de place. La deuxième étape est la transformation de cette énergie en électricité, par la pile à combustible. C’est le sens du partenariat que nous avons conclu en octobre avec l’allemand ElringKlinger. Notre coentreprise, EKPO, a vocation à devenir le leader mondial de la pile à combustible. L’hydrogène est une vraie alternative au modèle 100 % batterie. Le consensus est qu’il n’y aura pas à l’avenir un seul mode de motorisation. La fragmentation régnera aussi dans ce domaine, avec d’un côté le 100 % batterie pour les véhicules urbains, de l’autre le 100 % hydrogène pour les poids lourds, et entre les deux une grande partie d’hybride, batterie/pile à combustible.

L’autre certitude est que l’Europe a une vraie carte à jouer dans l’hydrogène. Elle dispose des champions mondiaux de la production d’hydrogène et d’électricité décarbonée, ainsi que des savoir-faire. Le véritable enjeu, ce sont les infrastructures, les bornes de recharge notamment. C’est dans ce domaine que l’Europe est en train de prendre beaucoup de retard.

«Le soutien à court terme de l’économie est justifié, mais il est risqué. Dans notre secteur la perfusion pourra se révéler dangereuse si elle maintient artificiellement en vie des sous-traitants automobile qui étaient déjà mal en point avant la pandémie. La casse ne sera pas évitée, elle n’est que reportée»

Que pensez-vous des différents plans de soutien, français et européen, à la filière automobile et aux énergies propres ?

Le soutien à court terme de l’économie est justifié, mais il est risqué. L’Etat arrête l’économie, il l’empêche de couler, c’est normal. Mais dans notre secteur la perfusion pourra se révéler dangereuse si elle maintient artificiellement en vie des sous-traitants automobile qui étaient déjà mal en point avant la pandémie. La casse ne sera pas évitée, elle n’est que reportée. En revanche, les mesures structurelles, les plans visant à développer une industrie de l’hydrogène par exemple, sont une très bonne chose. L’Europe a là une occasion de reprendre la main. C’est une vraie opportunité ! Dans ce domaine, notre ambition est de profiter non pas de subventions, mais de l’écosystème et des infrastructures que ces plans doivent permettre d’installer.

En France, la vente de voitures est retombée à son niveau de 1975. Comment le marché peut-il se redresser ?

Là encore, la pandémie n’a fait qu’amplifier une tendance. Les décisions des constructeurs annonçaient déjà une baisse de 20 % de la production dans notre pays. Bon nombre de nouveaux modèles ne sont plus assemblés en France. Au-delà du marché français, le monde automobile « fantasmait » beaucoup avant la crise sur l’objectif de 100 millions de véhicules produits en un an. Notre scénario n’envisage pas cette hypothèse pour les prochaines années.

La croissance en volume telle qu’elle a pu être observée depuis une quinzaine d’années n’aura pas lieu. Le marché va-t-il plafonner à 80 ou 85 millions de véhicules ? Notre certitude est que l’évolution des usages et de la mobilité indique que la croissance future se mesurera en termes de contenu technologique et non d’unités vendues. Telle est d’ailleurs notre ambition : il faut de plus en plus de technologie, d’innovation et de valeur ajoutée de Plastic Omnium dans chaque véhicule. Tous nos produits auront demain davantage de fonctionnalités. C’est vrai pour toute l’industrie : l’innovation et la R & D feront plus que jamais la différence.

Quelle est votre stratégie dans ce domaine ?

La R & D représente 5 % de notre chiffre d’affaires. Ceux qui n’auront pas les moyens de suivre le rythme seront fragilisés. Cela préfigure sans doute une vague de consolidations dans le secteur au cours des 18-24 prochains mois, Plastic Omnium a la volonté et les moyens d’être un agent consolidateur. Et il dispose de l’atout majeur d’un actionnariat stable. Sur l’hydrogène, la France sera notre centre de gravité. Nous allons concentrer notre recherche sur deux sites, à Compiègne et en Chine. En matière de R & D, il n’y a pas de déclassement européen. Il faut absolument capitaliser sur cet atout et ne pas se laisser distancer.

 

 

Hydrogène : un enjeu de souveraineté énergétique

Hydrogène : un enjeu de souveraineté énergétique

 

AGNES PANNIER-RUNACHER , secrétaire d’État auprès du ministre de l’économie, considère que l’hydrogène est un enjeu de souveraineté énergétique et que la France est bien placée pour exploiter cette filière. (Interview dans la Tribune)

 

Presque deux ans et demi après le lancement du plan Hulot doté de 100 millions d’euros, pourquoi avoir attendu le plan de relance pour débloquer 7 milliards d’euros et faire émerger une filière de l’hydrogène vert ?

AGNES PANNIER-RUNACHER: L’hydrogène constitue à la fois un enjeu de souveraineté technologique et d’indépendance énergétique, de même qu’il est une brique indispensable à la transition énergétique. Il est un must-have, si j’ose dire, en termes de mobilité – trains, avions, bateaux, engins de travaux publics, machines agricoles – et en matière de décarbonation de l’industrie.

C’est pour cela que l’hydrogène a été identifié dans le plan Hulot et a été un axe important de travail dans la préparation du Pacte productif piloté par Bruno Le Maire et qui, rappelez-vous, devait être présenté en avril 2020. C’est pourquoi cette brique s’est naturellement retrouvée intégrée au plan de relance. Le Conseil de l’innovation l’a en outre mis en avant comme un marché clé sur lequel la France devait rapidement se positionner, et l’Europe en a fait un de ses chantiers de valeurs stratégiques.

Il n’empêche qu’aujourd’hui 95% de l’hydrogène produit dans le monde est gris. Comment allez-vous vous assurer que « le vôtre » sera bien vert ?

A. P-R : L’hydrogène décarboné repose sur l’eau et sur l’électricité issue des énergies renouvelables, mais aussi du nucléaire. Pour nous approcher de la neutralité carbone et lutter contre les gaz à effet de serre, nous devons mobiliser toutes les sources d’énergie qui présentent un bilan carbone meilleur que celui des hydrocarbures.

Sachant que l’hydrogène décarboné est pour l’instant trois à quatre  fois plus cher à produire que l’hydrogène gris (de 4,5 voire 6 euros le kilo contre 1,5 euro) nous apportons un soutien public et investissons dans la R&D pour développer des solutions compétitives. Il s’agit également de favoriser la montée en volume pour amortir les coûts grâce aux économies d’échelle.

C’est toute la philosophie du plan de relance présenté par le gouvernement, tout en développant une brique technologique s’appuyant sur l’existant. Pour ne citer qu’eux, McPhy fabrique des électrolyseurs ; Faurecia des réservoirs ; Safra, Iveco, PSA, Michelin des équipements et véhicules ; sans compter les multiples start-up françaises. Mais cet écosystème n’est pas encore suffisamment solidifié pour constituer une offre puissante et jouer à l’échelle européenne et internationale.

« Petites entreprises: un enjeu central pour l’emploi »

« Petites entreprises: un enjeu central pour l’emploi »

Le sociologue Philippe Trouvé constate, dans une tribune au « Monde », que l’effondrement de l’économie a généré des mesures de soutien indiscriminé aux entreprises, englobant de fait les PME dans la politique économique.

Tribune. A la différence des grandes crises qui ont secoué l’économie mondiale au cours des dernières décennies, celle liée à la pandémie de Covid-19 éclaire d’un jour nouveau le rôle vital des très petites et des petites et moyennes entreprises (TPE et PME), qui pouvaient passer jusqu’ici, à l’heure de la « start-up nation », de la « révolution numérique » et du grand jeu de la « compétitivité mondiale », pour un poids mort.

Lire aussi  Patrons de PME éprouvés par la crise, témoignez

Les crises précédentes – crises asiatiques ou sud-américaines des années 2000, des subprimes en 2008, de la dette en 2010 – se sont surtout déployées dans le noyau dur du capitalisme financier : il s’agissait, pour reprendre la célèbre tripartition de l’économie inventée jadis par l’historien Fernand Braudel (Civilisation matérielle, économie et capitalisme, Armand Colin, 1979), d’un « phénomène d’altitude », touchant les relations commerciales « au loin ». En revanche, la crise présente, déclenchée par des mesures sans précédent de confinement des populations, a affecté en priorité les deux autres étages « braudéliens » de l’économie. D’une part, celui des « structures du quotidien », de « la vie matérielle » des populations qui tentent de satisfaire leurs besoins élémentaires (vie domestique, alimentation, santé…) ; d’autre part, celui des « échanges marchands de voisinage » et de « l’économie d’usage », domaine de la petite production artisanale, commerciale et servicielle.

Dès lors, le maintien de l’activité des plus petites entreprises, souvent les moins visibles et considérées comme les moins productives, est devenu brutalement un enjeu central pour les politiques publiques, habituées jusqu’alors à favoriser la compétitivité des entreprises considérées comme les mieux armées pour s’inscrire dans les chaînes de valeur mondialisées, ou offrant le plus fort potentiel de développement, d’innovation et de création d’emplois – les championnes de la French Tech, les PME insérées dans les « pôles de compétitivité », les « champions nationaux »…

A l’inverse des traditionnelles politiques publiques de soutien à la compétitivité ou à l’innovation, promptes à livrer les canards boiteux aux forces impitoyables du marché, il a fallu adopter un train de mesures plus prosaïques, frapper fort et tous azimuts. D’où le recours à des aides individualisées – là où les mesures de soutien étaient plutôt conditionnées à la capacité de se constituer en réseau, à des interventions à plusieurs niveaux – local, territorial, sectoriel et national –, quand les politiques antérieures prétendaient « cibler » des objectifs macroéconomiques, et enfin au resserrement des « critères d’éligibilité », auparavant complexes et illisibles, sur la sécurisation de la trésorerie à court terme (subventions salariales par l’activité partielle, reports de charges, d’impôts et de cotisations, prêts garantis par l’Etat, fonds de solidarité, etc.).

 

Accord Israël-Emirats: un enjeu géopolitique majeur

Accord Israël-Emirats: un enjeu géopolitique majeur

 

Spécialiste du Moyen-Orient, David Khalfa ,chercheur au Center for peace communications, à New York explique dans l’Opinion pourquoi l’accord entre Israël et les émirats un enjeu géopolitique nouveau.

Quelle est la portée de l’accord de paix signé entre Israël et les Emirats arabes unis (EAU) ?

Israël est né dans le fracas de la guerre. C’était l’ennemi historique, dans la vision panarabe classique qui déniait à ce pays le droit à l’existence. Les Etats arabes avaient formulé, au sortir de la guerre de 1967, les fameux trois non de la « résolution de Khartoum » : non à la paix avec Israël, à la reconnaissance d’Israël et à toute négociation avec Israël. De ce point de vue, l’accord annoncé jeudi marque un changement d’ère et le recul du front du refus.

Ce front avait déjà été fissuré…

Oui, par l’accord de paix de 1979 entre l’Egypte et Israël puis par le traité de paix israélo-jordanien de 1994. Les pays arabes conditionnaient désormais la normalisation de leurs relations avec Israël à la résolution du conflit israélo-palestinien selon la formule de la « terre contre la paix ». Cette position impliquait pour les Arabes un retrait israélien sur les lignes d’armistices de 1949. La signature des accords d’Oslo a accéléré ce processus de normalisation. La décision du Conseil de coopération du Golfe regroupant six monarchies (Arabie saoudite, Qatar, Koweït, Oman, Bahreïn, EAU) d’annuler le boycott des entreprises ayant des relations commerciales avec Israël et l’ouverture de missions diplomatiques israéliennes au Qatar ou à Oman traduisaient cet élan. L’adoption de l’« initiative arabe de paix » du roi Abdallah d’Arabie saoudite, en 2002, constituait une nouvelle étape mais le principe « terre contre la paix » était maintenu tout comme la position traditionnelle sur les réfugiés. Les sceptiques doutaient qu’une authentique normalisation puisse voir le jour en l’absence de concessions significatives d’Israël sur le dossier palestinien. Les pays arabes préféreraient s’en tenir à des relations discrètes au nom d’intérêts stratégiques communs, particulièrement dans la lutte contre les ambitions régionales iraniennes. On se bornait à l’adage : « L’ennemi de mon ennemi est mon ami ». Cet accord est donc le prélude à une profonde évolution du jeu géopolitique régionale.

Comment a-t-il été formalisé ?

Dans le plus grand secret entre Donald Trump, Mohammed ben Zayed et Benjamin Netanyahu, via le leurs conseillers respectifs depuis environ un an et demi. Ni Benny Gantz, vice-premier ministre et ministre de la Défense d’Israël, ni son collègue des Affaires étrangères, Gabi Ashkenazi, ne semblent avoir été associés. Jared Kushner, conseiller de Donald Trump, a joué un rôle très important. Il a empêché le Premier ministre israélien de poursuivre son projet d’annexion d’une partie de la Cisjordanie. Les autres grand artisans sont l’ambassadeur émirati à Washington, Yousef al-Otaiba, proche du gendre du président américain, qui a poussé son avantage en obtenant le retrait de facto du projet d’annexion en échange de l’établissement de relations diplomatiques officielles avec Israël, et Yossi Cohen, le chef du Mossad. Kushner et al-Otaiba ont convaincu le président américain de ne pas écouter l’ambassadeur américain en Israël, David Friedman, favorable à l’annexion.

 

Cet accord ouvre-t-il la voie à la normalisation des relations israéliennes avec d’autres pays ?

Les Etats arabes ont jusqu’ici joué un double jeu. Ils maintenaient la fiction du refus de la normalisation avec Israël tout en encourageant discrètement le dialogue et la coopération. Des rencontres d’experts israéliens et des pays du Golfe se sont multipliées ces dernières années lors de colloques internationaux à Londres et à Washington. Les visites réciproques de représentants ou ex-responsables du renseignement se sont accélérées. On sentait cet accord venir à l’aune de certaines déclarations des dirigeants des monarchies du Golfe, notamment celles de Mohamed Ben Salmane et de Mohammed ben Zayed. Ces déclarations rompaient avec les positions anti-israéliennes traditionnelles des dirigeants nationalistes arabes. Le voyage surprise de Benjamin Netanyahu à Oman en octobre 2018 confirmait ce rapprochement de manière spectaculaire. Israël devrait normaliser, à court ou moyen terme, ses relations avec Bahreïn, Oman, le Soudan et certains pays musulmans d’Afrique.

Comment cela est-il devenu possible ?

L’accord entre les Emirats et Israël marque un changement de perception de l’Etat juif dans le monde arabe. Israël n’est plus considéré par ces pays comme une menace mais comme une force stabilisatrice dans une région volatile et chaotique. Par ailleurs, Israël est une puissance militaire, technologique et économique avec laquelle il faut compter et donc coopérer, en particulier dans le contexte des redéploiements américains au Moyen-Orient. Les monarchies pétrolières et gazières ont compris que le cours des hydrocarbures resterait durablement bas et qu’elles devaient moderniser leurs économies en diversifiant leurs exportations. Israël peut les y aider. L’accord entre Jérusalem et Abu Dhabi évoque d’ailleurs un volet technologique et économique.

Israël se trouve-t-elle dans une nouvelle alliance géopolitique ?

Les rapports de force sont en train d’évoluer. Plusieurs pays arabes sunnites veulent formaliser une alliance de revers avec Israël afin de contrer les ambitions régionales de l’alliance qataro-turque et de l’Iran. Ce dernier est considéré comme le problème de sécurité nationale numéro 1 par les principales puissances sunnites de la région. La Turquie n’a pas tardé à réagir dénonçant le « comportement hypocrite » et la trahison à la cause palestinienne des Emirats arabes unis. Et Téhéran qualifie cet accord de «dangereux » et «illégitime ».

Le timing de cet accord est parfait pour Trump et Nethanyahu…

Il arrive au meilleur moment pour le président américain, en quête d’une réélection mais en perte de vitesse dans les sondages. Tous deux sont par ailleurs accusés d’avoir mal géré la pandémie de Covid-19. Donald Trump, qui a pour l’heure échoué à arracher un accord en Corée du Nord et n’est pas parvenu à faire revenir les Iraniens à la table des négociations, tient son premier succès de politique étrangère. Son rival démocrate, Joe Biden, n’a pu que saluer cet accord. C’est aussi une victoire diplomatique pour Benjamin Netanyahu. Ce dernier était également dans une mauvaise passe, sa coalition bat de l’aile faute d’arriver à établir un budget pluriannuel. Mais il doit maintenant faire face à la grogne du mouvement des colons et à l’opposition de la droite dure qui dénonce une trahison de ses promesses électorales. Le Premier ministre israélien tente de limiter la casse en évoquant une simple « suspension » du projet d’annexion quand Trump parle, lui, d’abandon.

Cet accord aura-t-il un impact sur la politique étrangère de la France ?

La France maintient la fiction diplomatique d’une solution à deux Etats pour résoudre le conflit israélo-palestinien, selon des paramètres qui ne correspondent plus à la réalité du terrain. Elle souhaite la reprise des négociations entre Israéliens et Palestiniens alors qu’une majorité de la population, de part et d’autre, n’y croit plus. Sa position médiane de soutien à la sécurité d’Israël tout en promouvant la cause palestinienne sera plus difficile à tenir, d’autant que son allié émirati a choisi son camp. Toute relance des négociations bute d’ailleurs sur l’incapacité du Fatah et du Hamas à se mettre d’accord pour de nouvelles élections. Le Mouvement national palestinien est en perte de vitesse dans le monde arabe. Son leadership est divisé, corrompu et impopulaire. Seul un renouvellement générationnel permettrait de sortir de l’impasse. Mahmoud Abbas, le patron de l’Autorité palestinienne, a choisi une stratégie visant à internationaliser le conflit et isoler Israël, qui se retourne aujourd’hui contre lui. Il est plus isolé que jamais.

 

« Souveraineté numérique , enjeu de liberté »

« Souveraineté numérique , enjeu de liberté  »

Face aux géants américains et chinois, la France et l’Europe doivent à la fois innover dans les technologies critiques et protéger les consommateurs et les citoyens, explique le haut fonctionnaire, Thomas Courbe, Directeur général des entreprises ( qui dépend du ministère de l’économie)  dans une tribune au « Monde ».U article intéressant mais qui fait un peu l’impasse qui relève de la souveraineté nationale et ce qui dépend de la souveraineté européenne. De ce point de vue, la récente décision du tribunal et 14 milliards de fiscalités que doit Apple ( avec la complicité de l’Irlande ) permet de s’interroger sur le champ géographique des enjeux de liberté.

 

Tribune.

 

«  La position dominante des géants américains du Web et de leurs concurrents chinois représente un véritable défi pour la France et l’Union européenne. La bataille pour la maîtrise des « technologies clés », illustrée par les tensions sino-américaines, est également décisive. Face à ces enjeux, la souveraineté numérique sera la condition essentielle de notre liberté et de la transformation réussie de notre économie.

Il ne s’agit pas de remettre en cause les liens d’interdépendance nés de la mondialisation, mais bien d’en infléchir les modalités. Les pouvoirs publics agissent en ce sens, guidés par une doctrine simple : maîtriser à la fois les technologies critiques et les règles applicables à l’environnement numérique pour préserver notre indépendance. Par exemple, la nouvelle génération de réseaux de téléphonie mobile (5G) permettra des usages nouveaux, à forte valeur économique, tels que le véhicule autonome ou l’usine connectée, mais engendrera également des risques nouveaux : la loi sur la sécurité des réseaux mobiles, promulguée le 1er août, va ainsi assurer que l’ensemble des équipementiers de téléphonie mobile pour la 5G réponde à nos préoccupations en matière de sécurité.

Maîtriser les technologies critiques, c’est assurer la robustesse de notre environnement numérique, en France et en Europe.

De manière offensive, la France soutient la croissance des secteurs innovants, spécialement à travers ses stratégies pour l’intelligence artificielle et la Blockchain. La mise en place récente d’un « projet important d’intérêt européen commun » dans le domaine de la microélectronique illustre aussi cette ambition. Ce projet crucial pour le développement industriel du futur mobilisera près de 2 milliards d’euros de soutien public et devrait générer 6 milliards d’euros supplémentaires d’investissements privés. Une coopération renforcée avec nos partenaires européens et des investissements publics et privés importants doivent nous permettre, à terme, de concevoir et produire nous-mêmes des technologies sûres et performantes.

Sur un plan défensif, les enjeux liés à notre autonomie stratégique en matière technologique et à la cybersécurité doivent être au cœur de nos réflexions. Les effets du Cloud Act américain de 2018, qui clarifie – et facilite – l’accès des autorités américaines aux données hébergées en dehors des Etats-Unis, sont particulièrement surveillés par les services de l’Etat. Des travaux sont en cours avec le secteur industriel afin d’ajuster les leviers technologiques et juridiques nécessaires à la protection de nos informations stratégiques, notamment en encourageant le développement d’offres de cloud de confiance.«

Hongkong : un enjeu de paix, de démocratie et de liberté

Hongkong : un enjeu de paix, de démocratie et de liberté

Avec la loi relative à la sécurité nationale, imposée le 30 juin par Pékin à Hongkong, , c’est  la mort du modèle unique développé par cette île et le risque  d’« une nouvelle guerre froide » entre la Chine et les Etats-Unis, analyse, dans une tribune au « Monde », l’universitaire Lun Zhang.

 

 » Hongkong est morte ! Cette phrase, je ne cesse de la répéter depuis un certain temps, surtout depuis l’an dernier. C’est à présent confirmé : l’application de la loi relative à la sécurité nationale fait de Hongkong une ville semblable aux autres villes chinoises du point de vue politique. « Un pays, deux systèmes » devient une expression désuète.

Il est vrai que la Bourse de Hongkong peut encore afficher une image relativement sérieuse. Grâce d’une part aux fonds mobilisés par Pékin pour la soutenir et, d’autre part, aux capitaux des entreprises chinoises se retirant du marché américain à la suite du contrôle de plus en plus sévère de l’administration américaine. Le secteur des services hongkongais pourra garder une prospérité relative si la pandémie reste sous contrôle et si les dépenses et l’investissement des continentaux s’y maintiennent. Ces derniers tentent, en effet, d’échapper à une situation économique et politique qui ne cesse de se dégrader en Chine continentale.

Néanmoins, la situation de Hongkong ne pourra pas se stabiliser comme le souhaitent Pékin et certains hommes d’affaires hongkongais ou étrangers, et ce malgré une loi extrêmement dure en termes de répression. Cette loi demeure volontairement floue sur la définition de certains crimes, laissant à Pékin une très grande latitude pour condamner à son gré. La perle d’Orient s’éteint ; une page historique est décidément tournée.

Pour le comprendre, il faut se rappeler que Hongkong est d’abord un produit « mixte » issu de deux cultures, orientale et occidentale, mélange de tradition et de modernité, à la périphérie de la Chine, mais représentant l’Occident en Orient. Son charme et son dynamisme proviennent de ce mélange qui est lié à une période historique aujourd’hui révolue, à l’origine de ses forces mais aussi de ses faiblesses.

Les institutions britanniques, qui garantissaient les libertés individuelles, tout comme la fuite des cerveaux, de la main-d’œuvre et des capitaux de la Chine continentale, après la prise du pouvoir par les communistes, lui ont permis un décollage économique significatif. Ces facteurs ont posé les bases de son rayonnement international.

A cela s’ajoute une conjoncture internationale favorable. Si le succès d’hier de Hongkong est en partie le résultat de la guerre froide, son destin tragique d’aujourd’hui est aussi lié à un nouveau rapport de force, à une nouvelle guerre froide qui s’amorce.

La situation actuelle constitue, en effet, la première bataille de cette nouvelle guerre froide qu’on peut qualifier de warm war (« guerre tiède »), en raison du niveau et de la nature du conflit entre la Chine et les Etats-Unis. La température peut varier y compris jusqu’à la rupture des liens commerciaux ou même un conflit armé. Cette « troisième guerre mondiale » provoque l’ébranlement des organisations internationales. L’ordre mondial est en passe d’être modifié profondément. »

 

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol