Archive pour le Tag 'enjeu'

Page 3 sur 5

Simplification de l’entreprise : un enjeu de performance

Simplification de l’entreprise  : un enjeu de performance

 

 Rémy Boulesteix, associé KPMG, et Florent Chapus, directeur associé d’EIM soulignent  dans la Tribune  l’intérêt de la simplification du fonctionnement de l’organisation, au service de la performance et du rebond. Une approche largement plébiscitée par des dirigeants d’entreprise.

 

 

Cette nouvelle approche de la gouvernance d’entreprise, destinée à décomplexifier la prise de décision, est à l’origine d’une plus grande agilité dans l’exécution de la stratégie et d’une réaffirmation d’une vision à long terme pour l’entreprise. Elle induit cependant, dans un premier temps, un resserrement des liens entre les membres de l’équipe de direction, permettant une collaboration encore plus intégrée entre les fonctions clés de la société.

Resserrer l’équipe dirigeante pour accélérer la prise de décision

Simplifier la prise de décision est un levier essentiel pour aider l’entreprise à mieux faire face à des crises telles que celle que nous venons de vivre. Ce processus est conditionné par une pleine solidarité et une collaboration renforcée des instances de direction. Cela implique de « bien aligner l’équipe dirigeante de manière à assurer un niveau d’implication et un équilibre des compétences adaptés aux circonstances », comme le souligne Patrick Bléthon, directeur général de Saur.

Dans une phase où les demandes du terrain frôlent la saturation, chaque direction stratégique doit pouvoir assumer la gestion des problématiques non critiques, et apporter – en bonne intelligence avec le reste de l’équipe – des éléments de réflexion tangibles au dirigeant pour permettre « une rapidité dans l’exécution et la transformation, essentielle pour assurer la réactivité de l’organisation face à ses impératifs stratégiques », selon Philip Demeulemeester, directeur général d’Aldi France. De ces inflexions, pourront découler des objectifs clairs pour les managers sur le terrain qui doivent, parallèlement, bénéficier d’une plus grande marge de manœuvre.

Décentraliser la gestion et le management pour renforcer l’agilité des équipes

« Un management exclusivement top-down ne permet pas de relever les défis de la croissance, bien au contraire » rappelle Bertrand Dumazy, PDG d’Edenred. Face à un environnement de plus en plus complexe et une conjoncture incertaine, la décentralisation du management est ainsi un facteur de performance et de résilience à ne pas négliger. Pour cette raison, les décisionnaires sur le terrain doivent pouvoir bénéficier d’un droit à la prise de risque, en vertu de leurs compétences spécifiques et de leurs connaissances des équipes qui évoluent auprès d’eux. Et ce, avec le niveau d’autonomie nécessaire pour ne pas avoir à rendre des comptes systématiques ou attendre des validations à différents niveaux hiérarchiques avant de passer à l’action.

Cette horizontalisation de la prise d’initiative induit néanmoins chez le dirigeant un fort engagement en termes de communication et de transmission d’informations afin de formuler des ambitions claires. Par ce biais, il doit ainsi faire en sorte que les managers disposent de toutes les données nécessaires pour identifier par eux même les moyens d’atteindre les résultats attendus. Cela implique, parallèlement, des lignes de fuite explicites quant au positionnement de l’entreprise à plus long terme.

Réintroduire du temps long pour créer un horizon commun

Pour permettre aux fonctions opérationnelles d’être efficaces dans un contexte tendu, il est capital qu’elles connaissent la direction que souhaite emprunter l’entreprise et la manière dont elles peuvent s’inscrire dans l’atteinte de ses buts à moyen et long terme. À ce titre, l’équipe de direction est amenée à jouer un rôle important, via le discours et les actes managériaux, afin de « redonner du sens à l’action des équipes via une reconnaissance explicite, les raccrocher à la stratégie et les faire adhérer à une vision du business », pour reprendre les mots de Gilles Clavié, directeur général d’AccorInvest.

Par ce biais, s’établit une hiérarchie des priorités et un horizon commun à l’ensemble des collaborateurs, qui permet de faire (en partie) taire les doutes et les incertitudes qui surviennent naturellement dans une période de crise. C’est avec des perspectives simples et des convictions partagées par toutes les équipes que le collectif pourra garder confiance en l’avenir et faire preuve de positivisme et de résilience face aux difficultés qui s’annoncent dans les prochains mois : inflation, remboursement des PGE, guerre des talents…

Réguler les plates-formes: Un enjeu démocratique

Réguler les plates-formes: Un enjeu démocratique 

Réguler le contenu des réseaux sociaux doit moins passer par la contrainte que par la préservation des droits individuels face aux géants du Web, estime le juriste Winston Maxwell dans une tribune au « Monde ».

 

Tribune.

La haine en ligne, mais aussi les contenus illicites de toute nature et les infox préoccupent les régulateurs du monde entier. Selon un récent rapport de la Commission européenne, un tiers des contenus haineux en ligne signalés ne sont pas supprimés par les réseaux sociaux. Ces réseaux sont quotidiennement mis en cause, soit parce qu’ils ne font pas assez pour maîtriser la viralité des contenus préjudiciables, soit parce qu’ils en font trop, en éliminant certains contenus et utilisateurs sans autre forme de procès. Certains comparent Facebook, avec sa « Cour suprême » privée, à un Etat souverain. Les grandes plates-formes ont un rôle structurant dans notre débat public et sont devenues, comme la radio et la télévision, des médias ayant une forte influence sur la société. Il ne s’agit pas, bien sûr, de réguler ces réseaux comme la télévision, car le rôle des réseaux sociaux est différent, et une régulation trop stricte créerait une ingérence intolérable dans la liberté d’expression. Mais le besoin d’un encadrement réglementaire est devenu flagrant, sur deux fronts.

 

Le premier front consiste à inciter les réseaux sociaux à trouver des solutions, notamment algorithmiques, pour réduire la présence et la viralité de contenus haineux. Le projet de règlement européen Digital Services Act, actuellement en négociation à Bruxelles, obligerait les plates-formes à effectuer un diagnostic interne sur les risques systémiques créés par leurs services et à proposer des solutions pour réduire ces risques. Devançant le règlement européen, la loi française du 24 août 2021 impose aux réseaux sociaux de mettre en place des mesures techniques et organisationnelles permettant de fluidifier le traitement des signalements, sous le contrôle du Conseil supérieur de l’audiovisuel (CSA). En matière de régulation des contenus, l’Etat doit rester le plus neutre possible, afin de minimiser l’impact sur la liberté d’expression.

Dans les années 1990, on croyait que la multiplication des points de vue sur Internet était la meilleure garantie d’une liberté d’expression saine (la théorie du « marketplace of ideas »). La législation américaine (Communications Decency Act, adopté en 1996) et européenne (directive « Commerce électronique », en 2000) est construite sur cette théorie de laisser faire. Aujourd’hui, nous nous rendons compte que la quantité des points de vue n’est pas une garantie suffisante, car sans un minimum d’encadrement, cette abondance peut conduire à des dérives mettant en péril l’objectif même de la liberté d’expression, à savoir la préservation du débat démocratique. D’où la nécessité de redonner vie à la régulation audiovisuelle, et en France au rôle du CSA, pour réguler les réseaux sociaux en tant que médias à forte influence, tout en s’efforçant de préserver l’espace de liberté inédit créé par ces plates-formes.

Lanceur d’alerte : enjeu démocratique

Lanceur d’alerte : enjeu démocratique

 

La loi Sapin 2 est insuffisante et la France doit se doter d’une législation plus complète et plus étendue, d’après ,un collectif de représentants d’ONG et de syndicalistes dans une tribune au « Monde »

 

Tribune.

 

Plus que jamais, l’actualité démontre à quel point les lanceurs d’alerte sont indispensables au bon fonctionnement de la démocratie. Des révélations de Frances Haugen sur la manière dont Facebook privilégie le profit au détriment de la sécurité de ses utilisateurs, aux « Pandora Papers » qui jettent à nouveau une lumière crue sur la fraude fiscale, il ne se passe pas un seul jour sans que l’importance de ces vigies ne soit rappelée.

Sans ces révélations, nombre de scandales financiers, sanitaires ou environnementaux resteraient inconnus du grand public, et les auteurs de ces méfaits, impunis. Pourtant, ces simples citoyennes et citoyens qui se dressent pour protéger l’intérêt général et le bien-être de chacun restent bien mal lotis. Intimidations, licenciement, mise au placard, menaces… restent le lot quotidien de ces hommes et femmes : il est donc urgent d’améliorer leur protection.

C’est pour cette raison que, en 2017, la France s’est dotée d’une loi générale de protection des lanceurs d’alerte, la loi Sapin 2. Cette loi, si elle a marqué un premier pas vers un statut du lanceur d’alerte, est insuffisante. La directive européenne de 2019 vient pallier certaines de ses défaillances, notamment en écartant l’obligation d’une alerte interne préalable qui amenait trop souvent les lanceurs d’alerte à se mettre en danger. Mais cette directive à elle seule ne comblera pas toutes les lacunes de notre législation.

Il n’est plus possible de se contenter de mots ou de se cantonner à des effets de manche. Les pouvoirs publics doivent agir et vite. Pour que les faits répréhensibles dénoncés cessent, et pour que les lanceurs d’alerte ne soient pas exposés à des risques de représailles, le Parlement et le gouvernement doivent être les moteurs d’une transformation profonde de la culture de l’alerte au bénéfice de toutes et tous. La transposition de la directive est une occasion immanquable !

C’est à cette fin que notre coalition d’associations et de syndicats a publié douze propositions concrètes dont plusieurs ont été reprises par le député Sylvain Waserman : renforcement du rôle du Défenseur des droits en matière d’accompagnement, mise en place d’une véritable immunité pénale incluant les actes nécessaires à l’obtention des informations, obligation pour les autorités de déployer une aide financière et psychologique…

Ses deux propositions de loi doivent être défendues aussi bien par les parlementaires, qui doivent les adopter dans les meilleurs délais – car le temps presse ! –, que par le gouvernement qui doit affirmer publiquement son soutien et montrer, à la veille de la présidence française du Conseil de l’Union européenne (UE), qu’une transposition ambitieuse de la directive est possible, et dans le délai imparti, soit avant le 17 décembre 2021.

Le plan de relance européen : Enjeu

Le plan de relance européen : Enjeu

Pour dépasser les débats stériles entre comptables souverainistes et prophètes macronistes, Yves Bertoncini, spécialiste des questions européennes explique, dans une tribune au « Monde », qu’il faut tenir compte des dimensions économiques, financières et fiscales du plan de relance européen pour en saisir la portée et les enjeux politiques.

 

Tribune. 

Le plan de relance pour l’Europe (baptisé « Next Generation EU ») a pu être adopté en juillet 2021, fût-ce dans la douleur, car les vingt-sept Etats-membres de l’Union européenne (UE) ont tous considéré qu’il était dans leur intérêt que des aides financées par un emprunt commun puissent être versées afin d’endiguer la crise liée au coronavirus.

Il s’est agi alors d’envoyer un signal macroéconomique aux Etats, à travers une contribution exceptionnelle équivalant à environ 1 % du produit intérieur brut (PIB) de l’UE sur trois ans, et qui complète les interventions de la Banque centrale européenne (BCE) et d’autres subsides communautaires et nationaux. Tout comme il s’est agi d’adresser un signal de solidarité politique aux citoyens et aux investisseurs, faisant écho à la volonté des Européens de préserver la cohésion de l’UE, le « marché intérieur », en prenant à nouveau acte de leur interdépendance économique.

Cette interdépendance explique pourquoi les bénéfices du plan de relance européen doivent être évalués sur une base transnationale, et pas seulement au regard de l’aide obtenue par tel ou tel pays (40 milliards d’euros pour la France). Si des partenaires aussi importants que l’Italie et l’Espagne n’avaient pas eu l’assurance de recevoir une aide massive de l’UE, leur déconfiture économique et financière aurait en effet eu des conséquences très négatives en France, au-delà des considérations purement comptables et boutiquières.

Il est loisible de souligner que la France aurait pu s’endetter seule, sans doute à un coût un peu inférieur – même si cela aurait pesé sur son endettement public, qui se rapproche désormais des 120 % du PIB… Mais on ne saurait oublier que notre voisin italien, encore plus lourdement endetté, aurait eu bien d’avantage de difficultés à se financer sur les marchés – d’où l’apport précieux de « Next Generation EU » au-delà des Alpes et, par ricochet, de ce côté-ci aussi.

La solidarité financière incarnée par « Next Generation EU » a aussi une dimension temporelle : si l’ensemble des subventions et des prêts prévus (qui pourront aller jusqu’à 750 milliards d’euros) ont vocation à être décaissés pour accompagner la sortie de crise, entre 2021 et 2023, leur remboursement sera lui étalé sur une trentaine d’années, jusqu’en… 2058.

Ce décalage temporel est lui aussi constitutif d’un apport financier immédiat et bienvenu, en une période particulièrement critique : la France recevra ainsi 40 milliards en trois ans, alors qu’elle n’aura à contribuer qu’à moyen et long terme au remboursement de l’emprunt ayant permis le lancement du plan de relance de l’UE.

 

La monnaie : aussi un enjeu civique

La monnaie : aussi un enjeu civique

 

 

 

Par Patrice Baubeau, Université Paris Nanterre – Université Paris Lumières (*)

Un petit détour par l’histoire permet de replacer dans un cadre plus large la question des trois fonctions de la monnaie identifiées traditionnellement : étalon des valeurs, intermédiaire des échanges et réserve de valeur. Cette mise en perspective révèle ainsi une quatrième fonction fondamentale, l’identification, qui dénote l’origine commune, politique et sociale, du fait monétaire.

Les outils monétaires émergents, cryptomonnaies du type bitcoin, cryptomonnaies d’État, ou encore monnaies virtuelles utilisées dans les jeux vidéo, donnent un poids particulier à cette fonction d’identification et aux conséquences politiques et sociales qui y sont attachées.

La question de l’identification apparaît au côté des analyses de la monnaie par Aristote, dans Le Politique et L’Éthique à Nicomaque, ouvrages qui portent principalement sur la Cité, ses limites, son organisation, sa justice. Il développe ainsi, à la suite de Platon, une réflexion politique et citoyenne qui associe les limites de la Cité avec la naissance de la monnaie, dont l’usage dévoyé peut entrer en conflit avec les règles de la Cité idéale : en faisant primer le gain du commerce extérieur sur la solidarité des échanges intérieurs ; la valeur d’échange sur la valeur d’usage ; l’espace infini des désirs et des spéculations sur le domaine limité des besoins.

Bref une telle monnaie, dégagée de ses enjeux civiques, tend à devenir sa propre fin, alimentant inégalités et discordes au sein de la Cité. C’est pourquoi la monnaie, objet politique, est également un marqueur de citoyenneté : son usage insère l’usager dans une communauté politique, sociale et éthique et l’y identifie.

Cette fonction d’identification de la monnaie n’est pas demeurée l’apanage des Cités grecques : un caractère constant des monnaies est le souci des émetteurs – à moins qu’ils ne soient contrefacteurs – d’identifier leur origine, le plus souvent territoriale ou politique par des marques indiquant le lieu de production, l’émetteur ou la date.

La multiplication, depuis les années 1970, des monnaies sociales et complémentaires correspond d’ailleurs le plus souvent à un projet « territorial » consistant à constituer un espace monétaire solidaire et de petite taille. Ce faisant, l’usage de la monnaie peut devenir non seulement militant (économie durable, alternative, écologique…) mais appuyer ou manifester une identité – c’est notamment le cas de l’eusko basque.

Le cash n’est pas synonyme d’anonymat

Or cette quatrième fonction, cette fonction d’identification, est largement négligée en économie – les historiens et plus spécialement les numismates y sont au contraire très attentifs. Pourtant, sa prise en compte entraîne deux apports importants.

En premier lieu, elle renverse la perspective usuelle sur l’anonymat. L’anonymat n’apparaît plus comme une propriété du cash, mais devient l’une des modalités de l’identification par la monnaie, ce qui permet d’ailleurs une approche beaucoup plus graduée.

En effet, comme nous l’avions écrit dans un article de recherche en 2016, il n’y a pas « un » anonymat : l’anonymat est toujours, en fait, un anonymat à l’égard d’une personne ou d’une institution. Il est donc susceptible de configurations variées, lesquelles s’inscrivent, de ce fait, dans une fonction générale d’identification.

Ainsi, le paiement habituel en espèces auprès d’un commerçant que l’on connaît n’entraîne bien évidemment aucun anonymat du payeur à l’égard dudit commerçant. En revanche, il garantit l’anonymat des clients du commerçant à l’égard de son banquier ou de son percepteur.

De même, l’usage d’une carte de paiement sans contact aboutit à un anonymat presque entier du client envers le commerçant, le reçu de paiement ne comprenant aucun élément d’identité exploitable, mais identifie précisément le client auprès de la banque émettrice de la carte de paiement ou de celle tenant les comptes du commerçant.

De manière générale, un processus de « nationalisation » de la monnaie a fait progressivement coïncider les limites de l’État moderne et celles des espaces monétaires dont ces États sont devenus les maîtres.

Parallèlement, l’État assume une autre fonction cruciale pour le bon fonctionnement de la vie civique et sociale, au-delà des seuls systèmes de paiement : l’identification des personnes. Cette fonction s’est considérablement étoffée depuis le XIXe siècle avec le développement des diverses formes d’état civil et de sécurité sociale ainsi que l’essor du vote personnel.

En conséquence, dans un État de droit, non seulement les individus ont un droit à l’identité que l’État ne peut leur dénier, mais les modalités de l’identification relèvent du domaine de la loi, avec les garanties juridiques qui l’entourent.

Les innovations monétaires changent la donne

Aujourd’hui, les nouveautés monétaires viennent rappeler l’importance de cette quatrième fonction d’identification. Un premier modèle, déjà ancien, a consisté à délimiter des espaces virtuels au sein desquels des formes monétaires spécifiques sont employées : les plates-formes de « jeu » massivement multijoueurs prévoient généralement des techniques d’accumulation de symboles de richesse en vue d’attacher des objets, des services ou des compétences aux avatars.

Déjà, dans ce cas, l’étanchéité entre virtuel et réel est imparfaite, puisque des « fermes » de joueurs se sont développées en vue d’acquérir dans l’univers virtuel des objets ou des capacités ensuite revendues en monnaie réelle aux joueurs désireux de performance. Cela revient en quelque sorte à échanger, via des biens et services virtuels, une monnaie virtuelle contre une monnaie réelle.

Dans ce contexte, l’identification se déroule au sein de l’univers clos de la plate-forme considérée, puisque les « identités » des avatars sont entièrement contrôlées par le prestataire. Celui-ci détermine aussi les conditions d’émission et d’usage de « sa » monnaie. On retrouve, mais limité à un univers fermé et virtuel, le modèle de contrôle de la monnaie et des identités que réalisent les États territoriaux.

Le second modèle, beaucoup plus récent, découle de l’innovation représentée par la blockchain. Cette dernière inclut en son sein un dispositif d’identification qui permet de valider la transaction entre un vendeur et un acheteur et qui met l’enregistrement de cette validation à la disposition des autres participants au système de paiement.

D’un côté, l’identification des transactions rend indispensable l’identification des utilisateurs qui effectuent des échanges. Mais de l’autre, cette identité correspond à celle qui est déclarée au sein de l’espace monétaire virtuel, et non pas à une identité telle qu’elle est reconnue par un État. D’ailleurs, rien n’empêche un agent économique de se créer un avatar différent pour chacune des cryptomonnaies existantes, voire d’y associer des adresses IP (celles qui caractérisent les machines qui accèdent à Internet) différentes. Ce n’est pas un hasard si le bitcoin est rapidement devenu la devise préférée des cybercriminels

C’est ici que le projet de monnaie virtuelle diem (ex-libra) de Facebook prend tout son sens. Les usagers y ont une identité, garantie par la plate-forme et à laquelle, de plus en plus, des droits et des devoirs sont attachés, qui portent sur la liberté d’expression, l’intégrité du « profil », et même le destin post-mortem des comptes.

Facebook est donc en mesure d’identifier, très précisément, ses usagers. C’est d’ailleurs le cœur de son business model : vendre les caractéristiques individuelles de ces profils. Si une monnaie propre, ou presque, telle que le diem, est associée à l’écosystème Facebook, l’entreprise ou, plus sûrement, la constellation d’intérêts lucratifs dont Facebook est le cœur, sera en mesure de gérer simultanément des actifs monétaires propres et les preuves d’identité afférentes à leur usage.

 


La gestion de la monnaie par les États peut également conduire à des catastrophes telles que l’épisode hyperinflationniste allemand au début des années 1920. WikimediaCC BY-SA

Or, laisser la monnaie dans des mains entièrement privées n’est pas toujours une bonne idée, même si la gestion de la monnaie par les États a également abouti à des catastrophes, à l’image des épisodes hyperinflationnistes en Allemagne en 1923, en Hongrie en 1946 ou au Zimbabwe depuis l’an 2000. Laisser l’identification des êtres humains dans les mains privées est encore pire : que devient un être humain dont la seule preuve d’existence est un acte privé, éventuellement cessible et dont les tiers ne peuvent prendre connaissance ?

Ainsi, abandonner au plus offrant ces deux éléments clés de la construction de la Cité antique ou de l’État moderne que sont la monnaie et l’identité annonce le pire des mondes.

Des solutions existent, anciennes ou nouvelles. Les monnaies digitales de banque centrale (CBDC), à l’essai en Asie ou en Europe, en témoignent. Elles limitent le risque d’entraîner la substitution d’une forme lucrative d’identité à la forme civique dont nos droits dépendent, en soumettant le paiement à l’identification plutôt que l’inverse.

Dans un monde où l’émission d’actifs monétaires, la création d’identités et la gestion des profils correspondants ne sont plus du seul ressort des États, il devient en effet urgent de réfléchir à l’articulation de ces différentes dimensions afin de conserver les bénéfices des innovations suscitées par l’essor d’Internet sans y perdre nos droits, nos biens et nos êtres. Et donc de prendre en compte la quatrième fonction de la monnaie : l’identification.

_______

(*) Par Patrice Baubeau, Maître de conférence HDR, Histoire, histoire économique, Université Paris Nanterre – Université Paris Lumières.

Climat–Taxe carbone: « enjeu contre le réchauffement »

Climat–Taxe carbone: « enjeu contre le réchauffement »

 

 Ruth Guerra et Stéphane Chasseloup, associés du cabinet KPMG Avocats abordent l’enjeu de la taxe carbone vis-à-vis du climat dans une interview à l’Opinion.

 

Que prévoit le projet de la Commission européenne ?

Ruth Guerra : C’est une première, le « paquet » de 12 mesures qui sera présenté le 14 juillet donne une vision transverse pour atteindre les objectifs européens de réduction d’émissions de CO2. Il concerne aussi bien les transports et les énergies renouvelables, que la performance énergétique des bâtiments, l’instauration d’un mécanisme carbone aux frontières (CBAM), ou la réforme de la directive sur la taxation de l’énergie… Tout est remis à plat pour permettre d’atteindre la neutralité climatique en 2050, en mettant l’Union sur la voie d’une réduction d’au moins 55 % de ses émissions nettes de CO2 d’ici à 2030.

Quel est l’intérêt du mécanisme carbone aux frontières, une taxe qui ne dit pas son nom ?

Stéphane Chasseloup : La finalité de ce mécanisme est de lutter contre le risque de délocalisation d’industriels, tentés d’échapper au coût de la pollution carbone. Pour lutter contre le réchauffement climatique, peu importe le lieu de production, il faut qu’un produit polluant supporte une taxe ou un coût équivalent à ses émissions de CO2. Cela revient à taxer également ce qui l’est déjà dans l’Union européenne (UE) et ce qui est produit hors de l’UE. Pour être certain d’être conforme à la réglementation de l’Organisation mondiale du commerce (OMC), l’idée est de répliquer, en miroir, l’actuel système européen d’échange de quotas d’émissions de gaz à effet de serre (ETS).

C’est-à-dire ?

S. C. : Sur le papier, le mécanisme est assez simple : je suis importateur d’acier, par exemple. Je fixe le volume que je compte importer sur un an, ce qui va déterminer le nombre de certificats CBAM qui régleront la quantité de CO2 émise lors de la production du produit importé. Le 31 mai de l’année suivante, je fais le bilan. Si j’ai importé davantage que prévu, j’achète plus de certificats. Dans le cas contraire, je revends des certificats sur le marché, comme c’est le cas aujourd’hui. A ce stade, les secteurs ciblés sont le ciment, l’acier, l’aluminium, les engrais et l’électricité, mais on comprend que cela évoluera dans le temps. L’importateur sera doté d’un numéro auprès d’une autorité CBAM, qui n’existe pas encore, à reporter sur sa déclaration d’importation.

Mais qui évaluera le volume de CO2 contenu dans un produit importé ?

R. G. : Le projet prévoit que l’importateur, sur la base des informations fournies par le fournisseur, calcule son impact carbone. C’est très compliqué. Il prévoit aussi la possibilité qu’un « vérificateur indépendant » aille auditer et attester la réalité des émissions des entreprises étrangères. Personne n’arrive à imaginer que ce système puisse fonctionner d’un point de vue pratique. La troisième option, c’est la valeur par défaut, fondée sur les 10 % des producteurs les plus polluants dans l’UE, par catégorie de marchandises.

Comment s’assurer que ce dispositif ne sera pas considéré comme discriminatoire au regard des règles de l’OMC ?

S. C. : L’Etat français a été le premier à affirmer qu’il n’y avait pas de sujet sur ce point. Or, il y en a un, ce sont les quotas gratuits. Pour éviter la fuite d’entreprises lorsque le coût du carbone communautaire grimpe au-dessus de ce qui se pratique ailleurs, on a octroyé des quotas d’émission gratuits à certains opérateurs. Mais si l’Europe commence à taxer le CO2 aux frontières, il faut traiter équitablement les membres de l’UE et les autres pays. S’il y a des quotas gratuits dans l’UE, il en faut aussi à l’entrée. Du coup, l’idée est de supprimer progressivement les quotas gratuits. Mais bien sûr, ceux qui y sont aujourd’hui éligibles protestent bruyamment. Bruxelles vient de les renouveler jusqu’en 2030, et les pays extérieurs à l’UE préviennent qu’ils attaqueront le CBAM s’il est considéré comme une barrière à l’entrée…

Combien est censé rapporter ce dispositif ? Et à quelle échéance ?

R. G. : Entre 5 et 14 milliards d’euros, ce qui démontre qu’il est difficile d’identifier le coût carbone de ce qu’on importe. L’objectif n’est de toute façon pas à finalité budgétaire. L’ambition est de créer des « vocations », de susciter des accords bilatéraux avec les Etats-Unis, la Chine et beaucoup d’autres zones géographiques. Si tout le monde s’engage sur une fiscalité carbone, il n’y aura plus besoin de mécanisme aux frontières et cela évitera toute distorsion de concurrence. On sent la volonté politique de l’Europe d’être pionnière sur le sujet, et fer de lance d’un dispositif plus mondial.

S. C. : Concernant le calendrier, le texte doit en principe être voté en 2023 pour une entrée en vigueur à partir de 2026, avec une période transitoire jusqu’en 2030, voire 2036. Il faut créer les mécanismes en droit interne, revoir les systèmes de contrôle douanier, mettre sur pied une autorité CBAM… La montée en puissance du système sera concomitante à la suppression des quotas gratuits. Mais il faut que les industriels prennent en compte dès maintenant la composante environnementale de la production hors UE.

L’autre gros sujet, c’est la révision de la directive sur la taxation de l’énergie. Quel est l’enjeu ?

R. G. : Aujourd’hui, la fiscalité de l’énergie est une fiscalité de rendement. Le projet d’augmentation de la taxe carbone en France en 2019 consistait en une majoration des différentes taxes existantes (TICGN, TICPE…), qui a mené aux Gilets jaunes. La nouvelle directive prévoit que la fiscalité énergétique soit corrélée à la part carbone de l’énergie utilisée. Plus une énergie est carbonée, plus elle sera taxée. Cela devrait bouleverser les étiquettes. Compte tenu de leurs émissions de CO2, le taux minimum de taxation sur le gaz naturel, les fiouls lourds et les énergies fossiles devrait augmenter. Mais ce sera une fiscalité beaucoup plus cohérente avec les objectifs de neutralité carbone de l’Europe.

Ce sera donc politiquement plus « vendable » ?

S. C. : L’engagement politique est plus fort aujourd’hui sur ce sujet. La Commission espérait que la révision soit adoptée avant la fin de l’année, mais les débats continueront vraisemblablement jusqu’à la présidence française de l’UE l’an prochain. La portée de cette directive dépendra ensuite de sa transposition en droit national, ce qui est toujours très complexe quand on regarde les arrêts de la Cour de Justice… Le texte vise en tout cas à harmoniser au niveau européen les taux planchers de taxation, ainsi que les exonérations obligatoires et facultatives.

La fiscalité est un chemin inévitable dans la lutte contre le réchauffement climatique ?

R. G. : C’est un passage obligatoire. Mais cela implique que des procédés de production industrielle mis en œuvre actuellement soient revus en profondeur. Le sujet de la fiscalité énergétique est d’une grande complexité car il nécessite une vision transverse des concepts fiscaux et issus du droit de l’énergie et de l’environnement.

Données personnelles, un enjeu de souveraineté.

Données personnelles, un enjeu de souveraineté. 

L’enjeu des données qui transitent chaque jour vers les Etats-Unis et la Chine au détriment de l’Europe est infiniment plus grand que la production de masques en tissu sur le territoire national », mettent en garde Robin Reda et Jean-François Husson  , le député de l’Essonne et le sénateur de Meurthe-et-Moselle

Tribune dans l’Opinion

Chaque jour, 80% des données émises par les Français sur les plateformes numériques, sur nos smartphones, ou par nos objets connectés sont captées par les Etats-Unis et la Chine parce que les logiciels source y sont résidents. A l’heure où le gouvernement s’interroge sur le tracking des malades infectés du Covid-19 par le biais d’une application smartphone, il y a fort à parier que les géants du web étrangers sont déjà capables d’établir une cartographie de l’épidémie en Europe à partir de nos conversations personnelles sur les réseaux sociaux, de rendez-vous médicaux conclus sur les applications médicales ou des écarts au confinement à domicile qui échappent aux autorités mais dont le trajet reste en mémoire dans les serveurs de Waze.

Si les données personnelles renseignent par définition sur un individu, elles sont surtout des données communes : ainsi le répertoire d’un téléphone portable renseigne sur les liens qu’entretient une personne avec un nombre considérable d’autres personnes. L’ensemble de ces données constitue un véritable patrimoine national. Or celui-ci ne fait l’objet d’aucun contrôle, est ouvert à tous les vents, commercialisable sans limite alors même qu’il constitue une part de nos vies privées, de nos intimités.

La crise actuelle nous invite à repenser notre souveraineté. Relocaliser la production d‘industries comme celle du médicament ou des masques en France est une nécessité. Mais celle-ci doit impérativement s’accompagner d’une nouvelle souveraineté sur nos données : une véritable souveraineté numérique. La valeur ajoutée de la quantité des données qui transitent chaque jour vers les deux grandes puissances mondiales en passe de réactiver des guerres commerciales au détriment de l’Europe est infiniment plus grande que la production de masques en tissu sur le territoire national sur fond de rhétorique industrielle martiale.

Pour maîtriser notre destin, il est temps de comprendre le basculement du monde dans l’économie de la donnée. Si ce patrimoine numérique qui renseigne sur chacun d’entre nous, n’est pas stocké et protégé en France, il continuera d’alimenter des bases de données extraterritoriales qui asphyxient définitivement tout espoir de « produire en France » en nous privant de la principale matière première d’expertise de l’industrie du futur.

Pire, sans souveraineté retrouvée, nous risquons demain la mise en confinement numérique totale. Que deviendrait l’économie sans les logiciels et sans les données fournis et actualisés chaque jour par les Etats-Unis ? Nous le savons, ce monde ne relève plus de la science-fiction. L’Europe souffrira tôt ou tard d’avoir laissé la main à de véritables cyber-empires. Notre nation s’inclinera face à des géants sans frontières et sans droit qui ont dépassé de loin la puissance des Etats.

Dans le fameux « monde d’après », stoppons l’épidémie de l’impuissance digitale. Mais mettre fin à l’hémorragie des données produites en France, en ne les transférant qu’en échange de protocoles souverainement définis, nécessitera du courage. Notre Constitution pourrait consacrer ce patrimoine national numérique, enjeu parmi d’autres dans la reconquête de notre liberté et de notre compétitivité.

Robin Reda est député de l’Essonne et vice-président de Libres. Jean-François Husson est sénateur de Meurthe-et-Moselle.

Conseil de l’Arctique : un enjeu stratégique pour les États-Unis et la Russie

Conseil de l’Arctique : un enjeu stratégique pour les États-Unis et la Russie

 

Mercredi, en Islande, en prélude à la réunion du Conseil de l’Arctique ce soir, le ministre des Affaires étrangères américain Anthony Blinken a rencontréson homologue canadien Marc Garneau. À cette occasion, face aux prises de positions belliqueuses de la Russie à propos de l’océan Arctique, il a réaffirmé vouloir « préserver cette région en tant qu’endroit de coopération pacifique » en matière de climat ou d’avancées scientifiques.

Les ministres américain et russe des Affaires étrangères se rencontrent mercredi soir en Islande à propos de l’Arctique Le secrétaire d’État américain Antony Blinken a semblé vouloir faire de l’Arctique, un nouvel enjeu géopolitique au coeur de la réunion régionale qui les rassemble mercredi et jeudi à Reykjavik -la capitale islandaise-, un laboratoire d’une certaine coopération ciblée sur des défis communs comme la lutte contre le réchauffement climatique, son homologue russe Sergueï Lavrov a fait monter la tension avec des propos tonitruants.

« Il est clair pour tout le monde depuis longtemps que ce sont nos terres, notre territoire », a-t-il en effet lancé lundi au sujet du Grand Nord, défendant une sorte de pré carré russe et dénonçant notamment les velléités « offensives » des Occidentaux via l’Otan et la Norvège.

L’ »activité militaire » de la Russie dans l’Arctique est « parfaitement légale et légitime », a-t-il plaidé.

Cryptomonnaies: aussi un enjeu de souveraineté

Cryptomonnaies:  aussi un enjeu de souveraineté

Etudiées par les banques centrales, les monnaies numériques pourraient permettre de renforcer la lutte antiblanchiment, mais elles risquent aussi de bouleverser le fonctionnement du système financier. Un article de dans le Monde deMarie Charrel.

 

Les Allemands ont beau être farouchement attachés aux bons vieux billets, leur ministre des finances, Olaf Scholz, l’affirme haut et fort : « Une Europe souveraine a besoin de solutions de paiement innovantes et compétitives. » A ce titre, elle doit être aux « avant-postes sur la question des monnaies numériques de banque centrale et doit activement la faire progresser », a-t-il déclaré vendredi 16 avril.

Deux jours plutôt, la Banque centrale européenne (BCE) présentait une vaste enquête menée auprès d’un panel d’Européens, dont la plupart se disent favorables à la création d’un euro numérique. L’institution doit décider cet été si elle se lancera, ou non, dans un tel projet. La Réserve fédérale (Fed) se montre prudente, mais elle y réfléchit également avec le Massachusetts Institute of Technology (MIT), tandis que, lundi 19 avril, la Banque d’Angleterre (BOE) et le Trésor britannique ont instauré un groupe de travail sur la question. Mais ce n’est rien à côté de la Chine, qui depuis un an, expérimente déjà un « e-yuan » dans quatre grandes villes.


Depuis quelques mois, la plupart des banques centrales intensifient leurs travaux sur les monnaies numériques, en s’inspirant de la technologie sur laquelle repose la cryptomonnaie bitcoin, née en 2008 : la blockchain, ou « chaîne de blocs », qui permet de crypter, répertorier et sécuriser les transactions. Le déclin des paiements en espèce, accéléré par la pandémie de Covid-19, les a convaincues de se tenir sérieusement à la page sur le sujet. Tout comme l’essor du bitcoin et de ses petits frères (Ether, Ripple, Litecoin…), ainsi que la multiplication des projets d’e-monnaies privées, comme celle de Facebook (le Diem, toujours dans les cartons).

A première vue, ces monnaies numériques de banque centrale – dites « MNBC » – ne changeront pas grand-chose au quotidien des particuliers et des entreprises, puisque la majorité des paiements sont déjà dématérialisés. La différence est pourtant fondamentale : l’essentiel des euros que nous détenons aujourd’hui sur nos comptes et livrets d’épargne sont créés par les banques commerciales, par le jeu du crédit. Les MNBC, elles, seraient l’équivalent des billets directement imprimés par les instituts monétaires. En outre, elles pourraient être détenues directement par ces derniers, sans passer par les banques. Et cela changerait beaucoup de choses.

 

Dans les pays émergents où une partie de la population ne dispose pas de compte bancaire, ces MNBC pourraient ainsi favoriser l’inclusion financière, en permettant les paiements et transferts par téléphone portable. Elles pourraient également faciliter les virements transfrontaliers et les rendre moins coûteux. Au profit, notamment, des immigrés envoyant de l’argent à leur famille dans leurs pays d’origine. Plus faciles à tracer que les billets, elles pourraient en outre simplifier la lutte contre la fraude et le blanchiment.

Insécurité : un enjeu aux présidentielles pour 86% des Français

Insécurité : un enjeu aux présidentielles  pour 86% des Français

D’après sondage Ifop réalisé pour le JDD ,86% des Français assurent que l’enjeu de la sécurité sera « important, pour les présidentielles, ce thème devançant même la lutte contre le chômage (68%) et celle contre la précarité malgré la crise économique qui se profile (62%).

La préoccupation sécuritaire a bondi de 26 points depuis mai 2020, après un « été orange mécanique », selon l’expression du président (ex-LR) de la région Hauts-de-France Xavier Bertrand, marqué par une série de faits divers comme l’agression mortelle d’un chauffeur de bus à Bayonne, et un automne rythmé par les attaques djihadistes, avec notamment la décapitation du professeur Samuel Paty en octobre. Si ce sont les sympathisants de droite (85%) qui jugent les sujets sécuritaires comme davantage prioritaires, le sujet est également considéré comme important à gauche (63%, dont 70% chez les électeurs socialistes).

A un an du scrutin, « la sécurité s’annonce comme un enjeu majeur de la prochaine élection présidentielle », prévient Frédéric Dabi, directeur général de l’Ifop. Interrogés par l’institut sur le poids de cette question dans leur choix en 2022, 86% des Français assurent qu’il sera « important, dont 44% « tout à fait important ». Sur ce terrain, les sympathisants de droite et d’extrême droite sont « en fusion » selon l’expression de Frédéric Dabi, puisque respectivement 98 et 99% des électeurs LR et RN en font un élément déterminant de leur vote. Mais la préoccupation sécuritaire n’est plus l’apanage de la seule droite : elle pèsera lourd, aussi, dans le vote des sympathisants LREM (86%), PS (80%) et même LFI (70%).

Semi-conducteurs : un enjeu d’indépendance économique

 Semi-conducteurs : un enjeu d’indépendance économique

 

 

 

.Par Clément Rossi, directeur de la Stratégie, des Partenariats et des Relations extérieures du Forum International de la Cybersécurité (FIC) dans la Tribune.

Quel est le point commun entre un avion de combat, un smartphone, une trottinette électrique et un data-center ? La pénurie de composants électroniques ! Elle révèle en effet la forte dépendance des industries européennes en matière de semi-conducteurs. Cette dépendance matérielle, résultat de la stratégie du « fabless », qui a longtemps prévalu aux États-Unis et en Europe, devient désormais un risque stratégique (et systémique) majeur dans le contexte actuel de guerre technologique et commerciale que se livre la Chine et les États-Unis.

Les Etats-Unis cherchent à bloquer la Chine

Pour conserver un avantage compétitif sur les technologies numériques, en particulier sur la 5G, les États-Unis cherchent en effet à bloquer la Chine, quitte à bousculer la filière des semi-conducteurs, où Taïwan domine largement le segment « fonderie » avec 75,7% du marché mondial, et surtout une large avance sur la production de circuits de taille inférieurs à 7 nanomètres.

Le principal producteur taïwanais, TSMC, a ainsi été soumis à de fortes pressions pour interrompre ses relations commerciales avec la Chine et implanter une partie de sa production sur le territoire américain. Dans le même temps, les États-Unis ont placé SMIC, principal producteur chinois de puces électroniques, sur la liste noire d’exportation, limitant l’accès de l’entreprise aux composants embarquant des technologies américaines, qu’ils soient ou non produits sur le territoire américain.

Lourdes conséquences pour l’Europe

Cette stratégie de coercition américaine a de nombreux effets de bord. A court terme, elle amplifie le choc sur la filière semi-conducteur, déjà soumise à rude épreuve avec la pandémie. Au plan géopolitique, elle aiguise l’appétit de l’ogre chinois envers Taïwan. Au plan industriel, enfin, elle pousse la Chine à s’autonomiser en matière de semi-conducteurs et à combler son retard technologique en renforçant ses propres capacités. Dans le cadre de son plan « Made in China 2025″, le pays redouble ainsi d’efforts pour réduire sa dépendance : il investit massivement dans le secteur et débauche à tour de bras des ingénieurs spécialisés en Corée du Sud et à Taïwan. Objectif : produire en 2025 70% des puces dont elle a besoin pour son industrie. 

Mais cette stratégie a aussi de lourdes conséquences pour l’Europe. Alors que la Chine et les États-Unis vont redévelopper des capacités de fonderie, l’Europe pourrait-elle rester en dehors du jeu au moment où l’intelligence artificielle, le calcul haute performance, la 5G et les objets connectés vont faire exploser la demande de semi-conducteurs (le marché devrait progresser de 8,4% en 2021) ?

Des industries de pointe en Europe

Certes, l’Europe dispose d’entreprises à la pointe dans le domaine, qu’il s’agisse du franco-italien STMicroelectronics ou bien encore du hollandais ASLV, spécialiste de la lithographie EUV (ultraviolet) permettant de fabriquer des composants de très petite taille. L’américain Globalfoundries dispose quant à lui d’une vaste usine dans la « silicon Saxony » allemande. Mais la filière reste largement dépendante de Taïwan et de Corée du Sud en termes d’approvisionnement.

Certaines de ses pépites comme l’Allemand Siltronic (racheté par le Taïwanais Global Wafers fin 2020), les Britannique Dialog Semiconductor (racheté par Renesas début 2021) et ARM (dont le rachat par l’Américain Nvidia est encore en débat) sont par ailleurs l’objet de toutes les convoitises.

Soutien à l’industrie européenne des semi-conducteurs

Pour réduire cette dépendance stratégique et profiter de l’explosion attendue du marché, l’Europe doit donc adopter rapidement des mesures volontaristes combinant diversification des approvisionnements, aide à l’installation d’industriels étrangers sur son territoire, soutien au développement de la filière locale et contrôle des investissements étrangers. Sur le front de la diversification, des alternatives aux fournisseurs taïwanais existent en Asie du Sud-Est (Malaisie et Corée du Sud) ou aux États-Unis, en particulier sur les produits finis que sont les circuits programmables (FGPA). La réglementation ITAR, qui permet aux États-Unis de bloquer les exportations de produits intégrant des technologies américaines, reste cependant un obstacle majeur, en particulier en matière de défense.

Consciente des enjeux, l’Union européenne s’est engagée en décembre 2020, dans le cadre du plan de relance, à soutenir l’industrie européenne des semi-conducteurs. Objectif : produire à terme au moins 20% des circuits intégrés dans le monde. Un plan d’investissement ambitieux, qui pourrait atteindre 30 milliards d’euros, devrait ainsi être annoncé d’ici la fin du premier trimestre 2021. « Sans une capacité européenne autonome en matière de microélectronique, il n’y aura pas de souveraineté numérique européenne », soulignait Thierry Breton, commissaire européen. Une autonomie qui passera clairement par un rééquilibrage de notre dépendance et le renforcement de nos partenariats, tant avec les États-Unis qu’avec la Chine, compte tenu des investissements nécessaires. A eux seuls TSMC et Samsung prévoient d’investir respectivement 21 et 26 milliards d’euros dans les semi-conducteurs en 2021. « Le guerrier victorieux remporte la bataille, puis part en guerre. Le guerrier vaincu part en guerre, puis cherche à remporter la bataille » (Sun Tzu).

Gestion de l’eau : Un enjeu stratégique

Gestion de l’eau : Un enjeu stratégique

 

L’archéologue Corinne Castel et l’architecte-urbaniste Bernd Gundermann rappellent, à l’occasion de la Journée mondiale de l’eau, que les villes doivent depuis toujours faire face aux défis posés par cette ressource.( Le Monde)

 

Tribune. 

 

Depuis des millénaires, les eaux nourrissent les populations, mais aussi les mythes qui forgent nos imaginaires. Les premières civilisations urbaines sont nées dans les bassins de l’Euphrate, du Tigre et du Nil. Les fleuves étaient conçus alors comme des personnalités divines. Ces premières villes, déjà confrontées aux problèmes de la gestion de la ressource en eau et de la bonne gouvernance, offrent un écho saisissant aux enjeux contemporains.

Bien sûr, la démographie est aujourd’hui sans commune mesure avec ce qu’elle était en Mésopotamie. L’accélération de l’urbanisation, l’industrialisation à outrance, la mondialisation et la financiarisation du monde ont changé la donne. Nous sommes arrivés à un point de basculement où les activités humaines ont une incidence globale telle sur l’écosystème terrestre qu’elle affecte la santé des populations et la sécurité alimentaire.


Mais les expériences multiples dans les pays lointains du passé, comme celles issues de la diversité de notre monde contemporain, constituent toujours une source d’inspiration pour penser les villes de demain, alors qu’il faut nourrir, loger, protéger une population urbaine mondiale toujours plus grande.

Les premières villes mésopotamiennes ont en commun de naître et de se développer dans un contexte globalement aride, soit dans les marécages du pays de Sumer (sud de l’Irak actuel), soit dans les steppes inhospitalières de Syrie, en tout cas loin des vertes prairies de nos climats tempérés.

Comment ces villes ont-elles pu se développer dans des milieux si contraignants où alternent longues périodes de sécheresse et brusques montées des eaux, souvent dévastatrices, comme le long de l’Euphrate où la période des crues est trop tardive pour les récoltes d’hiver, trop précoce pour les cultures d’été ? Comment certaines villes ont-elles pu s’établir et perdurer plusieurs siècles en limite des marges du désert, là où il ne pleut, en moyenne, que 200 mm d’eau par an, bien avant la mécanisation et nos technologies de pointe ? Comment gérer la pénurie et l’incertitude des rendements agricoles, face à l’irrégularité des pluies ?


Les interactions entre les humains et leur environnement résultent d’une histoire très ancienne, qui nous parle davantage d’adaptation à des milieux difficiles que de maîtrise de la nature et de son exploitation. Les premiers habitants urbains se sont installés le long des fleuves, bien sûr, mais sur une terrasse au-dessus pour éviter les crues. Ils ont fondé des villes parfois éloignées des cours d’eau, mais à la jonction entre des écosystèmes complémentaires pour pratiquer à la fois pastoralisme et agriculture vivrière. Ils ont construit des maisons et bâtiments publics, parfois vastes et pourvus d’étages, en briques de terre crue fabriquées sur place. Une architecture aux remarquables qualités bioclimatiques et pluricentenaire lorsqu’elle est régulièrement entretenue.

La 5G Etats-Unis : un enjeu à 80 milliards de dollars

 La 5G Etats-Unis : un enjeu à 80 milliards de dollars

Yves Gassot, ancien directeur général de l’IDATE DigiWorld s’interroge sur le montant des enchères de la 5G aux États-Unis ( La tribune)

Courant janvier, se sont interrompues aux Etats-Unis les enchères engagées le 8 décembre pour attribuer 280 MHz de spectre dans la bande C qui seront utilisés pour le déploiement de la 5G. Elles ont permis au Trésor de tabler sur 80.9 milliards de dollars de recette, une somme record qui dépasse largement les quelques 45 milliards des enchères de 2015 ainsi que les prévisions des analystes. En sus de cette somme, il faut ajouter les quelques 17 milliards de dollars que les opérateurs mobiles devront assumer pour financer la relocalisation des équipements des opérateurs satellite qui occupaient la bande C. On ne connait pas encore les sommes qui ont été engagées par chaque opérateur. Il faut pour cela attendre une seconde phase (phase d’assignement) qui permettra aux opérateurs retenus au terme de la première phase de choisir exactement leurs fréquences. Même à l’heure des quelques 1.900 milliards de dollars annoncés par Joe Biden pour son plan de relance, la somme spectaculaire atteinte par ces enchères justifie quelques explications. Elle suscite aussi des interrogations sur les changements en cours sur le marché des mobiles à l’aube de la 5G outre-Atlantique.

Pourquoi de tels montants ? On savait que la bande des 3.5 GHz (exactement 3.7/3.98 GHz) était stratégique. C’est le cas aux Etats-Unis comme en Europe. Elle fait partie des fréquences intermédiaires (2.5/4 GHz) qui représentent un bon compromis entre la couverture que permettent les radiofréquences basses (typiquement 600 à 900 MHz) et les très hauts débits qu’on peut atteindre avec les ondes millimétriques (de type 28 et 39 GHz aux Etats-Unis), qui, moins encombrées, offrent des canaux avec une beaucoup plus grande bande passante mais pour une portée très limitée. La portion de spectre alloué est aussi significative. Elle se décompose en trois catégories de licences suivant que les fréquences seront libérées début 2022 (licences A) ou ultérieurement (licences B et C).

A cela s’ajoutent les conséquences de la fusion entre T-Mobile et Sprint, numéros trois et quatre du marché américain, intervenue en avril dernier. Au terme des 25 milliards de dollars déboursés, T-Mobile, contrôlé par Deutsche Telekom, a mis la main sur près de 200 MHz de précieuses fréquences intermédiaires (2.5 GHz). Cela lui a permis de mener avec brio une stratégie de déploiement de la 5G très offensive au détriment des deux leaders, Verizon et AT&T.  T-Mobile a d’une part valorisé les fréquences en 600 MHz acquises en 2017 pour 8 milliards de dollars pour afficher très vite l’année passée une large couverture du territoire (quelques 280 millions d’habitants aujourd’hui) en 5G, même si les canaux utilisés sur cette fréquence ne lui permettent pas d’offrir un débit significativement supérieur à ceux que l’on trouve en 4G.

Dans le même temps, l’opérateur s’est employé à déployer de la 5G avec des débits beaucoup plus élevés sur les fréquences « en or » à 2.5 GHz héritées de Sprint. L’opérateur a annoncé à la fin de 2020 avoir couvert en 2.5 GHz plus de 100 millions d’habitants. Mais T-Mobile doit aller vite. Au total, les analystes considèrent que T-Mobile a une fenêtre d’opportunité de 18 mois – avant que ses concurrents ne puissent utiliser les fréquences des enchères en cours – pour conforter son statut de principal opérateur 5G. Enfin, même si l’intérêt de T-Mobile pour les enchères en cours est relatif, on s’attend à ce qu’il ait misé quelques 10 milliards de dollars, ne serait-ce que pour pousser à la hausse les prix qui seront payés par ses concurrents.

Verizon aurait misé plus de 30 milliards dans les enchères

Au regard de cette stratégie, Verizon qui avait conquis son statut d’opérateur numéro un par sa capacité à doubler tous ses concurrents dans le déploiement de la 4G, n’a pas pu faire la preuve au cours de ces derniers trimestres qu’il conservait le leadership bien qu’il ait ouvert un premier réseau 5G en avril 2019. Disposant d’à peine plus du tiers des fréquences inférieures à 6 GHz détenues par T-Mobile, il a d’abord mis l’accent sur l’usage des ondes millimétriques (fort de 100 MHz dans les bandes 28 et 39 GHz) en ouvrant dans les grandes villes de l’« ultra-haute vitesse »  en 5G. 60 villes affichaient à la fin décembre des sites offrant ce service. Naturellement avec ces fréquences, il ne s’agit que de hot-spots avec des portées limitées. Pour offrir une plus large couverture, Verizon va devoir s’engager au cours des années à venir dans une densification de son réseau à travers la construction de micro-cellules. Dans ces conditions, pour afficher rapidement une plus large couverture 5G, Verizon a lancé le Digital Spectrum Sharing (DSS), une technologie qui lui permet de réutiliser des fréquences 4G pour offrir de la 5G à ses abonnés.

La solution présente l’avantage d’une certaine flexibilité mais ne rajoute pas vraiment de capacités alors que, comme tous les opérateurs, Verizon doit faire face à une croissance continue du débit sur les réseaux 4G. On peut signaler que Verizon, imité en cela par T-Mobile, a aussi commencé à déployer la 5G sur certains sites pour offrir des services vidéo. Verizon a par ailleurs été le principal bénéficiaires (pour 1.89 milliard de dollars) des enchères de l’été dernier dites CBRS, qui concernaient aussi des fréquences proches de 3.5 GHz, qui lui donneront des capacités sur les grandes métropoles mais avec des contraintes liées au principe de leur accès partagé. Mais tout cela pris en compte, on comprend que Verizon a joué son va-tout dans les enchères du mois dernier. Certains analystes estiment que l’opérateur a pu miser de 30 à 40 milliards de dollars pour avoir les 100 MHz des fréquences A.

AT&T a du souci à se faire

 

AT&T de son côté a aussi du souci à se faire face à la stratégie conquérante de T-Mobile même s’il dispose de plus de fréquences intermédiaires et plus de spectre au total que Verizon. Il a néanmoins subi ces dernières années l’offensive de T-Mobile et ne peut pas rester à l’écart de l’attribution des fréquences 3.5 GHz, les mobiles représentant son premier marché. Les analystes estiment qu’AT&T aurait investi quelques 20 milliards de dollars dans les dernières enchères, soit probablement beaucoup plus que ce qu’il avait prévu. A cela s’ajoutent les investissements dans ses réseaux (15 à 18 milliards par an), ceux dans son nouveau service vidéo HBO Max, et les dividendes qu’il faut continuer de verser.

L’affaire entretient d’autant plus les spéculations que, depuis plusieurs trimestres, l’objectif d’AT&T est de faire la preuve de sa capacité à revenir à un taux d’endettement (Ebitda/dette) proche de deux pour ne pas dégrader son crédit d’emprunteur. Avec encore 147.5 milliards de dollars de dettes (ratio de 2.7) à l’issue du quatrième trimestre 2020, AT&T reste encore très lesté par le poids de ses acquisitions spectaculaires : en 2015 de DirecTV (49 milliards de dollars plus 18 milliards de dette) et en 2018 de Time Warner (85 milliards). La compagnie a mis aux enchères la vente de DirecTV qui perd plusieurs centaines de milliers d’abonnés par trimestre. Mais les candidats ne se bousculent pas et les fonds d’investissement ne paraissent pas décidés à mettre plus de 17 milliards…

L’automatisation : le grand enjeu d’Amazon

L’automatisation : le grand enjeu d’Amazon

Un article du Wall Street Journal aborde la problématique de l’automatisation pour une entreprise comme Amazon grande utilisatrice de main-d’œuvre.

 

Amazon a bien plus d’employés que ses concurrents, que ce soit Microsoft, Google ou Apple, et nombre d’entre eux sont des travailleurs manuels peu qualifiés, et non des ingénieurs logiciels. L’entreprise est également partenaire avec environ 2,4 millions de vendeurs tiers sur sa marketplace, qui génèrent la majorité des ventes sur sa plateforme de e-commerce. Mais le nouveau directeur général, M. Jassy — un fidèle adjoint et un disciple dévoué du fondateur Jeff Bezos — dispose d’un outil puissant pour manager un tel bataillon d’employés et de partenaires : une infrastructure logicielle en cloud tout aussi étendue qu’il chapeaute depuis sa création.

Si Andy Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général

La manière dont Amazon utilise des logiciels pour tout gérer ne ressemble à aucune autre entreprise ou presque, à l’exception peut-être des géants de la « gig-economy » (économie à la tâche) que sont Uber, Lyft, DoorDash et Instacart. Qu’ils conduisent une camionnette de livraison, qu’ils prélèvent des articles sur des étagères ou qu’ils essaient de faire le suivi de leurs stocks de produits pour éviter d’être déréférencés, les employés, les sous-traitants et les vendeurs tiers d’Amazon sont contrôlés, évalués, récompensés — et font même l’objet de signalements en vue être sanctionnés ou coachés — par des logiciels.

Bien que M. Jassy soit souvent décrit par ceux qui ont travaillé pour lui comme quelqu’un ressemblant beaucoup à Jeff Bezos — mais peut-être en plus doux et chaleureux —, on peut affirmer qu’il existe actuellement un fort contraste entre la façon dont il se comporte dans ses relations quotidiennes et celle dont les algorithmes et l’intelligence artificielle d’Amazon traitent les millions d’employés de terrain et de marchands sur sa marketplace. Si M. Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général.

Ayant fondé Amazon Web Services à partir d’une petite start-up qu’il a dirigée au sein d’Amazon, au début des années 2000, pour en faire le mastodonte du secteur du cloud (qui génère la moitié des bénéfices d’Amazon), M. Jassy a une parfaite compréhension non seulement des arcanes Internet des innombrables entreprises de la tech, de Netflix à Slack, qu’AWS accompagne, mais aussi comment cette unité est connectée à la myriade d’activités exploitées par Amazon lui-même. Aujourd’hui âgé de 53 ans, M. Jassy a rejoint Amazon en 1997, juste après avoir obtenu son diplôme de la Harvard Business School.

L’expérience acquise par M. Jassy dans le domaine du cloud ne l’a peut-être pas préparé à prendre la tête d’un concurrent comme Walmart, dont le modèle est toujours basé sur les magasins physiques. Mais, avec ses vingt-quatre ans passés chez Amazon, il dispose de tous les atouts pour diriger les activités de l’entreprise, que ce soit le e-commerce ou le reste de son empire tentaculaire. (Le cloud computing est une technologie informatique à distance accessible par Internet, centrale dans un nombre incalculable de domaines, de la révolution mobile aux dizaines de services que nous considérons comme allant de soi, comme par exemple le streaming ou l’IA).

L’empire Amazon est aujourd’hui confronté à des défis — technologiques, opérationnels et réglementaires — aussi importants que ceux auxquels il a dû faire face par le passé.

Andy Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ?

Primo, une question concerne l’essence même de la société qu’Amazon souhaite être. Ses dirigeants insistent sur leur volonté de préserver la santé de leurs employés et de leur donner des opportunités de carrière et de formation. Mais la façon dont Amazon manage à la fois ses salariés et les vendeurs tiers via des algorithmes est souvent en contradiction avec ces aspirations. Si M. Jassy décidait d’apporter des changements, Amazon parviendra-t-il à concevoir ses logiciels et ses systèmes de manière à ce qu’ils répondent mieux aux besoins de ceux auxquels ils servent et sur lesquels ils exercent leur pouvoir ?

Secundo, l’infrastructure en cloud qu’Amazon utilise pour gérer et conclure des transactions avec ses millions de clients héberge également des systèmes qui, selon de nombreux témoignages, poussent ses employés à travailler encore plus dur, et laissent souvent ses vendeurs tiers dans le flou sur la meilleure manière de naviguer sur sa marketplace — ce qui alimente les plaintes et les enquêtes sur ses pratiques en matière de conditions de conditions de travail et de concurrence. Amazon va-t-il concevoir ses systèmes de manière à améliorer la qualité de vie de ses employés et à promouvoir des relations meilleures et plus transparentes avec ses marchands ?

Tertio, M. Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ? Enfin, dans quelle mesure pourra-t-il atteindre ses objectifs alors les enquêtes antitrust et les appels au démantèlement de l’entreprise se multiplient ?

Le départ de M. Bezos de son poste de directeur général donne à l’entreprise l’occasion d’essayer de redorer son image publique, à Washington et dans le monde entier. Beaucoup de ceux qui ont travaillé avec M. Jassy expliquent que, bien qu’il ressemble à M. Bezos à certains égards, il est d’un naturel plus doux et plus réservé.

Vice-président senior de la vente au détail chez Amazon de 1997 à 2002, David Risher a travaillé en étroite collaboration avec M. Jassy. « Si l’on se fie à son passé, il va diriger tout autant avec son cœur qu’avec sa tête, assure M. Risher. Il manage toujours avec une véritable empathie, pas en faisant semblant. » Les deux hommes sont toujours en contact : M. Jassy est membre du conseil consultatif de l’association Worldreader de M. Risher, qui aide les enfants défavorisés à avoir accès aux livres numériques.

Dans les activités de e-commerce d’Amazon, à toutes les étapes de la chaîne d’approvisionnement, les humains intègrent rapidement des emplois qui ne nécessitent presque aucune formation. Cela a été rendu possible par la manière dont ces tâches sont régies et encadrées par les algorithmes et l’automatisation. Dans les centres logistiques les plus sophistiqués d’Amazon, par exemple, les employés collectant des articles sur les rayonnages robotisés sont surveillés par des caméras équipées d’un système d’intelligence artificielle. Un lecteur de code-barres connecté au cloud contrôle la vitesse à laquelle ils choisissent les articles, le nombre et la durée de leurs pauses et s’ils prennent les bons articles et les placent aux bons endroits. Les responsables ne doivent intervenir que si le logiciel signale un problème, par exemple si un employé prend du retard.

Un porte-parole d’Amazon rejette l’idée que, dans les entrepôts, toute personne est « gérée par un algorithme », au motif que tous les collaborateurs ont au-dessus d’eux un manager humain qui en est responsable et les coache s’ils ne répondent pas aux objectifs de rendement. « Nos travailleurs de terrain sont le cœur et l’âme d’Amazon », et reçoivent les mêmes avantages que les autres employés de l’entreprise dès leur premier jour de travail, ajoute le porte-parole. Par le passé, Amazon avait assuré que seul un faible pourcentage de ses collaborateurs étaient licenciés ou quittaient l’entreprise pour manque de performances.

L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter

Les logiciels, eux, ont déjà remplacé les salariés qui s’occupaient des comptes des partenaires commerciaux. Même les grandes marques qui décident de vendre sur Amazon ont pour la plupart affaire avec les systèmes automatisés de l’entreprise. L’IA régit presque entièrement la façon dont les vendeurs sont traités sur la marketplace d’Amazon, et il n’est pas toujours facile de travailler avec elle, explique Jason Boyce, qui a été pendant dix-sept ans l’un des 200 meilleurs vendeurs sur la plateforme, et a ensuite fondé Avenue7Media, qui aide les entreprises à vendre sur la marketplace d’Amazon.

« Leur IA n’est pas toujours très subtile », estime-t-il. Il arrive que les listings de vendeurs soient réduits sans préavis ou presque : les petites entreprises doivent alors se débrouiller pour payer les salaires, ajoute-t-il.

« Amazon investit lourdement pour épauler ses vendeurs, car nous travaillons ensemble pour servir leurs clients et protéger leurs marques, déclare un porte-parole d’Amazon. Il est dans notre intérêt économique de minimiser les perturbations affectant les ventes de nos partenaires commerciaux, et nous travaillons dur pour éviter les erreurs en matière d’exécution. Nous contactons tous les vendeurs présentant peu de faibles risques ou permanents avant de les suspendre, et nous fournissons des indications claires pour qu’ils puissent faire appel de ces décisions par l’intermédiaire de notre équipe. »

Jeff Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon

M. Jassy pourrait choisir d’améliorer ces systèmes, ou, au contraire, se contenter d’automatiser la plupart des rôles occupés par des employés. Et, si les régulateurs n’interviennent pas, il pourrait faire de même dans les relations avec nombre de ses partenaires et des marchands présents sur sa marketplace.

A l’heure actuelle, Amazon cherche autant d’employés que possible. Mais selon les résultats des actions destinées à renforcer la syndicalisation au sein de l’entreprise, celle-ci pourrait bientôt avoir une autre grande raison d’automatiser le plus rapidement possible des postes. L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter.

Il est clair qu’Amazon veut utiliser ses infrastructures d’IA et de cloud computing pour mener à bien une automatisation encore plus poussée, comme par exemple sur la livraison autonome, à la fois par drones et véhicules sur roues. Alors qu’au niveau local, Amazon sous-traite à des milliers de franchisés le dernier kilomètre de livraison sur son propre réseau logistique, la société pourrait mettre fin aux contrats avec ces entreprises pratiquement du jour au lendemain, comme elle l’a déjà fait par le passé, sans que cela n’affecte la taille des effectifs qu’elle emploie directement.

M. Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon. Outre la syndicalisation, le plus grand défi qui se profile dans l’immédiat pour l’entreprise pourrait être d’affronter, pendant des années, des séries auditions devant le Congrès et des enquêtes fédérales cherchant à déterminer si Amazon constitue un monopole susceptible d’être démantelé, souligne Paul Armstrong, analyste du secteur et créateur du bulletin d’information What Did Amazon Do This Week.

Sous la direction de M. Jassy, « je pense que vous risquez de vous retrouver avec un Amazon plus ennuyeux », ajoute M. Armstrong. Connu pour son sang-froid et son souci du détail, M. Jassy a aussi l’avantage de ne pas s’identifier à l’entreprise aussi personnellement que M. Bezos, son créateur. Cela pourrait lui être utile, car il sera contraint de comparaître devant le Congrès de manière récurrente et de passer une grande partie de son temps à s’enfermer avec ses avocats, si les actions antitrust contre Amazon se concrétisaient.

Utiliser l’IA, les logiciels et l’automatisation pour alléger les tâches des employés, ou pour les obliger à travailler plus dur afin de suivre le rythme, est un choix auquel toutes les entreprises sont confrontées à l’ère de la numérisation. Mais aucune ne l’est plus qu’Amazon. Il est possible que M. Jassy choisisse de gérer cette transition différemment de M. Bezos, connu pour son exigence. Il est également possible qu’il se sente contraint, à cause de la surveillance des régulateurs, de gérer les choses autrement que son prédécesseur.

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Traduit à partir de la version originale en anglais

L’Enjeu de la prospective

L’Enjeu de  la prospective

Par Jean-Eric Aubert (président de la Fondation 2100), Thierry Gaudin (président d’honneur de la Fondation 2100)

 

Ceux qui font profession de prévoir le futur, autrement dit qui s’adonnent aux métiers de la prospective, courent en général deux risques : le premier est de se tromper, le second est d’avoir raison trop tôt. La pandémie de Covid-19 nous en offre un exemple tout frais. De nombreux travaux scientifiques ont évoqué la possibilité de la survenue d’un tel épisode sanitaire bien avant qu’il n’apparaisse. Des auteurs ont écrit des livres prémonitoires comme le grand épidémiologiste américain Michael Osterholm (« Deadliest Enemy : Our War Against Killer Germs », 2017), la CIA a alerté, sans parler de Bill Gates qui a sonné l’alarme sur la survenue probable d’une grande et mortelle pandémie. Et pourtant, aucun pays n’a accordé d’importance à ces signaux avancés et tous ont été surpris et largement impréparés.

Est-ce une raison suffisante pour que les prospectivistes changent de métier ? Certainement pas. C’est même le contraire. L’humanité fait face à de tels défis - réchauffement climatique, révolutions technologiques, basculements géopolitiques, transitions démographiques… - qu’il est plus nécessaire que jamais d’en comprendre les enjeux, d’anticiper leurs conséquences et d’agir pour prévenir les catastrophes. Cet horizon peut paraître éloigné, mais les enfants qui naissent aujourd’hui seront, pour la plupart, encore en vie à la fin du siècle. Leur laisser une planète vivable implique de s’engager dans cette prospective opérationnelle et mondiale dès maintenant - d’autant que l’adaptation des sociétés humaines à de profonds changements prend toujours du temps.

Projeter une vue d’ensemble

Comprendre les phénomènes à l’oeuvre, c’est d’abord chercher à en projeter une vue d’ensemble. Une approche partielle, influencée par les conformismes et les consensus, ne permet pas de saisir la complexité de ces phénomènes et leurs interactions. Et lorsque les visions sont inspirées par des idéologies ou des modes, celles-ci biaisent la perception. Soit par excès d’optimisme, par exemple dans les possibilités des technologies vantées par les « transhumanistes ». Soit par excès de pessimisme, avec les perspectives d’effondrement mondial prophétisées par les « collapsologues ».

12345



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol