Archive pour le Tag 'enjeu'

Semi-conducteurs : un enjeu d’indépendance économique

 Semi-conducteurs : un enjeu d’indépendance économique

 

 

 

.Par Clément Rossi, directeur de la Stratégie, des Partenariats et des Relations extérieures du Forum International de la Cybersécurité (FIC) dans la Tribune.

Quel est le point commun entre un avion de combat, un smartphone, une trottinette électrique et un data-center ? La pénurie de composants électroniques ! Elle révèle en effet la forte dépendance des industries européennes en matière de semi-conducteurs. Cette dépendance matérielle, résultat de la stratégie du « fabless », qui a longtemps prévalu aux États-Unis et en Europe, devient désormais un risque stratégique (et systémique) majeur dans le contexte actuel de guerre technologique et commerciale que se livre la Chine et les États-Unis.

Les Etats-Unis cherchent à bloquer la Chine

Pour conserver un avantage compétitif sur les technologies numériques, en particulier sur la 5G, les États-Unis cherchent en effet à bloquer la Chine, quitte à bousculer la filière des semi-conducteurs, où Taïwan domine largement le segment « fonderie » avec 75,7% du marché mondial, et surtout une large avance sur la production de circuits de taille inférieurs à 7 nanomètres.

Le principal producteur taïwanais, TSMC, a ainsi été soumis à de fortes pressions pour interrompre ses relations commerciales avec la Chine et implanter une partie de sa production sur le territoire américain. Dans le même temps, les États-Unis ont placé SMIC, principal producteur chinois de puces électroniques, sur la liste noire d’exportation, limitant l’accès de l’entreprise aux composants embarquant des technologies américaines, qu’ils soient ou non produits sur le territoire américain.

Lourdes conséquences pour l’Europe

Cette stratégie de coercition américaine a de nombreux effets de bord. A court terme, elle amplifie le choc sur la filière semi-conducteur, déjà soumise à rude épreuve avec la pandémie. Au plan géopolitique, elle aiguise l’appétit de l’ogre chinois envers Taïwan. Au plan industriel, enfin, elle pousse la Chine à s’autonomiser en matière de semi-conducteurs et à combler son retard technologique en renforçant ses propres capacités. Dans le cadre de son plan « Made in China 2025″, le pays redouble ainsi d’efforts pour réduire sa dépendance : il investit massivement dans le secteur et débauche à tour de bras des ingénieurs spécialisés en Corée du Sud et à Taïwan. Objectif : produire en 2025 70% des puces dont elle a besoin pour son industrie. 

Mais cette stratégie a aussi de lourdes conséquences pour l’Europe. Alors que la Chine et les États-Unis vont redévelopper des capacités de fonderie, l’Europe pourrait-elle rester en dehors du jeu au moment où l’intelligence artificielle, le calcul haute performance, la 5G et les objets connectés vont faire exploser la demande de semi-conducteurs (le marché devrait progresser de 8,4% en 2021) ?

Des industries de pointe en Europe

Certes, l’Europe dispose d’entreprises à la pointe dans le domaine, qu’il s’agisse du franco-italien STMicroelectronics ou bien encore du hollandais ASLV, spécialiste de la lithographie EUV (ultraviolet) permettant de fabriquer des composants de très petite taille. L’américain Globalfoundries dispose quant à lui d’une vaste usine dans la « silicon Saxony » allemande. Mais la filière reste largement dépendante de Taïwan et de Corée du Sud en termes d’approvisionnement.

Certaines de ses pépites comme l’Allemand Siltronic (racheté par le Taïwanais Global Wafers fin 2020), les Britannique Dialog Semiconductor (racheté par Renesas début 2021) et ARM (dont le rachat par l’Américain Nvidia est encore en débat) sont par ailleurs l’objet de toutes les convoitises.

Soutien à l’industrie européenne des semi-conducteurs

Pour réduire cette dépendance stratégique et profiter de l’explosion attendue du marché, l’Europe doit donc adopter rapidement des mesures volontaristes combinant diversification des approvisionnements, aide à l’installation d’industriels étrangers sur son territoire, soutien au développement de la filière locale et contrôle des investissements étrangers. Sur le front de la diversification, des alternatives aux fournisseurs taïwanais existent en Asie du Sud-Est (Malaisie et Corée du Sud) ou aux États-Unis, en particulier sur les produits finis que sont les circuits programmables (FGPA). La réglementation ITAR, qui permet aux États-Unis de bloquer les exportations de produits intégrant des technologies américaines, reste cependant un obstacle majeur, en particulier en matière de défense.

Consciente des enjeux, l’Union européenne s’est engagée en décembre 2020, dans le cadre du plan de relance, à soutenir l’industrie européenne des semi-conducteurs. Objectif : produire à terme au moins 20% des circuits intégrés dans le monde. Un plan d’investissement ambitieux, qui pourrait atteindre 30 milliards d’euros, devrait ainsi être annoncé d’ici la fin du premier trimestre 2021. « Sans une capacité européenne autonome en matière de microélectronique, il n’y aura pas de souveraineté numérique européenne », soulignait Thierry Breton, commissaire européen. Une autonomie qui passera clairement par un rééquilibrage de notre dépendance et le renforcement de nos partenariats, tant avec les États-Unis qu’avec la Chine, compte tenu des investissements nécessaires. A eux seuls TSMC et Samsung prévoient d’investir respectivement 21 et 26 milliards d’euros dans les semi-conducteurs en 2021. « Le guerrier victorieux remporte la bataille, puis part en guerre. Le guerrier vaincu part en guerre, puis cherche à remporter la bataille » (Sun Tzu).

Gestion de l’eau : Un enjeu stratégique

Gestion de l’eau : Un enjeu stratégique

 

L’archéologue Corinne Castel et l’architecte-urbaniste Bernd Gundermann rappellent, à l’occasion de la Journée mondiale de l’eau, que les villes doivent depuis toujours faire face aux défis posés par cette ressource.( Le Monde)

 

Tribune. 

 

Depuis des millénaires, les eaux nourrissent les populations, mais aussi les mythes qui forgent nos imaginaires. Les premières civilisations urbaines sont nées dans les bassins de l’Euphrate, du Tigre et du Nil. Les fleuves étaient conçus alors comme des personnalités divines. Ces premières villes, déjà confrontées aux problèmes de la gestion de la ressource en eau et de la bonne gouvernance, offrent un écho saisissant aux enjeux contemporains.

Bien sûr, la démographie est aujourd’hui sans commune mesure avec ce qu’elle était en Mésopotamie. L’accélération de l’urbanisation, l’industrialisation à outrance, la mondialisation et la financiarisation du monde ont changé la donne. Nous sommes arrivés à un point de basculement où les activités humaines ont une incidence globale telle sur l’écosystème terrestre qu’elle affecte la santé des populations et la sécurité alimentaire.


Mais les expériences multiples dans les pays lointains du passé, comme celles issues de la diversité de notre monde contemporain, constituent toujours une source d’inspiration pour penser les villes de demain, alors qu’il faut nourrir, loger, protéger une population urbaine mondiale toujours plus grande.

Les premières villes mésopotamiennes ont en commun de naître et de se développer dans un contexte globalement aride, soit dans les marécages du pays de Sumer (sud de l’Irak actuel), soit dans les steppes inhospitalières de Syrie, en tout cas loin des vertes prairies de nos climats tempérés.

Comment ces villes ont-elles pu se développer dans des milieux si contraignants où alternent longues périodes de sécheresse et brusques montées des eaux, souvent dévastatrices, comme le long de l’Euphrate où la période des crues est trop tardive pour les récoltes d’hiver, trop précoce pour les cultures d’été ? Comment certaines villes ont-elles pu s’établir et perdurer plusieurs siècles en limite des marges du désert, là où il ne pleut, en moyenne, que 200 mm d’eau par an, bien avant la mécanisation et nos technologies de pointe ? Comment gérer la pénurie et l’incertitude des rendements agricoles, face à l’irrégularité des pluies ?


Les interactions entre les humains et leur environnement résultent d’une histoire très ancienne, qui nous parle davantage d’adaptation à des milieux difficiles que de maîtrise de la nature et de son exploitation. Les premiers habitants urbains se sont installés le long des fleuves, bien sûr, mais sur une terrasse au-dessus pour éviter les crues. Ils ont fondé des villes parfois éloignées des cours d’eau, mais à la jonction entre des écosystèmes complémentaires pour pratiquer à la fois pastoralisme et agriculture vivrière. Ils ont construit des maisons et bâtiments publics, parfois vastes et pourvus d’étages, en briques de terre crue fabriquées sur place. Une architecture aux remarquables qualités bioclimatiques et pluricentenaire lorsqu’elle est régulièrement entretenue.

La 5G Etats-Unis : un enjeu à 80 milliards de dollars

 La 5G Etats-Unis : un enjeu à 80 milliards de dollars

Yves Gassot, ancien directeur général de l’IDATE DigiWorld s’interroge sur le montant des enchères de la 5G aux États-Unis ( La tribune)

Courant janvier, se sont interrompues aux Etats-Unis les enchères engagées le 8 décembre pour attribuer 280 MHz de spectre dans la bande C qui seront utilisés pour le déploiement de la 5G. Elles ont permis au Trésor de tabler sur 80.9 milliards de dollars de recette, une somme record qui dépasse largement les quelques 45 milliards des enchères de 2015 ainsi que les prévisions des analystes. En sus de cette somme, il faut ajouter les quelques 17 milliards de dollars que les opérateurs mobiles devront assumer pour financer la relocalisation des équipements des opérateurs satellite qui occupaient la bande C. On ne connait pas encore les sommes qui ont été engagées par chaque opérateur. Il faut pour cela attendre une seconde phase (phase d’assignement) qui permettra aux opérateurs retenus au terme de la première phase de choisir exactement leurs fréquences. Même à l’heure des quelques 1.900 milliards de dollars annoncés par Joe Biden pour son plan de relance, la somme spectaculaire atteinte par ces enchères justifie quelques explications. Elle suscite aussi des interrogations sur les changements en cours sur le marché des mobiles à l’aube de la 5G outre-Atlantique.

Pourquoi de tels montants ? On savait que la bande des 3.5 GHz (exactement 3.7/3.98 GHz) était stratégique. C’est le cas aux Etats-Unis comme en Europe. Elle fait partie des fréquences intermédiaires (2.5/4 GHz) qui représentent un bon compromis entre la couverture que permettent les radiofréquences basses (typiquement 600 à 900 MHz) et les très hauts débits qu’on peut atteindre avec les ondes millimétriques (de type 28 et 39 GHz aux Etats-Unis), qui, moins encombrées, offrent des canaux avec une beaucoup plus grande bande passante mais pour une portée très limitée. La portion de spectre alloué est aussi significative. Elle se décompose en trois catégories de licences suivant que les fréquences seront libérées début 2022 (licences A) ou ultérieurement (licences B et C).

A cela s’ajoutent les conséquences de la fusion entre T-Mobile et Sprint, numéros trois et quatre du marché américain, intervenue en avril dernier. Au terme des 25 milliards de dollars déboursés, T-Mobile, contrôlé par Deutsche Telekom, a mis la main sur près de 200 MHz de précieuses fréquences intermédiaires (2.5 GHz). Cela lui a permis de mener avec brio une stratégie de déploiement de la 5G très offensive au détriment des deux leaders, Verizon et AT&T.  T-Mobile a d’une part valorisé les fréquences en 600 MHz acquises en 2017 pour 8 milliards de dollars pour afficher très vite l’année passée une large couverture du territoire (quelques 280 millions d’habitants aujourd’hui) en 5G, même si les canaux utilisés sur cette fréquence ne lui permettent pas d’offrir un débit significativement supérieur à ceux que l’on trouve en 4G.

Dans le même temps, l’opérateur s’est employé à déployer de la 5G avec des débits beaucoup plus élevés sur les fréquences « en or » à 2.5 GHz héritées de Sprint. L’opérateur a annoncé à la fin de 2020 avoir couvert en 2.5 GHz plus de 100 millions d’habitants. Mais T-Mobile doit aller vite. Au total, les analystes considèrent que T-Mobile a une fenêtre d’opportunité de 18 mois – avant que ses concurrents ne puissent utiliser les fréquences des enchères en cours – pour conforter son statut de principal opérateur 5G. Enfin, même si l’intérêt de T-Mobile pour les enchères en cours est relatif, on s’attend à ce qu’il ait misé quelques 10 milliards de dollars, ne serait-ce que pour pousser à la hausse les prix qui seront payés par ses concurrents.

Verizon aurait misé plus de 30 milliards dans les enchères

Au regard de cette stratégie, Verizon qui avait conquis son statut d’opérateur numéro un par sa capacité à doubler tous ses concurrents dans le déploiement de la 4G, n’a pas pu faire la preuve au cours de ces derniers trimestres qu’il conservait le leadership bien qu’il ait ouvert un premier réseau 5G en avril 2019. Disposant d’à peine plus du tiers des fréquences inférieures à 6 GHz détenues par T-Mobile, il a d’abord mis l’accent sur l’usage des ondes millimétriques (fort de 100 MHz dans les bandes 28 et 39 GHz) en ouvrant dans les grandes villes de l’« ultra-haute vitesse »  en 5G. 60 villes affichaient à la fin décembre des sites offrant ce service. Naturellement avec ces fréquences, il ne s’agit que de hot-spots avec des portées limitées. Pour offrir une plus large couverture, Verizon va devoir s’engager au cours des années à venir dans une densification de son réseau à travers la construction de micro-cellules. Dans ces conditions, pour afficher rapidement une plus large couverture 5G, Verizon a lancé le Digital Spectrum Sharing (DSS), une technologie qui lui permet de réutiliser des fréquences 4G pour offrir de la 5G à ses abonnés.

La solution présente l’avantage d’une certaine flexibilité mais ne rajoute pas vraiment de capacités alors que, comme tous les opérateurs, Verizon doit faire face à une croissance continue du débit sur les réseaux 4G. On peut signaler que Verizon, imité en cela par T-Mobile, a aussi commencé à déployer la 5G sur certains sites pour offrir des services vidéo. Verizon a par ailleurs été le principal bénéficiaires (pour 1.89 milliard de dollars) des enchères de l’été dernier dites CBRS, qui concernaient aussi des fréquences proches de 3.5 GHz, qui lui donneront des capacités sur les grandes métropoles mais avec des contraintes liées au principe de leur accès partagé. Mais tout cela pris en compte, on comprend que Verizon a joué son va-tout dans les enchères du mois dernier. Certains analystes estiment que l’opérateur a pu miser de 30 à 40 milliards de dollars pour avoir les 100 MHz des fréquences A.

AT&T a du souci à se faire

 

AT&T de son côté a aussi du souci à se faire face à la stratégie conquérante de T-Mobile même s’il dispose de plus de fréquences intermédiaires et plus de spectre au total que Verizon. Il a néanmoins subi ces dernières années l’offensive de T-Mobile et ne peut pas rester à l’écart de l’attribution des fréquences 3.5 GHz, les mobiles représentant son premier marché. Les analystes estiment qu’AT&T aurait investi quelques 20 milliards de dollars dans les dernières enchères, soit probablement beaucoup plus que ce qu’il avait prévu. A cela s’ajoutent les investissements dans ses réseaux (15 à 18 milliards par an), ceux dans son nouveau service vidéo HBO Max, et les dividendes qu’il faut continuer de verser.

L’affaire entretient d’autant plus les spéculations que, depuis plusieurs trimestres, l’objectif d’AT&T est de faire la preuve de sa capacité à revenir à un taux d’endettement (Ebitda/dette) proche de deux pour ne pas dégrader son crédit d’emprunteur. Avec encore 147.5 milliards de dollars de dettes (ratio de 2.7) à l’issue du quatrième trimestre 2020, AT&T reste encore très lesté par le poids de ses acquisitions spectaculaires : en 2015 de DirecTV (49 milliards de dollars plus 18 milliards de dette) et en 2018 de Time Warner (85 milliards). La compagnie a mis aux enchères la vente de DirecTV qui perd plusieurs centaines de milliers d’abonnés par trimestre. Mais les candidats ne se bousculent pas et les fonds d’investissement ne paraissent pas décidés à mettre plus de 17 milliards…

L’automatisation : le grand enjeu d’Amazon

L’automatisation : le grand enjeu d’Amazon

Un article du Wall Street Journal aborde la problématique de l’automatisation pour une entreprise comme Amazon grande utilisatrice de main-d’œuvre.

 

Amazon a bien plus d’employés que ses concurrents, que ce soit Microsoft, Google ou Apple, et nombre d’entre eux sont des travailleurs manuels peu qualifiés, et non des ingénieurs logiciels. L’entreprise est également partenaire avec environ 2,4 millions de vendeurs tiers sur sa marketplace, qui génèrent la majorité des ventes sur sa plateforme de e-commerce. Mais le nouveau directeur général, M. Jassy — un fidèle adjoint et un disciple dévoué du fondateur Jeff Bezos — dispose d’un outil puissant pour manager un tel bataillon d’employés et de partenaires : une infrastructure logicielle en cloud tout aussi étendue qu’il chapeaute depuis sa création.

Si Andy Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général

La manière dont Amazon utilise des logiciels pour tout gérer ne ressemble à aucune autre entreprise ou presque, à l’exception peut-être des géants de la « gig-economy » (économie à la tâche) que sont Uber, Lyft, DoorDash et Instacart. Qu’ils conduisent une camionnette de livraison, qu’ils prélèvent des articles sur des étagères ou qu’ils essaient de faire le suivi de leurs stocks de produits pour éviter d’être déréférencés, les employés, les sous-traitants et les vendeurs tiers d’Amazon sont contrôlés, évalués, récompensés — et font même l’objet de signalements en vue être sanctionnés ou coachés — par des logiciels.

Bien que M. Jassy soit souvent décrit par ceux qui ont travaillé pour lui comme quelqu’un ressemblant beaucoup à Jeff Bezos — mais peut-être en plus doux et chaleureux —, on peut affirmer qu’il existe actuellement un fort contraste entre la façon dont il se comporte dans ses relations quotidiennes et celle dont les algorithmes et l’intelligence artificielle d’Amazon traitent les millions d’employés de terrain et de marchands sur sa marketplace. Si M. Jassy parvient à faire en sorte que les algorithmes s’occupent des salariés et des partenaires de manière aussi humaine qu’il manage apparemment les individus avec lesquelles il travaille personnellement, cela pourrait constituer son principal legs en tant que directeur général.

Ayant fondé Amazon Web Services à partir d’une petite start-up qu’il a dirigée au sein d’Amazon, au début des années 2000, pour en faire le mastodonte du secteur du cloud (qui génère la moitié des bénéfices d’Amazon), M. Jassy a une parfaite compréhension non seulement des arcanes Internet des innombrables entreprises de la tech, de Netflix à Slack, qu’AWS accompagne, mais aussi comment cette unité est connectée à la myriade d’activités exploitées par Amazon lui-même. Aujourd’hui âgé de 53 ans, M. Jassy a rejoint Amazon en 1997, juste après avoir obtenu son diplôme de la Harvard Business School.

L’expérience acquise par M. Jassy dans le domaine du cloud ne l’a peut-être pas préparé à prendre la tête d’un concurrent comme Walmart, dont le modèle est toujours basé sur les magasins physiques. Mais, avec ses vingt-quatre ans passés chez Amazon, il dispose de tous les atouts pour diriger les activités de l’entreprise, que ce soit le e-commerce ou le reste de son empire tentaculaire. (Le cloud computing est une technologie informatique à distance accessible par Internet, centrale dans un nombre incalculable de domaines, de la révolution mobile aux dizaines de services que nous considérons comme allant de soi, comme par exemple le streaming ou l’IA).

L’empire Amazon est aujourd’hui confronté à des défis — technologiques, opérationnels et réglementaires — aussi importants que ceux auxquels il a dû faire face par le passé.

Andy Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ?

Primo, une question concerne l’essence même de la société qu’Amazon souhaite être. Ses dirigeants insistent sur leur volonté de préserver la santé de leurs employés et de leur donner des opportunités de carrière et de formation. Mais la façon dont Amazon manage à la fois ses salariés et les vendeurs tiers via des algorithmes est souvent en contradiction avec ces aspirations. Si M. Jassy décidait d’apporter des changements, Amazon parviendra-t-il à concevoir ses logiciels et ses systèmes de manière à ce qu’ils répondent mieux aux besoins de ceux auxquels ils servent et sur lesquels ils exercent leur pouvoir ?

Secundo, l’infrastructure en cloud qu’Amazon utilise pour gérer et conclure des transactions avec ses millions de clients héberge également des systèmes qui, selon de nombreux témoignages, poussent ses employés à travailler encore plus dur, et laissent souvent ses vendeurs tiers dans le flou sur la meilleure manière de naviguer sur sa marketplace — ce qui alimente les plaintes et les enquêtes sur ses pratiques en matière de conditions de conditions de travail et de concurrence. Amazon va-t-il concevoir ses systèmes de manière à améliorer la qualité de vie de ses employés et à promouvoir des relations meilleures et plus transparentes avec ses marchands ?

Tertio, M. Jassy pourra-t-il trouver un équilibre entre le statut d’Amazon, un des plus grands employeurs américains, et la volonté de la société d’automatiser autant de tâches que possible ? Enfin, dans quelle mesure pourra-t-il atteindre ses objectifs alors les enquêtes antitrust et les appels au démantèlement de l’entreprise se multiplient ?

Le départ de M. Bezos de son poste de directeur général donne à l’entreprise l’occasion d’essayer de redorer son image publique, à Washington et dans le monde entier. Beaucoup de ceux qui ont travaillé avec M. Jassy expliquent que, bien qu’il ressemble à M. Bezos à certains égards, il est d’un naturel plus doux et plus réservé.

Vice-président senior de la vente au détail chez Amazon de 1997 à 2002, David Risher a travaillé en étroite collaboration avec M. Jassy. « Si l’on se fie à son passé, il va diriger tout autant avec son cœur qu’avec sa tête, assure M. Risher. Il manage toujours avec une véritable empathie, pas en faisant semblant. » Les deux hommes sont toujours en contact : M. Jassy est membre du conseil consultatif de l’association Worldreader de M. Risher, qui aide les enfants défavorisés à avoir accès aux livres numériques.

Dans les activités de e-commerce d’Amazon, à toutes les étapes de la chaîne d’approvisionnement, les humains intègrent rapidement des emplois qui ne nécessitent presque aucune formation. Cela a été rendu possible par la manière dont ces tâches sont régies et encadrées par les algorithmes et l’automatisation. Dans les centres logistiques les plus sophistiqués d’Amazon, par exemple, les employés collectant des articles sur les rayonnages robotisés sont surveillés par des caméras équipées d’un système d’intelligence artificielle. Un lecteur de code-barres connecté au cloud contrôle la vitesse à laquelle ils choisissent les articles, le nombre et la durée de leurs pauses et s’ils prennent les bons articles et les placent aux bons endroits. Les responsables ne doivent intervenir que si le logiciel signale un problème, par exemple si un employé prend du retard.

Un porte-parole d’Amazon rejette l’idée que, dans les entrepôts, toute personne est « gérée par un algorithme », au motif que tous les collaborateurs ont au-dessus d’eux un manager humain qui en est responsable et les coache s’ils ne répondent pas aux objectifs de rendement. « Nos travailleurs de terrain sont le cœur et l’âme d’Amazon », et reçoivent les mêmes avantages que les autres employés de l’entreprise dès leur premier jour de travail, ajoute le porte-parole. Par le passé, Amazon avait assuré que seul un faible pourcentage de ses collaborateurs étaient licenciés ou quittaient l’entreprise pour manque de performances.

L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter

Les logiciels, eux, ont déjà remplacé les salariés qui s’occupaient des comptes des partenaires commerciaux. Même les grandes marques qui décident de vendre sur Amazon ont pour la plupart affaire avec les systèmes automatisés de l’entreprise. L’IA régit presque entièrement la façon dont les vendeurs sont traités sur la marketplace d’Amazon, et il n’est pas toujours facile de travailler avec elle, explique Jason Boyce, qui a été pendant dix-sept ans l’un des 200 meilleurs vendeurs sur la plateforme, et a ensuite fondé Avenue7Media, qui aide les entreprises à vendre sur la marketplace d’Amazon.

« Leur IA n’est pas toujours très subtile », estime-t-il. Il arrive que les listings de vendeurs soient réduits sans préavis ou presque : les petites entreprises doivent alors se débrouiller pour payer les salaires, ajoute-t-il.

« Amazon investit lourdement pour épauler ses vendeurs, car nous travaillons ensemble pour servir leurs clients et protéger leurs marques, déclare un porte-parole d’Amazon. Il est dans notre intérêt économique de minimiser les perturbations affectant les ventes de nos partenaires commerciaux, et nous travaillons dur pour éviter les erreurs en matière d’exécution. Nous contactons tous les vendeurs présentant peu de faibles risques ou permanents avant de les suspendre, et nous fournissons des indications claires pour qu’ils puissent faire appel de ces décisions par l’intermédiaire de notre équipe. »

Jeff Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon

M. Jassy pourrait choisir d’améliorer ces systèmes, ou, au contraire, se contenter d’automatiser la plupart des rôles occupés par des employés. Et, si les régulateurs n’interviennent pas, il pourrait faire de même dans les relations avec nombre de ses partenaires et des marchands présents sur sa marketplace.

A l’heure actuelle, Amazon cherche autant d’employés que possible. Mais selon les résultats des actions destinées à renforcer la syndicalisation au sein de l’entreprise, celle-ci pourrait bientôt avoir une autre grande raison d’automatiser le plus rapidement possible des postes. L’entreprise a eu recours à de nombreuses stratégies pour entraver la syndicalisation dans ses locaux, avançant, entre autres, qu’une main-d’œuvre syndiquée réduirait la flexibilité nécessaire pour continuer à s’adapter.

Il est clair qu’Amazon veut utiliser ses infrastructures d’IA et de cloud computing pour mener à bien une automatisation encore plus poussée, comme par exemple sur la livraison autonome, à la fois par drones et véhicules sur roues. Alors qu’au niveau local, Amazon sous-traite à des milliers de franchisés le dernier kilomètre de livraison sur son propre réseau logistique, la société pourrait mettre fin aux contrats avec ces entreprises pratiquement du jour au lendemain, comme elle l’a déjà fait par le passé, sans que cela n’affecte la taille des effectifs qu’elle emploie directement.

M. Bezos, doté d’un indéniable talent de vision à long terme, semble avoir choisi le bon moment pour nommer un nouveau directeur général imperturbable qui a l’opportunité, et peut-être le tempérament, de redorer le blason d’Amazon. Outre la syndicalisation, le plus grand défi qui se profile dans l’immédiat pour l’entreprise pourrait être d’affronter, pendant des années, des séries auditions devant le Congrès et des enquêtes fédérales cherchant à déterminer si Amazon constitue un monopole susceptible d’être démantelé, souligne Paul Armstrong, analyste du secteur et créateur du bulletin d’information What Did Amazon Do This Week.

Sous la direction de M. Jassy, « je pense que vous risquez de vous retrouver avec un Amazon plus ennuyeux », ajoute M. Armstrong. Connu pour son sang-froid et son souci du détail, M. Jassy a aussi l’avantage de ne pas s’identifier à l’entreprise aussi personnellement que M. Bezos, son créateur. Cela pourrait lui être utile, car il sera contraint de comparaître devant le Congrès de manière récurrente et de passer une grande partie de son temps à s’enfermer avec ses avocats, si les actions antitrust contre Amazon se concrétisaient.

Utiliser l’IA, les logiciels et l’automatisation pour alléger les tâches des employés, ou pour les obliger à travailler plus dur afin de suivre le rythme, est un choix auquel toutes les entreprises sont confrontées à l’ère de la numérisation. Mais aucune ne l’est plus qu’Amazon. Il est possible que M. Jassy choisisse de gérer cette transition différemment de M. Bezos, connu pour son exigence. Il est également possible qu’il se sente contraint, à cause de la surveillance des régulateurs, de gérer les choses autrement que son prédécesseur.

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Traduit à partir de la version originale en anglais

L’Enjeu de la prospective

L’Enjeu de  la prospective

Par Jean-Eric Aubert (président de la Fondation 2100), Thierry Gaudin (président d’honneur de la Fondation 2100)

 

Ceux qui font profession de prévoir le futur, autrement dit qui s’adonnent aux métiers de la prospective, courent en général deux risques : le premier est de se tromper, le second est d’avoir raison trop tôt. La pandémie de Covid-19 nous en offre un exemple tout frais. De nombreux travaux scientifiques ont évoqué la possibilité de la survenue d’un tel épisode sanitaire bien avant qu’il n’apparaisse. Des auteurs ont écrit des livres prémonitoires comme le grand épidémiologiste américain Michael Osterholm (« Deadliest Enemy : Our War Against Killer Germs », 2017), la CIA a alerté, sans parler de Bill Gates qui a sonné l’alarme sur la survenue probable d’une grande et mortelle pandémie. Et pourtant, aucun pays n’a accordé d’importance à ces signaux avancés et tous ont été surpris et largement impréparés.

Est-ce une raison suffisante pour que les prospectivistes changent de métier ? Certainement pas. C’est même le contraire. L’humanité fait face à de tels défis - réchauffement climatique, révolutions technologiques, basculements géopolitiques, transitions démographiques… - qu’il est plus nécessaire que jamais d’en comprendre les enjeux, d’anticiper leurs conséquences et d’agir pour prévenir les catastrophes. Cet horizon peut paraître éloigné, mais les enfants qui naissent aujourd’hui seront, pour la plupart, encore en vie à la fin du siècle. Leur laisser une planète vivable implique de s’engager dans cette prospective opérationnelle et mondiale dès maintenant - d’autant que l’adaptation des sociétés humaines à de profonds changements prend toujours du temps.

Projeter une vue d’ensemble

Comprendre les phénomènes à l’oeuvre, c’est d’abord chercher à en projeter une vue d’ensemble. Une approche partielle, influencée par les conformismes et les consensus, ne permet pas de saisir la complexité de ces phénomènes et leurs interactions. Et lorsque les visions sont inspirées par des idéologies ou des modes, celles-ci biaisent la perception. Soit par excès d’optimisme, par exemple dans les possibilités des technologies vantées par les « transhumanistes ». Soit par excès de pessimisme, avec les perspectives d’effondrement mondial prophétisées par les « collapsologues ».

L’ enjeu de l’hydrogène

L’ enjeu de l’hydrogène

 

Laurent Favre (Plastic Omnium) évoque l’enjeu de l’hydrogène pour l’Europe.

 

La pandémie va laisser des traces et rebattre les cartes de l’industrie automobile mondiale. L’Europe, qui pratique en permanence le compromis sécurité sanitaire/maintien de l’activité, apparaît plus durablement touchée, constate Laurent Favre, directeur général de l’équipementier Plastic Omnium depuis le 1er janvier 2020…

Quel bilan et surtout quelles leçons tirez-vous de la pandémie ?

Evidemment, la première partie de 2020 a été très chaotique mais par temps de pandémie, être global est un avantage. Nous avons trente usines en Chine, d’où la pandémie est partie, ce qui nous a permis de préparer le reste du groupe, humainement et économiquement. Sur le plan sanitaire, nous avons mis en place un protocole unique dans toutes nos usines, ce qui a encore rapproché les équipes : chez Plastic Omnium, tout le monde travaillait de la même façon. Cela nous a fait prendre conscience à quel point il faut pouvoir se reposer sur une organisation fondée sur la cohésion et la solidarité des équipes.

Parallèlement, nous avons travaillé sur le monde de demain. Pas question de laisser la Covid-19 imposer son agenda ! Cette crise n’a fait qu’accélérer et amplifier les tendances lourdes qui se dessinaient. Depuis 2017, les volumes mondiaux de ventes de véhicules reculaient, sous l’influence des nouveaux usages et des exigences liées aux nouvelles mobilités. Il va falloir accélérer notre adaptation à ce nouveau contexte ; les sujets sociétaux et environnementaux sont d’ailleurs très présents dans les plans de relance mondiaux. Dans le groupe, nous nous sommes aussi rendu compte qu’on ne profitait pas à plein des outils digitaux, la visite virtuelle d’usines, le télétravail… De cette crise émergera un nouveau modèle de fonctionnement.

Quid de la conjoncture mondiale automobile. La pandémie rebat-elle les cartes ?

Le marché asiatique est reparti très rapidement. En Chine, les volumes au second semestre ont été supérieurs à ceux de la même période de 2019. L’Amérique du Nord a repris un fonctionnement quasi normal, cette région ayant clairement choisi de préserver l’économie. En revanche, l’Europe qui représente 55 % des débouchés du groupe, et pratique en permanence le compromis sécurité sanitaire/maintien de l’activité, apparaît plus durablement touchée.

Oui, cette crise va laisser des traces et rebattre les cartes car l’écart se creuse entre le Vieux continent et la Chine, en termes de croissance et de développement technologique. De ce fait, la pandémie va certainement fragmenter le marché de la mobilité. Le secteur fonctionnait autour de plateformes globales, desservant des implantations mondiales. L’avenir se dessine autour d’organisations beaucoup plus locales, répondant à des besoins spécifiques régionaux.

Dans ce contexte, les appels du gouvernement à la relocalisation ont-ils un sens ?

En l’occurrence, la France ne représente que 6 à 7 % de nos débouchés, et notre stratégie a toujours été de développer, d’acheter et de produire là où nous vendons. Pas question de produire en France ce que nous vendons en Chine et inversement ! Cela ne changera pas. En revanche, la chaîne logistique sera plus affectée. Avant la Covid, les barrières douanières, les fluctuations de taux de change, le débat grandissant sur la pollution liée au transport des pièces pesaient déjà en faveur de la localisation de ces chaînes. La crise amplifie ce besoin, on le voit aujourd’hui avec la pénurie de composants électroniques qui pénalise le secteur automobile.

Nouvelles mobilités égalent nouvelles productions. Cela entraîne-t-il des bouleversements chez Plastic Omnium ?

La première étape de la mobilité propre consiste à décarboner les moteurs thermiques, essence et diesel. C’est un gros marché pour Plastic Omnium qui est leader mondial des systèmes de dépollution. La deuxième étape, c’est l’hybridation des véhicules : on mixe moteurs à combustible et électrique, cela nécessite des réservoirs plus complexes, domaine dans lequel le groupe innove beaucoup.

Le « tout électrique » arrivera dans un troisième temps. Nous estimons qu’il représentera 30 % du marché mondial, dix fois plus qu’aujourd’hui, en 2030, avec de gros écarts par région. Ce sera sans doute plus important en Europe, moins aux Etats-Unis. Cela signifie que 70 % du marché sera toujours très « hybridé ». Nous préparons le coup d’après avec le moteur à hydrogène, qui est un véhicule électrique pour lequel le stockage de l’énergie se fait par le biais de réservoirs à hydrogène.

Où en est Plastic Omnium dans ce domaine ?

Depuis 2015, nous avons investi 200 millions d’euros dans le réservoir hydrogène à haute pression (700 bars), qui permet de maximiser la quantité d’énergie dans un minimum de place. La deuxième étape est la transformation de cette énergie en électricité, par la pile à combustible. C’est le sens du partenariat que nous avons conclu en octobre avec l’allemand ElringKlinger. Notre coentreprise, EKPO, a vocation à devenir le leader mondial de la pile à combustible. L’hydrogène est une vraie alternative au modèle 100 % batterie. Le consensus est qu’il n’y aura pas à l’avenir un seul mode de motorisation. La fragmentation régnera aussi dans ce domaine, avec d’un côté le 100 % batterie pour les véhicules urbains, de l’autre le 100 % hydrogène pour les poids lourds, et entre les deux une grande partie d’hybride, batterie/pile à combustible.

L’autre certitude est que l’Europe a une vraie carte à jouer dans l’hydrogène. Elle dispose des champions mondiaux de la production d’hydrogène et d’électricité décarbonée, ainsi que des savoir-faire. Le véritable enjeu, ce sont les infrastructures, les bornes de recharge notamment. C’est dans ce domaine que l’Europe est en train de prendre beaucoup de retard.

«Le soutien à court terme de l’économie est justifié, mais il est risqué. Dans notre secteur la perfusion pourra se révéler dangereuse si elle maintient artificiellement en vie des sous-traitants automobile qui étaient déjà mal en point avant la pandémie. La casse ne sera pas évitée, elle n’est que reportée»

Que pensez-vous des différents plans de soutien, français et européen, à la filière automobile et aux énergies propres ?

Le soutien à court terme de l’économie est justifié, mais il est risqué. L’Etat arrête l’économie, il l’empêche de couler, c’est normal. Mais dans notre secteur la perfusion pourra se révéler dangereuse si elle maintient artificiellement en vie des sous-traitants automobile qui étaient déjà mal en point avant la pandémie. La casse ne sera pas évitée, elle n’est que reportée. En revanche, les mesures structurelles, les plans visant à développer une industrie de l’hydrogène par exemple, sont une très bonne chose. L’Europe a là une occasion de reprendre la main. C’est une vraie opportunité ! Dans ce domaine, notre ambition est de profiter non pas de subventions, mais de l’écosystème et des infrastructures que ces plans doivent permettre d’installer.

En France, la vente de voitures est retombée à son niveau de 1975. Comment le marché peut-il se redresser ?

Là encore, la pandémie n’a fait qu’amplifier une tendance. Les décisions des constructeurs annonçaient déjà une baisse de 20 % de la production dans notre pays. Bon nombre de nouveaux modèles ne sont plus assemblés en France. Au-delà du marché français, le monde automobile « fantasmait » beaucoup avant la crise sur l’objectif de 100 millions de véhicules produits en un an. Notre scénario n’envisage pas cette hypothèse pour les prochaines années.

La croissance en volume telle qu’elle a pu être observée depuis une quinzaine d’années n’aura pas lieu. Le marché va-t-il plafonner à 80 ou 85 millions de véhicules ? Notre certitude est que l’évolution des usages et de la mobilité indique que la croissance future se mesurera en termes de contenu technologique et non d’unités vendues. Telle est d’ailleurs notre ambition : il faut de plus en plus de technologie, d’innovation et de valeur ajoutée de Plastic Omnium dans chaque véhicule. Tous nos produits auront demain davantage de fonctionnalités. C’est vrai pour toute l’industrie : l’innovation et la R & D feront plus que jamais la différence.

Quelle est votre stratégie dans ce domaine ?

La R & D représente 5 % de notre chiffre d’affaires. Ceux qui n’auront pas les moyens de suivre le rythme seront fragilisés. Cela préfigure sans doute une vague de consolidations dans le secteur au cours des 18-24 prochains mois, Plastic Omnium a la volonté et les moyens d’être un agent consolidateur. Et il dispose de l’atout majeur d’un actionnariat stable. Sur l’hydrogène, la France sera notre centre de gravité. Nous allons concentrer notre recherche sur deux sites, à Compiègne et en Chine. En matière de R & D, il n’y a pas de déclassement européen. Il faut absolument capitaliser sur cet atout et ne pas se laisser distancer.

 

 

Hydrogène : un enjeu de souveraineté énergétique

Hydrogène : un enjeu de souveraineté énergétique

 

AGNES PANNIER-RUNACHER , secrétaire d’État auprès du ministre de l’économie, considère que l’hydrogène est un enjeu de souveraineté énergétique et que la France est bien placée pour exploiter cette filière. (Interview dans la Tribune)

 

Presque deux ans et demi après le lancement du plan Hulot doté de 100 millions d’euros, pourquoi avoir attendu le plan de relance pour débloquer 7 milliards d’euros et faire émerger une filière de l’hydrogène vert ?

AGNES PANNIER-RUNACHER: L’hydrogène constitue à la fois un enjeu de souveraineté technologique et d’indépendance énergétique, de même qu’il est une brique indispensable à la transition énergétique. Il est un must-have, si j’ose dire, en termes de mobilité – trains, avions, bateaux, engins de travaux publics, machines agricoles – et en matière de décarbonation de l’industrie.

C’est pour cela que l’hydrogène a été identifié dans le plan Hulot et a été un axe important de travail dans la préparation du Pacte productif piloté par Bruno Le Maire et qui, rappelez-vous, devait être présenté en avril 2020. C’est pourquoi cette brique s’est naturellement retrouvée intégrée au plan de relance. Le Conseil de l’innovation l’a en outre mis en avant comme un marché clé sur lequel la France devait rapidement se positionner, et l’Europe en a fait un de ses chantiers de valeurs stratégiques.

Il n’empêche qu’aujourd’hui 95% de l’hydrogène produit dans le monde est gris. Comment allez-vous vous assurer que « le vôtre » sera bien vert ?

A. P-R : L’hydrogène décarboné repose sur l’eau et sur l’électricité issue des énergies renouvelables, mais aussi du nucléaire. Pour nous approcher de la neutralité carbone et lutter contre les gaz à effet de serre, nous devons mobiliser toutes les sources d’énergie qui présentent un bilan carbone meilleur que celui des hydrocarbures.

Sachant que l’hydrogène décarboné est pour l’instant trois à quatre  fois plus cher à produire que l’hydrogène gris (de 4,5 voire 6 euros le kilo contre 1,5 euro) nous apportons un soutien public et investissons dans la R&D pour développer des solutions compétitives. Il s’agit également de favoriser la montée en volume pour amortir les coûts grâce aux économies d’échelle.

C’est toute la philosophie du plan de relance présenté par le gouvernement, tout en développant une brique technologique s’appuyant sur l’existant. Pour ne citer qu’eux, McPhy fabrique des électrolyseurs ; Faurecia des réservoirs ; Safra, Iveco, PSA, Michelin des équipements et véhicules ; sans compter les multiples start-up françaises. Mais cet écosystème n’est pas encore suffisamment solidifié pour constituer une offre puissante et jouer à l’échelle européenne et internationale.

« Petites entreprises: un enjeu central pour l’emploi »

« Petites entreprises: un enjeu central pour l’emploi »

Le sociologue Philippe Trouvé constate, dans une tribune au « Monde », que l’effondrement de l’économie a généré des mesures de soutien indiscriminé aux entreprises, englobant de fait les PME dans la politique économique.

Tribune. A la différence des grandes crises qui ont secoué l’économie mondiale au cours des dernières décennies, celle liée à la pandémie de Covid-19 éclaire d’un jour nouveau le rôle vital des très petites et des petites et moyennes entreprises (TPE et PME), qui pouvaient passer jusqu’ici, à l’heure de la « start-up nation », de la « révolution numérique » et du grand jeu de la « compétitivité mondiale », pour un poids mort.

Lire aussi  Patrons de PME éprouvés par la crise, témoignez

Les crises précédentes – crises asiatiques ou sud-américaines des années 2000, des subprimes en 2008, de la dette en 2010 – se sont surtout déployées dans le noyau dur du capitalisme financier : il s’agissait, pour reprendre la célèbre tripartition de l’économie inventée jadis par l’historien Fernand Braudel (Civilisation matérielle, économie et capitalisme, Armand Colin, 1979), d’un « phénomène d’altitude », touchant les relations commerciales « au loin ». En revanche, la crise présente, déclenchée par des mesures sans précédent de confinement des populations, a affecté en priorité les deux autres étages « braudéliens » de l’économie. D’une part, celui des « structures du quotidien », de « la vie matérielle » des populations qui tentent de satisfaire leurs besoins élémentaires (vie domestique, alimentation, santé…) ; d’autre part, celui des « échanges marchands de voisinage » et de « l’économie d’usage », domaine de la petite production artisanale, commerciale et servicielle.

Dès lors, le maintien de l’activité des plus petites entreprises, souvent les moins visibles et considérées comme les moins productives, est devenu brutalement un enjeu central pour les politiques publiques, habituées jusqu’alors à favoriser la compétitivité des entreprises considérées comme les mieux armées pour s’inscrire dans les chaînes de valeur mondialisées, ou offrant le plus fort potentiel de développement, d’innovation et de création d’emplois – les championnes de la French Tech, les PME insérées dans les « pôles de compétitivité », les « champions nationaux »…

A l’inverse des traditionnelles politiques publiques de soutien à la compétitivité ou à l’innovation, promptes à livrer les canards boiteux aux forces impitoyables du marché, il a fallu adopter un train de mesures plus prosaïques, frapper fort et tous azimuts. D’où le recours à des aides individualisées – là où les mesures de soutien étaient plutôt conditionnées à la capacité de se constituer en réseau, à des interventions à plusieurs niveaux – local, territorial, sectoriel et national –, quand les politiques antérieures prétendaient « cibler » des objectifs macroéconomiques, et enfin au resserrement des « critères d’éligibilité », auparavant complexes et illisibles, sur la sécurisation de la trésorerie à court terme (subventions salariales par l’activité partielle, reports de charges, d’impôts et de cotisations, prêts garantis par l’Etat, fonds de solidarité, etc.).

 

Accord Israël-Emirats: un enjeu géopolitique majeur

Accord Israël-Emirats: un enjeu géopolitique majeur

 

Spécialiste du Moyen-Orient, David Khalfa ,chercheur au Center for peace communications, à New York explique dans l’Opinion pourquoi l’accord entre Israël et les émirats un enjeu géopolitique nouveau.

Quelle est la portée de l’accord de paix signé entre Israël et les Emirats arabes unis (EAU) ?

Israël est né dans le fracas de la guerre. C’était l’ennemi historique, dans la vision panarabe classique qui déniait à ce pays le droit à l’existence. Les Etats arabes avaient formulé, au sortir de la guerre de 1967, les fameux trois non de la « résolution de Khartoum » : non à la paix avec Israël, à la reconnaissance d’Israël et à toute négociation avec Israël. De ce point de vue, l’accord annoncé jeudi marque un changement d’ère et le recul du front du refus.

Ce front avait déjà été fissuré…

Oui, par l’accord de paix de 1979 entre l’Egypte et Israël puis par le traité de paix israélo-jordanien de 1994. Les pays arabes conditionnaient désormais la normalisation de leurs relations avec Israël à la résolution du conflit israélo-palestinien selon la formule de la « terre contre la paix ». Cette position impliquait pour les Arabes un retrait israélien sur les lignes d’armistices de 1949. La signature des accords d’Oslo a accéléré ce processus de normalisation. La décision du Conseil de coopération du Golfe regroupant six monarchies (Arabie saoudite, Qatar, Koweït, Oman, Bahreïn, EAU) d’annuler le boycott des entreprises ayant des relations commerciales avec Israël et l’ouverture de missions diplomatiques israéliennes au Qatar ou à Oman traduisaient cet élan. L’adoption de l’« initiative arabe de paix » du roi Abdallah d’Arabie saoudite, en 2002, constituait une nouvelle étape mais le principe « terre contre la paix » était maintenu tout comme la position traditionnelle sur les réfugiés. Les sceptiques doutaient qu’une authentique normalisation puisse voir le jour en l’absence de concessions significatives d’Israël sur le dossier palestinien. Les pays arabes préféreraient s’en tenir à des relations discrètes au nom d’intérêts stratégiques communs, particulièrement dans la lutte contre les ambitions régionales iraniennes. On se bornait à l’adage : « L’ennemi de mon ennemi est mon ami ». Cet accord est donc le prélude à une profonde évolution du jeu géopolitique régionale.

Comment a-t-il été formalisé ?

Dans le plus grand secret entre Donald Trump, Mohammed ben Zayed et Benjamin Netanyahu, via le leurs conseillers respectifs depuis environ un an et demi. Ni Benny Gantz, vice-premier ministre et ministre de la Défense d’Israël, ni son collègue des Affaires étrangères, Gabi Ashkenazi, ne semblent avoir été associés. Jared Kushner, conseiller de Donald Trump, a joué un rôle très important. Il a empêché le Premier ministre israélien de poursuivre son projet d’annexion d’une partie de la Cisjordanie. Les autres grand artisans sont l’ambassadeur émirati à Washington, Yousef al-Otaiba, proche du gendre du président américain, qui a poussé son avantage en obtenant le retrait de facto du projet d’annexion en échange de l’établissement de relations diplomatiques officielles avec Israël, et Yossi Cohen, le chef du Mossad. Kushner et al-Otaiba ont convaincu le président américain de ne pas écouter l’ambassadeur américain en Israël, David Friedman, favorable à l’annexion.

 

Cet accord ouvre-t-il la voie à la normalisation des relations israéliennes avec d’autres pays ?

Les Etats arabes ont jusqu’ici joué un double jeu. Ils maintenaient la fiction du refus de la normalisation avec Israël tout en encourageant discrètement le dialogue et la coopération. Des rencontres d’experts israéliens et des pays du Golfe se sont multipliées ces dernières années lors de colloques internationaux à Londres et à Washington. Les visites réciproques de représentants ou ex-responsables du renseignement se sont accélérées. On sentait cet accord venir à l’aune de certaines déclarations des dirigeants des monarchies du Golfe, notamment celles de Mohamed Ben Salmane et de Mohammed ben Zayed. Ces déclarations rompaient avec les positions anti-israéliennes traditionnelles des dirigeants nationalistes arabes. Le voyage surprise de Benjamin Netanyahu à Oman en octobre 2018 confirmait ce rapprochement de manière spectaculaire. Israël devrait normaliser, à court ou moyen terme, ses relations avec Bahreïn, Oman, le Soudan et certains pays musulmans d’Afrique.

Comment cela est-il devenu possible ?

L’accord entre les Emirats et Israël marque un changement de perception de l’Etat juif dans le monde arabe. Israël n’est plus considéré par ces pays comme une menace mais comme une force stabilisatrice dans une région volatile et chaotique. Par ailleurs, Israël est une puissance militaire, technologique et économique avec laquelle il faut compter et donc coopérer, en particulier dans le contexte des redéploiements américains au Moyen-Orient. Les monarchies pétrolières et gazières ont compris que le cours des hydrocarbures resterait durablement bas et qu’elles devaient moderniser leurs économies en diversifiant leurs exportations. Israël peut les y aider. L’accord entre Jérusalem et Abu Dhabi évoque d’ailleurs un volet technologique et économique.

Israël se trouve-t-elle dans une nouvelle alliance géopolitique ?

Les rapports de force sont en train d’évoluer. Plusieurs pays arabes sunnites veulent formaliser une alliance de revers avec Israël afin de contrer les ambitions régionales de l’alliance qataro-turque et de l’Iran. Ce dernier est considéré comme le problème de sécurité nationale numéro 1 par les principales puissances sunnites de la région. La Turquie n’a pas tardé à réagir dénonçant le « comportement hypocrite » et la trahison à la cause palestinienne des Emirats arabes unis. Et Téhéran qualifie cet accord de «dangereux » et «illégitime ».

Le timing de cet accord est parfait pour Trump et Nethanyahu…

Il arrive au meilleur moment pour le président américain, en quête d’une réélection mais en perte de vitesse dans les sondages. Tous deux sont par ailleurs accusés d’avoir mal géré la pandémie de Covid-19. Donald Trump, qui a pour l’heure échoué à arracher un accord en Corée du Nord et n’est pas parvenu à faire revenir les Iraniens à la table des négociations, tient son premier succès de politique étrangère. Son rival démocrate, Joe Biden, n’a pu que saluer cet accord. C’est aussi une victoire diplomatique pour Benjamin Netanyahu. Ce dernier était également dans une mauvaise passe, sa coalition bat de l’aile faute d’arriver à établir un budget pluriannuel. Mais il doit maintenant faire face à la grogne du mouvement des colons et à l’opposition de la droite dure qui dénonce une trahison de ses promesses électorales. Le Premier ministre israélien tente de limiter la casse en évoquant une simple « suspension » du projet d’annexion quand Trump parle, lui, d’abandon.

Cet accord aura-t-il un impact sur la politique étrangère de la France ?

La France maintient la fiction diplomatique d’une solution à deux Etats pour résoudre le conflit israélo-palestinien, selon des paramètres qui ne correspondent plus à la réalité du terrain. Elle souhaite la reprise des négociations entre Israéliens et Palestiniens alors qu’une majorité de la population, de part et d’autre, n’y croit plus. Sa position médiane de soutien à la sécurité d’Israël tout en promouvant la cause palestinienne sera plus difficile à tenir, d’autant que son allié émirati a choisi son camp. Toute relance des négociations bute d’ailleurs sur l’incapacité du Fatah et du Hamas à se mettre d’accord pour de nouvelles élections. Le Mouvement national palestinien est en perte de vitesse dans le monde arabe. Son leadership est divisé, corrompu et impopulaire. Seul un renouvellement générationnel permettrait de sortir de l’impasse. Mahmoud Abbas, le patron de l’Autorité palestinienne, a choisi une stratégie visant à internationaliser le conflit et isoler Israël, qui se retourne aujourd’hui contre lui. Il est plus isolé que jamais.

 

« Souveraineté numérique , enjeu de liberté »

« Souveraineté numérique , enjeu de liberté  »

Face aux géants américains et chinois, la France et l’Europe doivent à la fois innover dans les technologies critiques et protéger les consommateurs et les citoyens, explique le haut fonctionnaire, Thomas Courbe, Directeur général des entreprises ( qui dépend du ministère de l’économie)  dans une tribune au « Monde ».U article intéressant mais qui fait un peu l’impasse qui relève de la souveraineté nationale et ce qui dépend de la souveraineté européenne. De ce point de vue, la récente décision du tribunal et 14 milliards de fiscalités que doit Apple ( avec la complicité de l’Irlande ) permet de s’interroger sur le champ géographique des enjeux de liberté.

 

Tribune.

 

«  La position dominante des géants américains du Web et de leurs concurrents chinois représente un véritable défi pour la France et l’Union européenne. La bataille pour la maîtrise des « technologies clés », illustrée par les tensions sino-américaines, est également décisive. Face à ces enjeux, la souveraineté numérique sera la condition essentielle de notre liberté et de la transformation réussie de notre économie.

Il ne s’agit pas de remettre en cause les liens d’interdépendance nés de la mondialisation, mais bien d’en infléchir les modalités. Les pouvoirs publics agissent en ce sens, guidés par une doctrine simple : maîtriser à la fois les technologies critiques et les règles applicables à l’environnement numérique pour préserver notre indépendance. Par exemple, la nouvelle génération de réseaux de téléphonie mobile (5G) permettra des usages nouveaux, à forte valeur économique, tels que le véhicule autonome ou l’usine connectée, mais engendrera également des risques nouveaux : la loi sur la sécurité des réseaux mobiles, promulguée le 1er août, va ainsi assurer que l’ensemble des équipementiers de téléphonie mobile pour la 5G réponde à nos préoccupations en matière de sécurité.

Maîtriser les technologies critiques, c’est assurer la robustesse de notre environnement numérique, en France et en Europe.

De manière offensive, la France soutient la croissance des secteurs innovants, spécialement à travers ses stratégies pour l’intelligence artificielle et la Blockchain. La mise en place récente d’un « projet important d’intérêt européen commun » dans le domaine de la microélectronique illustre aussi cette ambition. Ce projet crucial pour le développement industriel du futur mobilisera près de 2 milliards d’euros de soutien public et devrait générer 6 milliards d’euros supplémentaires d’investissements privés. Une coopération renforcée avec nos partenaires européens et des investissements publics et privés importants doivent nous permettre, à terme, de concevoir et produire nous-mêmes des technologies sûres et performantes.

Sur un plan défensif, les enjeux liés à notre autonomie stratégique en matière technologique et à la cybersécurité doivent être au cœur de nos réflexions. Les effets du Cloud Act américain de 2018, qui clarifie – et facilite – l’accès des autorités américaines aux données hébergées en dehors des Etats-Unis, sont particulièrement surveillés par les services de l’Etat. Des travaux sont en cours avec le secteur industriel afin d’ajuster les leviers technologiques et juridiques nécessaires à la protection de nos informations stratégiques, notamment en encourageant le développement d’offres de cloud de confiance.«

Hongkong : un enjeu de paix, de démocratie et de liberté

Hongkong : un enjeu de paix, de démocratie et de liberté

Avec la loi relative à la sécurité nationale, imposée le 30 juin par Pékin à Hongkong, , c’est  la mort du modèle unique développé par cette île et le risque  d’« une nouvelle guerre froide » entre la Chine et les Etats-Unis, analyse, dans une tribune au « Monde », l’universitaire Lun Zhang.

 

 » Hongkong est morte ! Cette phrase, je ne cesse de la répéter depuis un certain temps, surtout depuis l’an dernier. C’est à présent confirmé : l’application de la loi relative à la sécurité nationale fait de Hongkong une ville semblable aux autres villes chinoises du point de vue politique. « Un pays, deux systèmes » devient une expression désuète.

Il est vrai que la Bourse de Hongkong peut encore afficher une image relativement sérieuse. Grâce d’une part aux fonds mobilisés par Pékin pour la soutenir et, d’autre part, aux capitaux des entreprises chinoises se retirant du marché américain à la suite du contrôle de plus en plus sévère de l’administration américaine. Le secteur des services hongkongais pourra garder une prospérité relative si la pandémie reste sous contrôle et si les dépenses et l’investissement des continentaux s’y maintiennent. Ces derniers tentent, en effet, d’échapper à une situation économique et politique qui ne cesse de se dégrader en Chine continentale.

Néanmoins, la situation de Hongkong ne pourra pas se stabiliser comme le souhaitent Pékin et certains hommes d’affaires hongkongais ou étrangers, et ce malgré une loi extrêmement dure en termes de répression. Cette loi demeure volontairement floue sur la définition de certains crimes, laissant à Pékin une très grande latitude pour condamner à son gré. La perle d’Orient s’éteint ; une page historique est décidément tournée.

Pour le comprendre, il faut se rappeler que Hongkong est d’abord un produit « mixte » issu de deux cultures, orientale et occidentale, mélange de tradition et de modernité, à la périphérie de la Chine, mais représentant l’Occident en Orient. Son charme et son dynamisme proviennent de ce mélange qui est lié à une période historique aujourd’hui révolue, à l’origine de ses forces mais aussi de ses faiblesses.

Les institutions britanniques, qui garantissaient les libertés individuelles, tout comme la fuite des cerveaux, de la main-d’œuvre et des capitaux de la Chine continentale, après la prise du pouvoir par les communistes, lui ont permis un décollage économique significatif. Ces facteurs ont posé les bases de son rayonnement international.

A cela s’ajoute une conjoncture internationale favorable. Si le succès d’hier de Hongkong est en partie le résultat de la guerre froide, son destin tragique d’aujourd’hui est aussi lié à un nouveau rapport de force, à une nouvelle guerre froide qui s’amorce.

La situation actuelle constitue, en effet, la première bataille de cette nouvelle guerre froide qu’on peut qualifier de warm war (« guerre tiède »), en raison du niveau et de la nature du conflit entre la Chine et les Etats-Unis. La température peut varier y compris jusqu’à la rupture des liens commerciaux ou même un conflit armé. Cette « troisième guerre mondiale » provoque l’ébranlement des organisations internationales. L’ordre mondial est en passe d’être modifié profondément. »

 

Enjeu de l’intelligence artificielle ?

Un député de la majorité propose un débat sur le sens et les conditions de développement de l’intelligence artificielle. Il n’est pas inutile de revenir sur ce concept à partir de l’introduction au remarquable rapport qu’a effectué la CCI de l’Essonne. Une introduction faite par Éric Villani.

« Qu’est-ce que l’intelligence artificielle ? On peut comparer le fonctionnement d’un algorithme de machine learning au développement cognitif de l’enfant : celui-ci apprend en observant le monde, en analysant la manière dont les individus interagissent, en reproduisant les règles sans pour autant qu’on les lui expose explicitement.

Schématiquement, la même chose se produit en matière d’apprentissage automatique : les algorithmes sont désormais entraînés à apprendre seuls sans programmation explicite. Il y a autant de définitions d’intelligence artificielle que de technologies. L’IA fait l’objet d’une compétition vive. Pourquoi ? L’apprentissage par données n’est pas la seule méthode menant à l’intelligence artificielle. Mais c’est aujourd’hui la méthode la plus utilisée, celle qui se développe le plus vite et celle qui fait l’objet de la compétition la plus vive.

L’Europe est la taille minimum pour être dans le concert international. Mais le budget du programme Euro HPC* (6 Mds) est insuffisant  : les Chinois investissent dix fois plus et nous serons toujours en retard de puissance. Des bases de données, à l’échelle européenne, vont voir le jour avec le concours des entreprises.

Il y a aujourd’hui des secteurs en haute tension comme la recherche et d‘autres sont à venir. La France, avec notamment Paris-Saclay et son exceptionnel écosystème, compte parmi les meilleurs mathématiciens au monde. C’est un atout de taille ! Quelle stratégie pour aider les PME essonniennes à prendre le cap des nouvelles technologies ? Elles doivent faire selon leurs moyens : avoir un référent en nouvelles technologies, constituer des petites équipes de veille technologique et de réflexions. L’essentiel pour elles est de créer des coopérations, trouver les bons interlocuteurs. Elles doivent être proactives, se mettre en connexion. * Euro HPC ; programme de l’UE pour le déploiement en Europe d’une infrastructure de calibre mondial dédiée au calcul haute performance (HPC).

Enjeu du climat : Macron-Thunberg, le camelot et la prophétesse

Enjeu du climat : Macron-Thunberg, le camelot et la prophétesse

 

 

Brutalement, Macron et le gouvernement ont changé leur position par rapport à la  jeune militante Greta Thunberg qui porte la révolte de la jeunesse pour défendre l’environnement. Pourtant la France via le  gouvernement avait invité officiellement Greta Thunberg justement pour participer à une plus grande sensibilisation sur le sujet. Le changement de position est intervenu quand Greta ThunBerg a lancé une procédure contre 5 Etats mis en cause dans l’avenir de la jeunesse. Dès lors,  pour Macron et le gouvernement, (d’ailleurs comme pour tous les climato sceptiques), Greta Thunberg est devenue la prophétesse noire voire la sorcière de l’avenir. Macron s’est même désolidarisé des protestations de la jeunesse en France en lui conseillant d’aller manifester en Pologne ! Comme quoi Macron au-delà de la question de l’environnement a bien du mal à se défaire de ses appréciations méprisantes. Certes la tonalité un peu théâtrale de Greta Thunberg peut être discutée mais il s’agit d’une question de forme qui ne remet pas en cause le fond. Greta Thunberg  se contente de reprendre et de s’appuyer sur les constatations des scientifiques et notamment du GIEC ;  Elle critique surtout l’énorme écart entre le discours et la pratique. Or cela concerne y compris la France qui se voudrait bien le champion du monde de l’environnement mais qui ne respecte pas ses propres objectifs, témoins encore l’indigence du budget et de la politique du ministère de l’écologie prévue par exemple dans le budget de 2020. Si Greta Thunberg  apparaît aux yeux  de certains comme une sorte de prophétesse alors Macron, lui, occupe la posture du camelot qui vend du vent. Certes les allusions à l’environnement et au climat sont permanentes mais l’action est cruellement vide en tout cas très insuffisante. Preuve les émissions polluantes par exemple dépassent les normes définies et la France est mise en accusation par l’Europe de ce point de vue.

 

L’enjeu des sciences cognitives pour l’école (Stanislas Dehaene)

L’enjeu des sciences cognitives pour l’école (Stanislas Dehaene)

 

L’enjeu des sciences cognitives est développé par  Stanislas Dehaene professeur au Collège de France, président du Conseil scientifique de l’Éducation nationale dans une interview à La Tribune.

 

 

- Que peut-on attendre des sciences cognitives ?

STANISLAS DEHAENE - Nous commençons à comprendre comment le cerveau apprend. Ces grands principes de l’apprentissage sont utiles pour les enseignants et pour les apprenants eux-mêmes. Il y a des techniques génériques et des techniques spécifiques, comme pour la lecture où nous avons des recommandations très spécifiques. Le Conseil scientifique a également proposé des évaluations particulières, pour la lecture notamment, pour raccourcir le cycle entre la détection des difficultés et l’intervention.

Qu’est-ce que ne pourront pas faire les sciences cognitives ?

Il y a un certain fantasme, lié à la confusion entre sciences cognitives et neurosciences, l’idée qu’on pourra voir en détail le cerveau de chaque enfant. En réalité, ce ne sont pas tellement les outils des neurosciences qui vont servir les méthodes éducatives. Les neurosciences introduisent des grands principes fondamentaux et le chemin est long pour arriver à la salle de classe, où ce ne seront pas des outils d’imagerie cérébrale qui vont nous servir. La psychologie est au centre des questions d’éducation, pas les neurosciences.

Quelle est justement la différence entre les sciences cognitives et les neurosciences ?

Les sciences cognitives sont un grand ensemble, elles essaient de comprendre le fonctionnement de l’esprit humain. À l’intérieur, les neurosciences en sont une sous-composante qui s’intéresse à la mécanique. Ce qui nous intéresse, c’est le comportement des enfants et le fait de tirer le maximum du potentiel cérébral qu’ont tous les enfants.

Que répondez-vous aux critiques qui s’inquiètent de la proéminence des neurosciences ?

Dans le Conseil scientifique, il y a finalement peu de neuroscientifiques. Et d’ailleurs on ne fait pas des neurosciences, mais de l’imagerie cérébrale. Les vraies neurosciences, c’est regarder les neurones individuels, les synapses, les molécules, les neurotransmetteurs. Personne ne fait cela au sein du Conseil scientifique, car ce n’est pas pertinent. On ne va pas réduire les enfants, mais au contraire les aider à s’épanouir, notamment les enfants d’origine sociale défavorisée dont le cerveau n’a pas été nourri par un environnement enrichi. La connaissance scientifique n’est pas parfaite, mais c’est la seule manière d’avancer.

Quel est le bilan du Conseil scientifique pour sa première rentrée ?

Dans notre rôle de conseil, nous sommes au service des enfants. Nous avons aidé le Département d’évaluation et de suivi des programmes à refondre les évaluations en CP et en CE1, pour détecter les difficultés de lecture et de calcul. Tous les écoliers de France en bénéficient dès cette année et on pourra proposer des interventions spécifiques en cas de difficultés. Autre chantier en cours, l’adaptation des examens pour les enfants qui ont des handicaps sensoriels, attentionnels ou moteurs, pour se concentrer sur ce qu’on veut évaluer en rendant les autres aspects périphériques. Par ailleurs, nous sommes en train de faire une synthèse du corpus de nouvelles connaissances en sciences cognitives et d’en faire un Mooc pour la formation continue des enseignants, pour les écoles supérieures du professorat et de l’éducation (Espé) et pourquoi pas pour les parents. L’école des cadres de l’Éducation nationale est également très demandeuse. Il y a trop de connaissances qui ne sont pas encore partagées avec les enseignants.

Quels sont les rapports entre stress, image de soi et apprentissage ?

On sait que le stress bloque l’apprentissage, les neurones ne peuvent plus bouger. Le syndrome d’anxiété mathématique est bien décrit dans la littérature scientifique. Tous les élèves ont des capacités mathématiques, le reste est une construction sociale. L’école doit valoriser les enfants en leur disant qu’ils ne savent pas tout, mais qu’ils vont apprendre. La méta-cognition, cette image qu’on a de soi-même, joue un rôle fondamental dans les apprentissages. Dans tout cours, il y a le contenu et le méta-contenu, ce que j’apprends sur moi-même.

Pour vous, le langage est un enjeu central.

Un des cinq groupes de travail du Conseil scientifique réfléchit à la pédagogie et à l’apprentissage du langage. Il y a trop d’inégalités en France et c’est peut-être la question centrale dans ce domaine. On a une bonne école, qui est l’une des pires du monde pour réduire les inégalités sociales. L’un des enjeux est l’exposition au langage. Notre rôle ne se cantonne pas à l’Éducation nationale car des études montrent qu’expliquer aux parents est une des actions les plus efficaces.

Votre dernier nouveau livre sur l’homodocens [l'homme enseignant, ndlr] et sa prodigieuse capacité d’apprentissage vient de sortir. Que voulez-vous dire dans ce livre ?

Mon livre est une réponse à cette demande d’accès aux connaissances. J’explique les grands axes du fonctionnement du cerveau et comment fonctionne l’apprentissage, en comparant avec l’intelligence artificielle. D’ailleurs, le cerveau est encore inégalé ! J’explique des principes scientifiques, pas des méthodes. L’un de ces principes est de ne pas faire que des cours magistraux, mais d’alterner avec la mise à l’épreuve : le test fait partie de l’apprentissage. Je propose ainsi 13 grands principes. Ne sous-estimons pas les enfants, c’est sans doute le thème principal de mon livre. Ce sont des super-ordinateurs, donnons-leur les données dont ils ont besoin. C’est le travail de l’école et des parents.

Que dites-vous aux parents ?

Mon livre leur explique comment fonctionne le cerveau de leur enfant. J’aimerais aussi qu’ils comprennent l’importance de l’alternance entre veille et sommeil. Pendant la nuit, le cerveau fait tourner des algorithmes d’apprentissage. Les neurones rejouent ce qu’il s’est passé dans la journée. Le cerveau consolide et fait des abstractions qui le mènent à des découvertes. Par des jeux, des activités et des lectures, les parents peuvent prolonger les apprentissages. Voici une recommandation simple : parlez à votre enfant, les yeux dans les yeux et répondez à ses questions avec un vocabulaire qui convient. Tout n’est pas joué à trois ans. La plasticité cérébrale diminue autour de la puberté, on a du temps.

___

BIBLIOGRAPHIE

(*) Le dernier ouvrage de Stanislas Dehaene est « Apprendre ! Les talents du cerveau, le défi des machines », aux Editions Odile Jacob, (septembre 2018), 384 pages, 22,90 euros.

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Italie : un enjeu pour la pérennité de l’Europe

Italie : un enjeu pour la pérennité de l’Europe  

Stéphanie Villers, chef économiste chez  Humanis, souligne l’enjeu que constitue l’Italie pour l’union européenne et notamment la zone euro. (‘Interview la Tribune)

 

« Il serait bien malhabile de croire que l’Italie risque de subir le sort de la Grèce. Bien au contraire, la Péninsule a, aujourd’hui, les cartes en main pour imposer davantage de souplesse dans les traités et plus de solidarité face aux défis exogènes.  Ainsi, la coalition  « improbable » entre un mouvement antisystème M5S et un parti populiste de la Ligue, dispose d’un pouvoir de nuisance et de persuasion vis-à-vis de Bruxelles, que les partis traditionnels et les petits pays de la zone n’ont pas. Rappelons que la victoire de cette coalition résulte de l’incapacité de la zone euro de s’emparer du problème migratoire que subit l’Italie.

Les dirigeants italiens ont, pourtant, maintes fois, alertée contre la menace que constitue le flux de migrants sur leur territoire et des risques encourus à moyen terme. Or, la zone euro est restée muette, mettant en exergue une incohérence insoutenable entre la nécessité de poursuivre la rigueur budgétaire et les conséquences notamment financières de l’arrivée massive de réfugiés en provenance d’Afrique et du Proche-Orient.

En toute logique, il semble difficilement conciliable d’imposer le respect des règles en matière de déficits alors que le pays connaît une croissance atone depuis près de deux décennies et fait face à une vague migratoire exponentielle, imposant de nouvelles dépenses de structure et d’accueil.

Cette attitude de Bruxelles est d’autant plus inappropriée que le pays a réalisé de réels efforts pour maintenir son excédent primaire depuis la crise de 2011. En clair, en dépit du ralentissement économique, le solde budgétaire hors intérêts de la dette est resté positif. L’Italie perçoit des recettes (impôts et taxes) supérieures à ses dépenses.

Ses partenaires européens ne peuvent donc pas accuser l’Italie de mener un train de vie disproportionné. Seule la dette publique demeure à des niveaux inquiétants. Représentant plus de 130% du PIB, elle est le résultat des politiques passées et ne préjugent en rien des efforts actuels fournis.

Dans ce contexte, Bruxelles ne pourra pas contraindre l’Italie, 3e puissance économique de la zone euro, comme ce fut le cas pour la Grèce. Le rapport de force n’est plus le même et le risque de contagion est tel qu’il va obliger la Commission européenne à se montrer plus souple et plus conciliante. Il en va de la légitimité de la zone euro et de sa pérennité. Bruxelles et la BCE ne peuvent se permettre de laisser se développer une crise tous les 5 ans.

En revanche, les solutions européennes au problème italien demeurent limitées. La BCE  a déjà injecté près de 4000 milliards d’euros sur les marchés obligataires européens. Compte tenu de l’amélioration globale de la situation économique de la zone, l’Institut a annoncé la fin progressive de son Quantitative Easing (QE). Il serait, dès lors, malvenu d’annoncer un prolongement de sa politique monétaire ultra-accommodante au-delà de 2018. L’Allemagne s’y opposerait catégoriquement.

Au demeurant, l’Italie, qui dégage un excédent primaire, conserve des petites marges de négociation sur le front budgétaire. Bruxelles pourrait ainsi accepter temporairement de laisser filer les déficits publics italiens afin de soutenir la croissance. Cet ajustement conjoncturel pourrait apporter une bouffée d’oxygène à l’économie locale et relancer progressivement la machine. Ajoutons toutefois que la réforme des retraites avec l’abaissement de l’âge de départ ne paraît pas acceptable, compte tenu de la déformation de la courbe démographique et du vieillissement de la population.

La zone euro doit, de même, proposer des solutions pour sortir de l’impasse migratoire. L’absence de réponse politique lors du prochain conseil européen, en juin, aurait des conséquences dévastatrices pour l’Italie mais aussi l’Europe. Le projet du budget de l’Union Européenne pour la période 2021-2027 prévoit une allocation de 13 milliards d’euros pour la défense et la protection des frontières. Même si c’est une première, ce montant reste clairement insuffisant, compte tenu de l’ampleur des enjeux. Les partenaires de la zone euro, ceux qui partagent le pacte de stabilité et ses contraintes, doivent offrir une issue financière pour que l’Italie puisse sortir de l’impasse.

Ne rien faire sur le problème migratoire et arc-bouter sur le respect des critères de Maastricht vis-à-vis de l’Italie, qui s’est montrée jusqu’à présent bon élève dans la gestion de la crise de la dette souveraine, serait pour les pays membres de la zone euro une prise de risque imprudente et insouciante. Elle  pourrait remettre en cause la pérennité de la zone euro. »

Protection des données : enjeu économique et sociétal

 Protection des données : enjeu économique et sociétal

 

Un sujet en apparence essentiellement technique pour la protection des personnes, en fait un enjeu stratégique : celui de la maitrise des données produites par les individus de manière massive en tout lieu et en tout moment ; des données numérisées qui permettent ensuite de maitriser l’économie et  d’orienter le type de société tant en ce qui concerne le mode de consommation,  la formation de l’opinion et la manière de d’agir. De ce point de vue, les GAFA sont en position hégémonique et la seule réponse de l’Europe est de tenter de réguler le phénomène. Cela ne suffira cependant à combler le phénomène.  À notre insu ou de notre plein gré, nous générons de plus en plus d’informations numériques sur nous mêmes. Stéphane Grumbach, responsable de l’équipe DICE, INRIA, revient sur les enjeux autour de ces données, suite à sa participation au colloque « Le Monde après Snowden», à l’Assemblée nationale, le jeudi 13 mars dernier. Alors que la numérisation de notre monde poursuit sa marche inexorable, celui qui contrôle les données contrôle – théoriquement – toute l’économie. « Tous les secteurs d’activité dépendent désormais des données, juge Stéphane Grumbach. Les marchés traditionnels s’en rendent compte, mais n’ont pas les moyens de réagir. Quant aux pouvoirs publics, particulièrement européens, ils sont dépassés, ils ne comprennent pas forcement les enjeux. Cela pose un vrai problème de souveraineté, l’Europe est devenue dépendante des États-Unis, d’une manière sans cesse croissante. »En attendant l’Europe tente de se protéger  avec le règlement de protection des données.   Voté par Bruxelles en mai 2016, applicable dans les 28 pays membres de l’Union européenne, le RGPD n’est ni plus ni moins que la nouvelle bible régissant dans le détail l’utilisation des données personnelles en Europe. Sa portée est très large, puisque le règlement s’impose à toute structure utilisant à grande échelle des informations de citoyens européens. Cela concerne donc à la fois le public (hôpitaux, enseignement, administrations, collectivités locales…) et, bien sûr, une grande partie du secteur privé, des startups aux PME, jusqu’aux grands groupes. Dans l’entreprise, il faut installer toute une série de garde-fous pour protéger la vie privée des clients et des salariés.   Pour autant, il est difficile – voire impossible – d’empêcher nos données d’être numérisées.

 Ça serait comme refuser d’utiliser l’électricité, explique Stéphane Grumbach. Il est temps d’en avoir conscience et d’accepter les risques inhérents, tout en les maîtrisant.

Grâce aux révélations de l’affaire Snowden, ce débat hier cantonné aux spécialistes est aujourd’hui devenu public. « La question est désormais : comment trouver un équilibre entre intérêt personnel et intérêt général. Dans nos sociétés centrées sur les individus, c’est extrêmement compliqué, notamment en Europe où les dictatures ont rendu les habitants du vieux continent particulièrement méfiants quant à l’usage qui est fait de leurs données personnelles. » Cette évolution, qui a déjà commencé, passe par une réinvention des modèles économiques. « L’Europe est déjà largement en retard, et plus nous attendons, plus cette étape de « destruction créatrice » sera compliquée et douloureuse », conclut Stéphane Grumbach.

Corées : un enjeu politique…et économique

Corées : un enjeu politique…et économique  

Dans une interview au Figaro, le chercheur Antoine Bondaz,  explique la dimension politique du rapprochement entre les deux Corée à l’occasion des jeux olympiques. Il fait toutefois l’impasse sur la dimension économique. Si effectivement la Corée-du-Nord cherche à obtenir une reconnaissance politique internationale, elle  tout autant besoin d’un soutien  économique pour nourrir des habitants qui ne disposent pas du minimum vital pour survivre surtout depuis le blocus décidé par les États-Unis. Bref, l’échange  classiques riz contre l’assouplissement de la diplomatie.

 

 

 

- La reprise des relations en Corée entre le Nord et le Sud semble se faire rapidement. Ce rapprochement – avec notamment l’annonce de rencontres entre représentants des deux pays – est-il une réalité?

 

 

Antoine BONDAZ - Le rapprochement entre la Corée du Sud et la Corée du Nord se fait dans l’intérêt des deux pays. Depuis le retour au pouvoir des progressistes, Séoul cherche à renouer le dialogue avec Pyongyang, et avait notamment tendu la main après le discours du président Moon Jae-in prononcé à Berlin en juillet 2017. L’objectif de dénucléarisation n’a jamais été remis en cause mais une avancée sur le dossier nucléaire n’est plus un prérequis à la reprise du dialogue intercoréen. Moon Jae-in entend associer sanctions et dialogue.

Ce changement de cap à Séoul est primordial car les relations sont à leur plus bas niveau depuis les années 1990. En 2017, il n’y avait plus de commerce, plus de coopération ni de dialogue intercoréen. Or, cette absence d’échange fait courir le risque qu’un incident ou accident ne se transforme en conflit militaire.

- Pourtant, la Corée du Nord n’a pas répondu tout de suite à cette main tendue. Kim Jong-un a attendu le discours du premier janvier 2018 pour amorcer un rapprochement. Pourquoi?

Pyongyang est entré dans une nouvelle séquence à partir de fin novembre, après l’essai d’un missile balistique à portée intercontinentale. Ils ont notamment déclaré que grâce à celui-ci, ils étaient à présent capables de frapper l’ensemble du territoire américain. Kim Jong-un a alors annoncé que la Corée du Nord avait «complété ses forces nucléaires», ce qu’il faut interpréter non pas sur le plan technique mais sur le plan politique.

Cela lui permet d’accroître sa légitimité interne mais aussi de suspendre les essais nucléaires et balistiques à court terme. L’objectif est d’apparaître en position de force, de ne pas donner l’impression de faire des concessions en cas de gel prolongé des essais, et surtout d’ouvrir la voie à une participation aux Jeux olympiques.

 

 - Pourquoi la Corée du Nord tenait-elle absolument à participer à ces Jeux Olympiques?

L’enjeu pour Pyongyang n’est pas vraiment sportif, peu d’athlètes sont qualifiés et le pays n’est historiquement pas performant aux Jeux d’hiver, à l’inverse des Jeux d’été (NDLR: au cours des cinq dernières olympiades d’hiver à laquelle elle a participé, la Corée du Nord n’a remporté qu’une seule médaille). L’enjeu est clairement politique, diplomatique et stratégique.

Politique car l’objectif est de donner l’impression à la population nord-coréenne qu’il s’agit de Jeux coréens et non sud-coréens, même si la Corée du Sud avait refusé pour 2018 comme pour 1988 une co-organisation. Diplomatique car envoyer des centaines d’artistes et de supporters permet de façonner les perceptions internationales du pays. Pendant quelques semaines la Corée du Nord est présentée comme un pays «normal». Stratégique enfin car cette participation permet au régime de gagner du temps. Ils peuvent continuer à développer leurs armes nucléaires et leurs missiles balistiques alors que les regards sont tournés sur les Jeux, tout en testant la cohésion de l’alliance entre Séoul et Washington.

 

- Comment l’opinion publique sud-coréenne réagit-elle à la participation du Nord?

Depuis les années 1960, la diplomatie du sport est utilisée à Séoul comme à Pyongyang comme un outil pour promouvoir le dialogue. La population sud-coréenne était majoritairement en faveur d’un changement de politique entre les deux pays et se réjouit de la participation de la Corée du Nord. Cependant, il y a un blocage évident sur la participation des joueuses de hockey nord-coréennes au détriment des joueuses sud-coréennes au sein de l’équipe commune. Cette décision a d’ailleurs coûté cher au président dans les sondages. Les Sud-Coréens ne sont pas contre la participation de la Corée du Nord, mais pas au détriment leurs athlètes. Finalement, tout dépendra des résultats de l’équipe. En 1991, l’équipe de football masculine commune dans le cadre de la Coupe du monde des moins de 20 ans avait battu l’équipe d’Argentine et fini deuxième de sa poule, suscitant la fierté dans le pays.

 

- Peut-on considérer comme Trump l’avait annoncé sur Twitter que ce rapprochement est le fruit de la politique américaine?

Dire que la stratégie du président Donald Trump est une réussite, c’est oublier que l’objectif de cette stratégie est une reprise des négociations. Or, on parle pour l’instant de dialogue intercoréen et en aucun cas de négociations nucléaires, bilatérales ou multilatérales. Si on ne peut pas présager de l’avenir, plusieurs déclarations du président américain en 2017 ont été contre-productives en servant d’éléments de langage à la propagande nord-coréenne. Certaines ont été utiles, mais de manière indirecte: elles ont poussé Séoul à craindre une intervention militaire et donc à tout faire pour relancer le dialogue avec Pyongyang.

 

- Cette détente entre les deux pays peut-elle durer au-delà des trois semaines de JO?

Il est trop tôt pour dire si cette reprise du dialogue va se transformer en détente et surtout s’inscrire dans la durée. Cette reprise du dialogue reste fragile et pourrait être interrompue par les exercices militaires américano-sud-coréens prévus pour fin mars. Pyongyang pourrait s’en servir comme prétexte pour conduire de nouveaux essais afin de ne pas apparaître en position de faiblesse. Dans tous les cas, une reprise du dialogue entre Pyongyang et Washington et l’ouverture de négociations doivent demeurer une priorité à très court terme.

Climat -carbone : l’enjeu de l’agriculture

 

Climat -carbone : l’enjeu de l’agriculture

 

La  tribune reprend un article sur lipcat de l’agriculture déjà paru  dans  The Conversation de Christian de Perthuis, Professeur d’économie, fondateur de la chaire « Économie du climat », Université Paris Dauphine – PSL et Camille Tevenart, Doctorant en économie agricole et de l’environnement, chaire « Économie du climat » (Université Paris Dauphine), INRA (extrait)

«  Au cours de la dernière décennie, l’océan et la biosphère ont capturé chaque année de l’ordre de 20 milliards de tonnes de CO2 alors que les activités humaines en rejetaient un peu moins de 40. Aux ajustements près, le solde s’est accumulé dans l’atmosphère. Si on ne considère que le CO2, les rejets liés aux changements d’usage des sols ont amputé de près de 45 % la capacité du puits de carbone terrestre (4,9 sur 11,2). Si l’on prenait en compte l’ensemble des émissions de l’agriculture, le bilan s’inverserait, le puits de carbone terrestre devenant légèrement négatif. À l’échelle internationale, le principal changement d’usage des sols affectant le cycle du carbone concerne la déforestation tropicale à l’origine, chaque année, d’un déstockage de CO2 de l’ordre de 10 % des émissions mondiales toujours d’après le GIEC. La cause dominante de ce rejet massif est le mitage de la forêt provoqué par l’extension des cultures et de l’élevage. Pour lutter contre la déforestation tropicale, il faut donc agir sur ses causes agricoles, à l’image du Brésil où le rythme de la déforestation a été réduit par plus de deux en freinant les cultures de soja et l’élevage bovin en Amazonie. La capacité de la biosphère à stocker le carbone dépend aussi de la façon dont les agriculteurs et les éleveurs utilisent le sol : la prairie permanente, les haies, les cultures intercalaires contribuent au stockage du carbone dans le sol ; l’érosion de terres nues, le labour, l’excès de produits chimiques le vident de sa matière vivante en rejetant du CO2. Là où les sols sont très dégradés et pauvres en matière vivante, il y a un potentiel considérable de stockage de CO2 si l’on parvient à inverser la tendance grâce à des pratiques agricoles adaptées. Ce potentiel est particulièrement élevé en Afrique, dans les zones sahéliennes et semi-arides où la restauration des sols agricoles permettrait également de lutter contre l’insécurité alimentaire. L’initiative « 4 pour 1000 » lancée fin 2015 pourra y contribuer si elle se traduit en réelles actions de terrain. À l’opposé, là où les sols sont déjà saturés en CO2, par exemple dans les tourbières en forêt indonésienne, le potentiel de stockage supplémentaire est inexistant. La stratégie efficace consiste à protéger ces milieux naturels pour y conserver le carbone accumulé. L’enjeu de l’agriculture et du mode d’usage des terres ne concerne pas que des pays lointains. D’après les estimations du CITEPA, notre pays a émis en 2016 de l’ordre de 460 Mt de CO2eq. L’agriculture et la gestion des déchets en ont rejeté 95 Mt sous forme de méthane et de protoxyde d’azote ; l’agriculture et la forêt en ont simultanément retiré 40 Mt de l’atmosphère, principalement grâce à la croissance des arbres dans les forêts. Imaginons que les émissions liées au carbone fossile et à l’industrie tombent à zéro. À niveau inchangé, le puits de carbone national n’absorberait qu’un peu plus de 40 % des émissions liées au carbone vivant (40 sur 95). On serait encore loin de la neutralité carbone. Pour s’en approcher, on peut réduire les émissions brutes, mais aussi accroître la capacité du puits à pomper le CO2 dans l’atmosphère. En France, les concurrences sur l’usage des sols ne se focalisent pas sur les fronts de déforestation comme dans les pays tropicaux. Elles résultent de l’artificialisation des sols (extension de l’habitat, des routes, des bâtiments agricoles, des parkings, etc.) qui grignotent chaque année de l’ordre de 50 000 hectares d’après l’inventaire national, principalement au détriment des terres agricoles. La superficie boisée augmente lentement et constitue le moteur principal du puits de carbone stockant le CO2 atmosphérique. Mais la croissance de ce puits n’est pas automatique et peut même s’inverser (voir ci-dessous). À l’horizon 2050, elle pourrait ainsi être contrariée par les effets perturbateurs du changement climatique et par l’intensification des prélèvements d’arbres pour des usages énergétiques. Jusqu’à la fin des années 1990, l’agriculture a procédé à des conversions massives de prairies et de vergers en terres cultivées annuellement, souvent débarrassées de leurs haies et de tout autre couvert végétal. Durant cette période, l’agriculture a perdu de sa capacité à retenir le carbone dans les sols. La réforme de la Politique agricole commune (PAC) a depuis réduit les incitations productivistes et développé une panoplie de mesures agro-environnementales qui favorisent le stockage du carbone dans les sols : restauration du couvert végétal, cultures intercalaires, incitation au non-labour, réduction des intrants chimiques… Ces incitations ont freiné le déstockage de carbone par l’agriculture, mais sont loin de l’avoir transformé en puits net de carbone. Première source d’émission de méthane et de protoxyde d’azote (les deux principaux gaz contribuant au réchauffement après le CO2), l’agriculture est à l’origine d’un cinquième des émissions françaises. Depuis 1990, ses émissions ont légèrement baissé mais n’ont pas connu de décrochement comparable à celui observé depuis 2005 pour les autres secteurs (voir ci-dessous). Les agriculteurs sont parvenus par des changements de pratiques à freiner ces émissions, mais à la marge seulement. Pour se rapprocher de la neutralité carbone, l’agriculture devra opérer des mutations plus radicales en suivant une approche systémique ; cette démarche vise à réduire simultanément les émissions et accroître la capacité d’absorption du carbone dans les sols. Les émissions agricoles sont composées à près de 80 % des rejets de méthane des ruminants et du protoxyde d’azote résultant de la fertilisation des sols. Le reliquat provient du CO2 émis lors de l’utilisation d’énergie fossile par les agriculteurs et des émissions des effluents d’élevage avant leur épandage au champ. Les émissions de l’agriculture sont corrélées à l’activité : leur baisse entre 1990 et 1995 résulte de la mise en place des quotas laitiers. Depuis 2000, elle résulte de gains d’efficacité en matière de fertilisation. Les émissions des autres secteurs semblent décrocher à partir de 2005. La première source d’émissions agricoles résulte de la digestion des bovins qui émet du méthane. Pour la limiter, on peut viser une réduction drastique de la consommation de viande bovine et du cheptel. Mais il faut alors savoir comment valoriser les prairies permanentes, l’une des composantes les plus intéressantes du puits de carbone agricole… On peut aussi limiter les rejets de méthane en intégrant du lin dans la ration alimentaire des vaches. Là encore, l’impact indirect sera une conversion de prairies en terres cultivées. Pour intégrer l’élevage bovin dans la transition bas carbone, il faut tenir compte de l’ensemble des paramètres du système. Autre illustration : les débouchés énergétiques dont l’intérêt doit être évalué de façon globale. Ainsi, le bilan des biocarburants de première génération est contrarié par les émissions des cultures pratiquées à l’amont, dont l’extension serait en plus de nature à déstocker le carbone des sols. Les perspectives du biogaz sont plus prometteuses car l’utilisation énergétique des effluents d’élevage permet de réduire leur empreinte carbone, sans dommage sur les sols. L’approche systémique n’apporte aucune solution toute faite et doit être conduite à l’échelle locale où sont testées les filières courtes d’approvisionnement, le potentiel de valorisation des produits bio ou la contribution de l’agriculture à la fourniture locale d’énergie bas carbone. Pour tirer tout le parti de ces expérimentations, il faudrait décloisonner la PAC, à l’occasion de sa prochaine réforme, et la coordonner avec les actions mises en œuvre pour atténuer le changement climatique et protéger la biodiversité. Une telle coordination faciliterait le déploiement d’instruments économiques dopant la transformation bas carbone de l’agriculture. Ceux qui récompensent les bonnes pratiques : compensation carbone créditant les réductions d’émission, compensation pour la protection de la biodiversité, paiements pour services environnementaux. Mais aussi ceux qui visent à internaliser le coût des dommages environnementaux comme la taxe carbone sur la consommation d’énergie fossile dont l’agriculture est exemptée. Un second type d’instruments doit être développé : l’information sur la traçabilité des produits bas carbone et leurs qualités nutritionnelles pour répondre aux attentes nouvelles des consommateurs, améliorer leur valorisation et élargir les débouchés. Faut-il enfin rappeler que la transformation bas carbone de l’agriculture n’a aucune chance de s’opérer sans une adhésion forte des agriculteurs ? Comme dans le secteur énergétique, cette adhésion n’est pas spontanée, car la marche vers la neutralité carbone va impliquer des restructurations et des remises en question. Mais de même que les producteurs d’énergie n’ont guère d’avenir s’ils ne se préparent pas à l’après-fossile, les producteurs agricoles s’enfermeraient dans une impasse s’ils entraient à reculons dans la transition bas carbone. »

Maisons de retraite : enjeu de société oublié

Maisons  de retraite : enjeu de société oublié

 

Finalement, on traite la question des  maisons de retraite avec des solutions d’il y a 50 ou 70 ans sans tenir compte de l’évolution démographique et l’évolution des populations dans les EHPAD. Premier  élément qui changé entre 1950 et 2012, la population de la France métropolitaine est passée de 45.5 millions à 63.5 millions de personnes  (67 millions en 2016) soit une augmentation de près de 40%.  Dans le même temps le nombre de personnes âgées de plus de 60 ans a plus que doublé en passant de 6,7 millions à 15 millions. Cette forte croissance est due aux personnes âgées de plus de 75 ans dont le nombre ne cesse d’augmenter : Le nombre de personnes âgées de 75 à 84 ans est passé de 1,4 millions à plus de 4 millions.  Le nombre de personnes âgées de plus de 85 ans est passé de 200 000 à plus de 1,7 millions. Mais surtout, au 1er janvier 2012, 17 000 centenaires vivent en France métropolitaine : c’est 15 fois plus qu’en 1970. Neuf centenaires sur dix sont des femmes. Au 1er janvier 2060, si les tendances démographiques observées jusqu’ici se prolongent, la France métropolitaine comptera presque 74 millions d’habitants. En 2060, 23,6 millions de personnes seraient ainsi âgées de 60 ans ou plus, soit une hausse de 80 % sur une cinquantaine d’années. L’augmentation est la plus forte pour les plus âgés (le nombre des 75 ans ou plus passerait quasiment à 12 millions et celui des 85 ans ou plus à plus de 5 millions). On vit donc de plus en plus vieux d’où une clientèle potentielle croissante pour les maisons de retraites. Mais parallèlement on entre dans les Ehpad de plus en plus âgé grâce au maintien grâce aux services à domicile.   L’âge moyen y est de 85 ans contre 80 ans en 1990 et 75 ans en 1970.  Ces dernières années, le maintien à domicile étant devenu beaucoup plus systématique jusqu’à l’âge de 85 ans. Du coup, l es personnes qui entrent en maison de retraite sont de plus en plus âgés, de plus en plus dépendantes et réclament une assistance croissante. En moyenne, on compte six salariés pour 10 résidents. Un chiffre en apparence conséquent mais en apparence seulement car il faut cinq à six personnes pour tenir un poste compte tenu du travail en 3×8, des remplacements pour  repos hebdomadaires, pour congés annuels, pour maladie, pour maternité pour formation. Du coup, en réalité il y a tout juste un salarié à permanence pour 10 résidents et encore il faut enlever les effectifs de direction, d’entretien et de restauration. Comme déjà indiqué le maintien à domicile est aussi privilégié car souvent souhaité et d’un cout moindre,  grâce au personnel soignant, aux services à domicile et aux assistantes de vie (ADVF) le maintien à domicile et possible. Malheureusement les maisons de retraite sont  coûteuses. Dans les maisons de retraite, le cout pour le résidant est en moyenne de 2200 € mais le maintien à domicile est loin d’être gratuit. Du coup, le recours aux services à domicile notamment aux assistantes de vie est de plus en plus réduit. Par exemple un quart d’heure le matin et un quart d’heure le soir. De ce fait, l’assistante de vie passe leur temps à courir – surtout dans les transports- avec des horaires d’une amplitude considérable et pour des salaires de misère alors qu’il faut une qualification. En dépit de la hausse constante  du cout de la pension, l’équilibre financier des Ehpad est plus que précaire, sauf dans certains Ehpad de luxe dont le cout de pension est le double voire davantage. La rallonge de 50 millions annoncés par le ministre de la santé constitue une rustine, cela d’autant plus que 100 millions avaient été ponctionnés précédemment sur les budgets affectés aux  maisons de retraite. De toute évidence, il y a nécessité d’engager un débat de société concernant le vieillissement de la population et les  conditions de traitement des personnes âgées, surtout les dépendantes,  soit à domicile soit dans les maisons de retraite.  “Il est inadmissible de ne pas prendre en compte la souffrance au quotidien que subissent professionnels, et par là même personnes âgées et familles, des dispositifs accompagnement, à domicile ou en établissements. C‘est mépriser et rompre le dialogue”, déclarent les organisations syndicales. “Les salariés, les travailleurs des Ehpad que je rencontre, ils me disent à la fois qu‘ils sont fiers de travailler dans un métier utile (…) mais ils sentent une forme de culpabilité de ne pas pouvoir faire bien leur travail, de faire subir une forme de violence institutionnelle”, a témoigné le secrétaire général de la CFDT. “Il y a une immense fatigue et pas les moyens de faire correctement son travail”, a-t-il poursuivi, déplorant “une situation explosive”, “insupportable à l’égard des personnes âgées mais aussi des travailleurs de ces Ehpad.”Finalement la ministre de la santé a botté en touche : “L‘Etat finance la partie soins de l‘Ehpad, elle ne finance pas la

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol