Archive pour le Tag 'régulation'

Catastrophes : « La régulation des risques protège avant tout l’industrie »

Catastrophes : « La régulation des risques protège avant tout l’industrie »

 

Thomas Le Roux, historien, estime que la régulation des risques est surtout assurée pour la protection de l’industrie et non des personnes.

 

Tribune. 

 

« C’est à 500 mètres de l’actuelle usine Lubrizol de Rouen qu’eut lieu la première grande pollution industrielle chimique en France, au cours des années 1770, dans le quartier Saint-Sever, sur la rive gauche : les fumées corrosives d’une fabrique d’acide sulfurique détruisirent la végétation alentour et on les soupçonna de menacer la santé publique. Malédiction sur le site ou simple coïncidence ? Ni l’un ni l’autre : mais c’est au miroir du passé que l’on peut mieux comprendre comment le risque industriel et les pollutions sont encadrés aujourd’hui.

Le procès instruit en 1772-1774 après la mise en cause de la fabrique d’acide, a en effet produit un basculement dans l’ordre des régulations environnementales, un vrai changement de paradigme lourd de conséquences.

Une mise en lumière du processus historique aide à répondre à un panache de questions, telles que : « Seveso, quèsaco ? », « Une usine dangereuse dans la ville, est-ce possible ? », « Tire-t-on les leçons d’une catastrophe industrielle ? » Ou encore : « l’industriel : responsable, pas coupable ? »

L’usine d’additifs pour essence et lubrifiants Lubrizol est classée « Seveso – seuil haut ». Elle est donc parfaitement connue des autorités de régulation, à savoir l’Inspection des établissements classés, qui dépend du ministère de la transition écologique et solidaire, et qui a un rôle préventif et de surveillance.

Le classement Seveso découle d’une harmonisation européenne des règles de droit des différents Etats régissant les industries les plus dangereuses. Il tire son nom de celui de la ville de Lombardie où, en juillet 1976, l’usine chimique Icmesa laisse s’échapper un nuage toxique de dioxine qui contamine les environs. Pour prévenir ce type d’accident, trois directives européennes Seveso sont successivement adoptées en 1982, 1996 et 2012 (entrée en vigueur en 2015). Une telle exposition des faits pourrait laisser penser que, tirant les leçons de l’expérience (un accident), les autorités réagissent et fondent un droit protecteur, sans cesse amélioré. Il n’en est rien.

D’une part parce qu’avant la mise en place des directives Seveso, les Etats avaient déjà leur propre réglementation, parfois plus sévère. D’autre part parce que les centrales nucléaires, par exemple, y échappent. Enfin, parce que l’on peut douter de l’efficacité du dispositif. »

Climat : une régulation par la justice ?

Climat : une régulation par la justice ?

 

 

Une justice transnationale pour réguler la politique climatique (sans doute à l’image du tribunal pénal international), ce que propose dans un livre Judith Rochfeld, enseignante en droit privé à la Sorbonne,  (extraits du Monde). La grande question qui se pose est de savoir si certains grands pays pollueurs voudront adhérer ou au contraire refuser cette organisation (comme c’est le cas par exemple pour le TPI que n’admettent) pas les États-Unis) (extraits du Monde).

« Peu de livres écrits par des universitaires contiennent autant de points d’exclamation, jusque dans leur titre, que Justice pour le climat ! C’est que son auteure, Judith Rochfeld, professeure de droit privé à la Sorbonne, ne prétend pas s’abstraire des passions, entre angoisse et espoir, qui animent toujours plus de personnes face à la catastrophe climatique.

Une lueur d’espoir vient des nouveaux mouvements civiques de résistance, notamment ceux portés par la jeunesse ou par des associations, voire des particuliers, qui demandent des comptes à l’Etat et aux entreprises en s’appuyant sur la justice. Le livre dresse le bilan international de ces nouvelles luttes et pose la question des instruments juridiques qui pourraient leur faciliter la tâche, et peut-être même nous amener à une relation protectrice avec la Terre.

 

Les procès contre différents Etats accusés d’inertie face aux changements climatiques procèdent largement des ambitions, des ambiguïtés et des déceptions dont était porteur l’accord de ­Paris de 2015, lors de la COP21. Son objectif de limiter la hausse de la température moyenne globale en deçà de 2 °C par rapport aux niveaux préindustriels s’accompagnait certes de modalités concrètes d’action et d’un cadre global de coopération, mais sans imposer de contrainte ni de ­sanction.

Il invitait aussi à la table, en plus des Etats, des « entités non parties » – associations, secteur privé ou villes. Or ce sont précisément certains de ces acteurs qui, utilisant l’accord comme un levier, se retournent désormais contre les Etats et cherchent à rendre juridiquement contraignants leurs engagements, pour les sommer d’agir sans se défausser sur les autres. Car tel est un des paradoxes apparents du moment présent : si le défi écologique est plus que jamais planétaire, les échecs répétés de la « gouvernance mondiale » en matière climatique conduisent à une sorte de reterritorialisation du global, obligeant chaque Etat, sous la pression de citoyens mobilisés, à balayer devant sa porte.

Les entreprises les plus polluantes font aussi l’objet de contestations inédites, en particulier les fameuses quatre-vingt-dix « Carbon Majors » énergétiques et cimentières, devant lesquelles se dressent même des Etats, mais aussi et surtout des villes et des ONG. C’est ainsi qu’aux Pays-Bas, après le procès de la Fondation Urgenda contre l’Etat néerlandais, s’est tenu en avril 2019 un procès cette fois contre le pétrolier Shell, mis en cause pour ses responsabilités en matière d’émission de gaz à effet de serre.

 

« Justice pour le climat ! Les nouvelles formes de mobilisation citoyenne », de Judith Rochfeld, Odile Jacob, 198 p., 19,90 € (en librairie le 28 août).

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

Une régulation européenne de la blockchain et ou des cryptomonnaies ?

 

 

La blockchain est une technique qui permet de transmettre des informations par blocs et qui normalement est inviolable. Une technique uniquement régulée par sa propre loi (code algorithmique). Les informations peuvent être de différentes natures et pratiquement concerner la totalité des  espaces économiques ou sociaux. Évidemment sont concernées les cryptomonnaies et les crypto actif comme le bitcoin. La France voudrait intervenir pour une régulation à l’échelle européenne voir au-delà d’après le ministre de l’économie “Je vais (…) proposer à mes homologues européens la mise en place d’un cadre unique de régulation des cryptoactifs inspiré de l’expérience française (…) au niveau européen”, a précisé le ministre français de l’Economie et des Finances lors d’une conférence sur la “blockchain” à Bercy. Cela permettrait d’aboutir à “un marché unique de la ‘blockchain’ comme il existe d’autres marchés uniques dans d’autres domaines”, a-t-il estimé. Finalement la technique de scène est un peu comme la technique Internet elle n’a guère de frontières et on voit mal l’intérêt et l’efficience d’une régulation seulement nationale ou même européenne. Par ailleurs le ministre vise sans doute essentiellement le secteur financier afin de distinguer l’usage de la blockchain à usage à des fins de transactions financières, des cryptoactifs. La loi Pacte, adoptée définitivement la semaine dernière, met en place un cadre juridique pour les émissions de cryptomonnaies (ICO, ou offres initiales de jetons). Ce système, visant à protéger les épargnants et rassurer les investisseurs, repose sur la délivrance d’un agrément par l’Autorité des marchés financiers (AMF), pour les émetteurs volontaires. Il est cependant vraisemblable que les crypto menées ne vont pas demeurer dans l’espace marginal qu’elles occupent aujourd’hui et qu’une ou plusieurs d’entre elles pourraient un jour concurrencer les grands menés comme le dollar ou l’euro. La récente chute du cogne ne discrédite pas les crypto menées par l’avantage que le dollar ou d’autres qui reposent pour une grande partie sur du vent et de l’endettement. On peut leur reprocher leur cale caractère énergie énergivore mais pas la confiance qui constitue la base du système. Contrairement à d’autres monnaies qu’on prête curieusement par exemple à des taux négatifs !

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

Organisation de l’Etat : la grande confusion entre régulation et organisation

Organisation de l’Etat : la grande confusion entre régulation et organisation

 

On a vu dans un article précédent concernant la fiscalité et les services publics que Macron -comme beaucoup dans le pays- continue d’entretenir une grande confusion entre le concept de service public, les moyens de l’organiser et les statuts des personnels. Cette confusion se confirme dans la deuxième question relative à l’organisation des services publics qu’on ne semble pas pouvoir être pris en charge autrement que par des administrations !  Or la plupart sinon la totalité des services publics gérés directement par les administrations sont déficitaires ce qui n’est pas le cas lorsque la gestion est assurée par le privé par délégation de service public.

 

L’organisation de l’Etat et des collectivités publiques. Le texte officiel de Macron sur ce thème :

 

 

« Le deuxième sujet sur lequel nous devons prendre des décisions, c’est l’organisation de l’Etat et des collectivités publiques.

 Les services publics ont un coût, mais ils sont vitaux: école, police, armée, hôpitaux, tribunaux sont indispensables à notre cohésion sociale.

Y a-t-il trop d’échelons administratifs ou de niveaux de collectivités locales? Faut-il renforcer la décentralisation et donner plus de pouvoir de décision et d’action au plus près des citoyens? À quels niveaux et pour quels services?

Comment voudriez-vous que l’État soit organisé et comment peut-il améliorer son action? Faut-il revoir le fonctionnement de l’administration et comment?

Comment l’Etat et les collectivités locales peuvent-ils s’améliorer pour mieux répondre aux défis de nos territoires les plus en difficulté et que proposez-vous? »

 

Conclusion une partie de texte  très floue et mal problématisée.

 

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Régulation d’internet : la France lance une consultation mondiale

Régulation d’internet : la France lance une consultation mondiale

 

 

La France veut réfléchir à des régulations « intelligentes » dans dix grands domaines, comme « la fiscalité », « le partage des données industrielles », « la modération des contenus en ligne » et notamment des contenus haineux, « la protection des données personnelles », ou encore le « droit des affaires » a indiqué M. Mahjoubi, le secrétaire d’Etat au numérique.  La France va donc lancer une consultation internationale en vue de régulations mondiales d’internet, a déclaré vendredi le secrétaire d’Etat au numérique Mounir Mahjoubi, en marge du salon des startups VivaTech. . Cette consultation sera nationale, européenne, et aussi internationale, en demandant notamment la participation des géants mondiaux de l’internet, a précisé le secrétaire d’Etat. « Je veux convaincre ces grandes plateformes de discuter sur ces régulations mondiales », a indiqué M. Mahjoubi à l’AFP.

 

Accès universités : la régulation par les CRS

Accès universités : la régulation par les CRS

Philippe le Premier ministre qui peine à se faire uen nom dans l’ombre de Macron agite aussi la matraque pour les universités. Il a sûrement pris connaissance des sondages où une majorité de Français approuvent la fermeté de Macron. Certes le blocage des facs n’est sans doute pas une solution, pas même un moyen quand elles sont le fait de militants politisés très minoritaires. Pour autant,  elle n’est pas la réponse à la question du refus d’accès à l’université. Que va-t-on faire des 30 ou 40% des candidats étudiants auxquels on va interdire l’entrée en fac ? Il aurait été plus constructif d’ouvrir une  grande filière apprentissage au lieu de la réduire aux travaux manuels pour les « nuls » comme vient de la faire la ministre de l’éducation. La régulation par les CRS est une mesure appréciée par  les partisan de l’ordre républicain, les réacs, les populistes mais elle ne résout rien. Surtout comme à Tolbiac on a évacué par la force mais qu’on maintiendra fermée jusqu’en septembre.  Ce discours de Philippe qui brosse dans le sens du poil ne le grandit pas même s’il  contient des évidences :

“Chaque fois que des espaces universitaires seront confisqués par de petits groupes radicaux, chaque fois que l’organisation des examens sera ciblée, nous répondrons avec fermeté”, a dit le Premier ministre après avoir reçu des membres de la Conférence des présidents d’université.“Nous ferons le nécessaire pour que les examens puissent se tenir dans de bonnes conditions”, a poursuivi le chef du gouvernement, déplorant que certains puissent “mettre en scène une contestation profondément minoritaire”. Les forces de l’ordre sont intervenues dans plusieurs universités ces derniers jours pour déloger des opposants à la réforme de l’accès à l’université, notamment dans les locaux de la Sorbonne, dans les Ve et XIIIe arrondissements parisiens.

Travailleurs détachés : la délation comme moyen de régulation !

Travailleurs détachés : la délation comme moyen de régulation !

Ce n’est pas de la délation mais cela y ressemble. La ministre du travail propose de diffuser la liste des mauvais élèves qui ne respecteraient pas des conditions d’embauche et d’utilisation des travailleurs détachés. Bref,  la délation utilisée comme système de régulation ! Si l’état veut réellement réguler il ne manque pas de moyens. Les institutions sociales d’abord comme les inspecteurs du travail par exemple, la DGCCRF aussi, en dernier ressort la justice.  Encore faudrait-il évidemment que ces institutions fassent leur travail et de manière équitable. Cela ne justifie sans doute pas pour autant la dénonciation publique ou alors on ouvre la boîte de pandore en systématisant ces dénonciations à toutes les infractions à la législation économique, social et fiscale  etc.  L’an dernier, 516.101 salariés détachés (hors transport) ont ainsi été enregistrées en France, soit une hausse de 46% par rapport à 2016. Leurs employeurs, établis dans d’autres pays européens, doivent au moins les payer au Smic, mais ils continuent de payer les cotisations sociales dans le pays d’origine.  Le bond enregistré en 2017, qui succède à des hausses de 24% en 2016 et de 25% en 2015, s’explique, en partie, par une meilleure collecte des données, mais aussi, selon la ministre du Travail Muriel Pénicaud, par les sanctions plus sévères mises en place par la majorité précédente. La ministre a emboîté le pas de ses prédécesseurs, en annonçant ce lundi seize mesures pour renforcer l’arsenal de contrôles et de sanctions. Pour frapper les fraudeurs au porte-monnaie, le gouvernement va porter les sanctions financières de 2000 à 3000 euros par salarié détaché illégalement, et de 4000 à 6000 euros en cas de récidive. Et si un prestataire étranger ne s’acquitte pas de l’amende, sa prestation de service pourra être suspendue. . La ministre du Travail, Muriel Pénicaud, a donc annoncé son intention de publier le nom des entreprises sanctionnées pour fraude au détachement de travailleurs. Par cette méthode dite du name and shame (désigner par son nom et couvrir de honte en anglais), les autorités espèrent que la menace d’entacher leur réputation dissuadera particuliers et entreprises d’enfreindre la loi.

OPEP : à la recherche d’une régulation du pétrole

OPEP : à la recherche d’une régulation du pétrole

 

Cette fois c’est  l’Arabie Saoudite qui a déséquilibré le marché en augmentant sa production depuis 2014 qui  va tenter de convaincre les membres de l’OPEP de mieux réguler l’offre par rapport à la demande. Pas sûr cependant qu’elle soit entendue et comprise après ce changement de stratégie. En outre tout dépendra en cas d’accord du point de référence qui sera retenue pour figer le volume de la production ; en effet avec le tassement économique de la croissance mondiale les besoins en pétrole ont aussi tendance à stagner voire à régresser. L’OPEP relancera cependant le mois prochain les discussions sur un gel de sa production, l’Arabie saoudite, premier exportateur mondial, semblant chercher à faire remonter les cours, a-t-on appris de plusieurs sources au sein de l’organisation, mais l’Iran, l’Irak et la Russie sont autant d’obstacles importants à un compromis. Ryad a relancé les spéculations sur la possibilité d’un accord d’encadrement de la production jeudi dernier, le ministre saoudien de l’Energie, Khalid al Falih, déclarant que son pays souhaitait travailler avec des pays membres ou non de l’OPEP à une stabilisation du marché. « Les propos du ministre saoudien de l’Energie constituent un signe positif de sa volonté d’aller vers un accord de gel de la production ; reste à savoir à quel niveau », a dit une source d’un pays du Moyen-Orient membre de l’OPEP. « Le gel se fera-t-il aux niveaux de janvier ? Qu’adviendra-t-il de l’Iran ? Et puis il y a le Nigeria, dont la production a beaucoup diminué depuis janvier », a ajouté cette source. Côté russe, le ministre de l’Energie, Alexander Novak, a déclaré à un journal saoudien que son pays menait des consultations avec l’Arabie saoudite et d’autres producteurs, ajoutant que de nouvelles discussions sur un éventuel gel des niveaux de production restaient possibles en cas de besoin. L’Arabie saoudite a augmenté sa production en juillet, à 10,67 millions de barils par jour (bpj) contre 10,2 millions en janvier. Depuis 2014, le royaume, chef de file de fait de l’OPEP en raison de son poids sur le marché mondial, a augmenté ses pompages dans le but d’exclure du marché des producteurs dont les coûts sont plus élevés, afin de regagner des parts de marché au détriment de pays comme les Etats-Unis, qui lui avaient taillé des croupières au cours des années précédentes. Cette stratégie a fortement contribué à la chute du cours du baril de Brent, tombé à 27 dollars en janvier contre 115 dollars mi-2014. Ce mouvement a certes pénalisé les producteurs nord-américains, mais il a aussi plombé le budget saoudien.

(Reuters)

Travailleurs détachés : les patrons allemands condamnent la régulation européenne

Travailleurs détachés : les patrons allemands condamnent la régulation européenne

 

Les ex pays de l’Est s’opposent à la nouvelle directive européenne qui encadrera les conditions sociales des travailleurs détachés. Ils sont rejoints sur ce point par les patrons allemands. Ce que confirme Dans une interview à Euractive Renate Hornung-Draus directrice des Affaires européennes et internationales à la Confédération allemande des associations des employeurs (BDA).

 

EURACTIV - La Commission européenne a présenté sa proposition de révision de la directive sur les travailleurs détachés en mai 2016. L’idée de base est d’assurer un « salaire égal pour un travail égal au même endroit ». Vous faites partie d’une association représentant des milliers d’entreprises allemandes, selon vous, cette modification est-elle nécessaire, et dans quels domaines ?

RENATE HORNUNG-DRAUS - Je peux parler à la fois au nom des entreprises allemandes et de BusinessEurope. Nous avons présenté une position claire qui indique que la proposition n’est pas nécessaire. Il est évident que les règles existantes, qui ont été adoptées il y a deux ans, ne sont pas efficaces pour l’instant, parce que nous sommes à la fin de la période de transposition et que certains pays n’ont pas encore finalisé le processus. Toutes les entreprises allemandes, y compris celles du secteur de la construction, estiment que la proposition n’est pas nécessaire.

Qu’est-ce qui vous déplait dans la proposition et pourquoi ?

Il y a plusieurs points qui nous déplaisent. Si les nouvelles règles sont adoptées, cela créera des incertitudes légales.

Vous assurez que les règles existantes sont suffisantes, mais vous mentionnez également des problèmes liés aux travailleurs déplacés dans l’UE et en Allemagne. Quels sont les problèmes et comment devraient-ils être résolus ?

En Allemagne, les problèmes sont liés à des abus et des pratiques illégales, comme les faux indépendants ou le non-paiement des salaires ou de la sécurité sociale par l’employeur dans le pays de détachement. Il est difficile de combattre ces abus parce que la coopération entre les autorités publiques des différents pays n’est pas parfaite. Il existe un problème spécifique au secteur de la construction et aux secteurs qui y sont associés.

Combien de travailleurs déplacés l’Allemagne compte-t-elle, et dans quels secteurs sont-ils ?

L’Allemagne est parmi les pays qui reçoivent le plus de travailleurs [détachés] dans l’UE, ce qui est logique, étant donné que c’est un grand pays avec une économie en bonne santé. D’autres pays sont également dans cette situation. C’est dans l’industrie de la construction et les secteurs associés qu’il y a le plus de travailleurs détachés, et c’est donc aussi dans ces secteurs qu’il y a le plus de problèmes. Les statistiques de la Commission européenne indiquent que le nombre de travailleurs détachés a augmenté ces dernières années, mais ce nombre reste très peu élevé. On peut dire qu’il y a une augmentation de 40%, mais 40% d’un très petit nombre, cela ne fait quand même pas grand-chose.

L’un des arguments mis en avant en République tchèque est que la proposition pourrait créer une division profonde en Europe, et en particulier les nouveaux États membres et les plus anciens. Vous comprenez ces inquiétudes ?

Nous sommes tout à fait d’accord avec cet argument, mais il est important de dire que l’opposition à la directive ne provient pas uniquement des nouveaux États membres. Elle a également émergé dans des pays comme le Danemark, qui a également participé à la procédure de carton jaune, et du monde des affaires allemand. Le gouvernement allemand a envoyé une lettre à la Commission et a approuvé la modification de détails très concrets de la proposition. Pourtant, Berlin avait encore beaucoup de questions. Le gouvernement n’a pas encore pris de position officielle, parce que la proposition est bloquée par le carton jaune. Ce carton jaune montre déjà à quel point la directive menace de diviser l’Europe et de causer des conflits. La procédure est aussi mauvaise pour les institutions, parce qu’elle montre la nécessité de commencer par discuter avec les acteurs et par comprendre les problèmes, avant de décider de changer quoi que ce soit. Il serait mieux d’attendre les résultats de l’application de la directive, avant de lancer une discussion sur les modifications possibles. Si elle ne renonce pas à sa proposition, la Commission risque d’endommager l’image des institutions.

Pourquoi la Commission a-t-elle adopté cette position ? Pourquoi préparer cette proposition ?

Selon moi, Jean-Claude Juncker a fait une promesse politique faite à certains pays, comme la France, et aux syndicats. Aujourd’hui, il ne veut pas faire marche arrière et admettre qu’il a eu tort.

La proposition actuelle comporte-t-elle de bons aspects ?

Malheureusement, la proposition actuelle ne se penche pas sur les problèmes. En fait, son entrée en vigueur aggraverait le problème en ajoutant de nouvelles règles, qui sont encore plus compliquées à appliquer et à faire respecter que les règles actuelles. Ces problèmes seraient adéquatement pris en compte dans le cadre de la directive d’application de 2014. Il faut s’efforcer d’appliquer réellement ces règles, plutôt que d’en inventer de nouvelles.

 

(Avec Euractive)

 

Crise : quelle régulation ? Une réponse à Madame Lagarde

 

Crise : quelle régulation ?  Une réponse à Madame Lagarde

 

 

 

Une interview d’Hubert Rodarie, DGD de SMA est co-animateur du programme «Normes de la Finance» à la Chaire éthique et finance de la MSH dans le Figaro qui pose la question de l’évolution des normes suite à la déclaration de Christine Lagarde sur l’Etat de l’économie mondiale. Un propos qu’on peut contester mais qui mérite d’être entendu notamment par rapport au transfert de la valeur ajoutée vers le trou de la dette. :

 

 

« Dans une interview au Figaro, le 19 avril dernier, Christine Lagarde dresse constate que «les cicatrices de la crise de 2008-2009 n’ont pas été toujours bien traitées». Que veut-elle dire? La directrice générale du FMI cite les créances douteuses des banques, le manque de réformes structurelles des États et des législations sociales et la politique budgétaire. Seraient-ce les vraies raisons «du manque de croissance de l’économie mondiale?» La réponse est non. Huit ans après, ce sont, hélas, les raisons toujours agissantes de la crise de 2008 qui expliquent la stagnation actuelle ; et non l’absence de traitement des conséquences.

 

Voici quelques années, nous pointions comme «macro-cause» des divers dérèglements l’implantation répétée dans l’économie mondiale d’un dispositif économique global que l’on peut qualifier de ricardien, car on invoque souvent David Ricardo (1772-1823) pour le justifier. Pour stimuler les échanges on organise des déséquilibres durables de coûts de production entre deux zones économiques et monétaires. Pour cela, on empêche ou freine le mécanisme des changes de faire son travail d’équilibrage.

Depuis soixante ans, cette construction politico-économique a été implantée plusieurs fois. Depuis 1998, la Chine en bénéficie. Mais ce système produit des effets néfastes qui ne sont ni maîtrisés, ni maîtrisables. Les crises récurrentes le prouvent. Ainsi, l’accumulation de dettes de toutes natures s’est révélée comme l’effet néfaste majeur de ce système. En 2008, ce phénomène a été démontré ; en 2015 il persiste toujours comme le montrent plusieurs études. Il faut donc conclure que ce processus d’endettement, sans frein ni fin, constitue le marqueur des effets néfastes du dispositif actuel et que la dette globale devient le trou noir de l’économie mondiale dans lequel bascule peu à peu la valeur ajoutée créée dans le monde.

Mais la dynamique impulsée à l’activité mondiale depuis 1998 par la stimulation des échanges avec la Chine s’étouffe aujourd’hui sous le poids de ses conséquences non voulues. Les politiques monétaires, comme les autres mesures, ne sont que des actions de retardement de cette asphyxie programmée. La loi dite de modération universelle s’impose inexorablement:

Depuis 2008, rien n’a vraiment changé. Il n’y a aucune remise en cause des paradigmes qui justifient les organisations actuelles. Tous les maux subis sont attribués, comme le fait Mme Lagarde, à des fautes ou à des erreurs politiques. Puisqu’on ne veut tarir la source des dettes, il est décrété que pour en éliminer les risques, il convient d’édicter plus de normes et de règles. On nous dit que le danger réside dans la transgression de la norme, l’absence de régulation, ou l’échec des contrôles. Le système se referme sur lui-même. Cette vision du risque est un appauvrissement intellectuel. Elle réduit le risque en confondant fraude et accident, faute et danger. Cette vision du risque écarte l’incertitude, nie le temps et ce qu’il apporte en changements de contexte et en surprises. Elle est erronée. Surtout, chacun voit que l’ordre s’est en réalité inversé: la norme n’est plus un outil au service des acteurs économiques, mais une matière en soi qui structure et modèle l’activité économique. Ce qui oblige à poser la question de la responsabilité même des modèles d’activité et des régulations globales dans l’arrivée des crises économiques. Question à poser à Mme Lagarde, au FMI et aux autres régulateurs du système financier et économique. Pour retrouver la croissance, ne faut-il pas rompre avec les dispositifs ricardiens? Ne faudrait-il pas enfin quitter cette mentalité marquée par l’impératif de la reconstruction des années 1950 qui les justifiait? Maintenant que les grands pays communistes ont rejoint les autres, et l’arrivée de la Chine et du yuan au cœur du FMI en sont le symbole, ne serait-ce pas le moment de reconstruire un ordre économique et monétaire international qui favorise des échanges équilibrés? Un ordre et une régulation pour des temps de la maturité. »

Une taxe carbone française : nouvel impôt ou régulation énergétique ?

Une taxe carbone française : nouvel impôt ou régulation énergétique ?

 

 

L France va créer une nouvelle taxe carbone qui passerait ainsi d’environ  5 euros à 30 €. Une annonce qui réjouit nombre d’économistes et d’écolos. Des économistes qui souhaitent la marchandisation de la  pollution et faire du signal pris le dogme de la révolution énergétique ;  des écolos qui veulent renchérir le coût des énergies fossiles. Le problème évidemment c’est que le consommateur final paiera la note. La problématique est de savoir si cette taxe constitue un moyen efficace d’opérer une transition énergétique. Sans parler évidemment des questions de compétitivité puisque pour l’instant en attendant de convaincre l’Union économique, la taxe ne s’appliquera qu’en France. Cette taxe veut se distinguer de la composante carbone progressive instaurée par la loi de finances 2014 dans la taxe intérieure de consommation sur les produits énergétiques (TICPE), qui vise les émissions diffuses de CO2 par le biais, essentiellement, de la consommation de carburants, par exemple pour le chauffage ou dans les transports. De sept euros par tonne de CO2 en 2014, cette « contribution climat énergie » a été portée à 14,5 euros en 2015 et 22 euros en 2016. La loi de transition énergétique prévoit de porter cette composante de la TICPE à 56 euros la tonne en 2020 et 100 en 2030, en passant par 30,5 en 2017, 39 en 2018, 47,5 en 2019. En réalité la nouvelle taxe carbone risque de ce cumuler (16 voir d’être fondu avec l’actuel et ICP. En clair,  ce sera un impôt supplémentaire  On peut se poser la question de la pertinence économique et environnementale de ce nouvel impôt. En effet il ne s’agit ni plus ni moins que de mettre une taxe supplémentaire sur la pollution. Est-ce que cette taxe sera ou non de nature à peser sur le choix du consommateur afin de réduire les émissions polluantes ?  Rien n’est sûr car  tout dépendra de l’offre alternative dont peut disposer le consommateur ; or en l’état actuel des technologiques le choix est relativement réduit. Pour le transport par exemple, dans les grandes villes, certains voyageurs peuvent faire le choix des transports collectifs mais pas les résidents  en banlieue ou a fortiori dans les zones rurales. L’offre est également très réduite entre les différentes techniques concernant le chauffage ou alors  il convient de procéder à des investissements qui ne sont accessibles qu’aux plus hauts revenus. La plus grosse critique qu’on peut émettre concernant la taxe carbone, c’est son utilisation. En fait il n’est nullement prévu que le produit de cette taxe carbone contribue à la réduction des émissions polluantes, on compte seulement sur son caractère incitatif ; le produit financier sera affecté pour réduire le déficit budgétaire. Autrement dit, il s’agira d’une fiscalité en plus. Contrairement à ce que pensent  certains écolos la taxe carbone n’est pas la martingale qui permet de résoudre la question des les émissions polluantes. D’abord cette taxe ne sera pas un niveau suffisamment dissuasif sauf à amputer brutalement le pouvoir des consommateurs ce qui socialement est difficilement envisageable ;  il serait sans doute plus efficace pour la problématique environnementale de combiner une certaine taxation de la pollution avec une un renforcement progressif des normes enfin la marchandisation des coûts de la pollution pose une question d’éthique.

Agriculteurs: « pour une régulation européenne »

Agriculteurs: « pour une régulation européenne »

 

Même si le milieu agricole est  satisfait de la baisse des charges sociales voire des discussions entamées avec la grande distribution, il n’empêche que seule une régulation européenne sera de nature à apporter une réponse pérenne à la question récurrente des prix. Or pour l’instant l’Europe a privilégié  la régulation du secteur par le seul marché, marché complètement ouvert au plan mondial ;  du coup compte tenu des conditions de concurrence, les producteurs français sont condamnés à vendre à perte et progressivement à disparaître. Faute de régulation concernant les conditions de production (fiscale, sociale, environnementale et qualitative),  c’est le modèle de production industrielle à bas coût qui triomphe. À ce jeu truqué de la concurrence ce sont les pays aux contraintes concurrentielles allégées qui gagnent. Conséquence les viandes  importées de mauvaise qualité et dangereuses pour la santé inondent le marché d’autant que concrètement il est pratiquement impossible de connaître l’origine et les conditions de production. Même les productions françaises peuvent être complètement affectées par l’utilisation d’alimentation importée ne respectant aucune règle sans parler de l’utilisation excessive des engrais, des pesticides ou des herbicides. La régulation doit donc concerner aussi bien des productions importées que les productions nationales. Ce que réclament  notamment les représentants de deux mouvements d’agriculteurs, la Confédération paysanne et la Coordination rurale, qui  ont rencontré le président de la République à l’Elysée ce vendredi. Les agriculteurs dénoncent la chute des prix de leurs produits et les lourdes charges sociales. Jeudi, François Hollande a promis hier une nouvelle baisse « immédiate » des cotisations sociales.  Bernard Lannes, président de la Coordination rurale s’est dit satisfait sur France Info de sa rencontre avec François Hollande, qu’il a trouvé « attentif ».  Ils ont évoqué une régulation de la production pour éviter de vendre à perte. « Sans régulation européenne, sans organisation de marché – ce qu’on appelle du protectionnisme éclairé [...] pour ne pas nous laisser au libre vent du marché mondial – alors il n’y aura plus d’agriculture », explique Bernard Lannes.   »Réguler, c’est-à-dire donner des autorisations de production et, quand il y a surproduction, ralentir [...] pour avoir des prix rémunérateurs » vis-à-vis des enseignes de grande distribution, selon le président de la Coordination rurale.

 

Taxis : après les VTC, c’est, les « lotis » ou l’absence de régulation

Taxis : après les VTC,  c’est, les « lotis » ou l’absence de régulation

 

Après les protestations des taxis puis celle des VTC voilà maintenant celle des chauffeurs dits lotis. Difficile sans doute pour l’opinion publique de s’y retrouver dans les différents statuts qui permettent aux taxis ou assimilés de transporter des personnes. Pour résumer trois types de statut coexistent actuellement dans le monde des taxis. Les taxis classiques, les VTC  (initié par Uber)  et qui en quelque sorte bénéficient de règles allégées (pas de licence, pas les mêmes règles fiscales) enfin les chauffeurs dits lotis normalement autorisés à ne transporter que des groupes de personnes et qui viennent faire concurrence les  deux autres catégories. Or  suite aux négociations avec les taxis, le gouvernement veut interdire à cette dernière catégorie, les lotis, d’exercer la profession de taxi qui représente toutefois près de 50 % du Sud affaire de leur chiffre d’affaires. Pour résumer 3  types d’environnement concurrentiel pour le même marché. Patrice Salini, (économiste ancien directeur de cabinet au ministère des transports), l’un des meilleurs experts du transport, rappelait  fort à propos la manière dont ont été réglé les questions de licences du transport routier de marchandises et la question du contingentement. (Article paru dans les Échos)

« Une situation de ce type débouche inéluctablement à plusieurs conséquences :

  1. Le marché « contingenté » et « tarifé » est à la fois sous productif et peu rémunérateur, tout en étant sur-tarifé.
    2. Le contingent génère des pratiques de cession ou de location-gérance de fonds de commerce, en réalité d’autorisations de transport  – ou de « plaques » comme on dit chez les taxis, dont les prix sont excessifs(2), et uniquement dus au contingentement lui-même (on paie la rareté). Cette « rente » servie au « propriétaire » qui « loue » au locataire-gérant une « autorisation de stationnement » accompagnée d’un véhicule taxi, ne reflète nullement un fonds de commerce réel, mais bien – essentiellement – un droit d’accès au marché.
    3. Ce système pèse à la fois sur les coûts de production et sur les prix de vente (tarifs), et donc d’une part sur la rentabilité des taxis, leurs conditions de travail, et d’autre part leur compétitivité.
    4. Le secteur le plus contraint peut être tenté de le contourner (frauder) pour en limiter l’incidence (recettes « au noir », tarification non appliquée…)
    5. Le secteur « exempté » de contingent et de contrainte tarifaire se trouve donc mécaniquement plus facile à rentabiliser, un avantage renforcé grâce au téléphone et à internet. »
  2. Par ailleurs Une  recherche très intéressante de l’institut IREF  définissait  perspective de sortie de crise entre les taxis traditionnels et les VTC. Contrairement à certains qui préconisent une libéralisation brutale dans le secteur et/ou qui considèrent que l’indemnisation est  impossible, l’institut propose une restructuration progressive. Extrait des propositions : La libération du marché apparait comme indispensable au regard de l’évolution des techniques et des besoins. Mais la question principale, à résoudre comme un préalable, reste celle de l’indemnisation des taxis qui subiraient une perte injuste du fait d’une libéralisation sans conditions réduisant à néant la valeur de leur licence. Dans la mesure où le coût de leur indemnisation immédiate représenterait une charge insupportable pour la collectivité, d’autres solutions doivent et peuvent être envisagées. Il est proposé de geler les licences actuelles pour une durée garantie de trente ans. Pendant ces trente ans, ces licences pourraient être librement revendues, comme aujourd’hui. Mais leur valeur perdrait mécaniquement un trentième par an, sous réserve, bien entendu, de l’évolution du marché. Parallèlement, un droit de voierie serait payable par tous les véhicule publics, taxis ou VTC, dépourvus de licences (délivrées jusqu’à la réforme) à raison d’un montant raisonnable qui pourrait être de l’ordre de 3 à 4 000 euros par an, correspondant à une partie de la valeur de la licence (il ne parait pas normal d’indemniser les titulaires de licences à hauteur du prix actuel de marché, dans la mesure où celui-ci est aléatoire. Alors que la réforme permettrait aux titulaires, dont certains n’ont pas acquis leur licence, de continuer à travailler). Aucune nouvelle licence ne serait cessible, seules les anciennes le resteraient jusqu’à expiration de leur validité (ce que propose d’ailleurs le nouveau projet de loi). Ce droit annuel serait le prix du droit de stationnement ou plus généralement du droit de faire commerce sur la voie publique dont bénéficieraient donc tant les véhicules disposant d’une licence de trente ans que les autres qui paieraient la licence annuelle. Il n’y aurait donc plus de différence de nature entre taxis et VTC, mais chacun pourrait exercer son métier différemment. Et tous ceux ayant une licence ancienne ou payant le nouveau droit d’exercice pourraient exercer sous certaines conditions (voir ci-après). Bien entendu rien n’empêcherait les compagnies de taxis ou VTC de s’identifier par la peinture de leur carrosserie ou tout signe extérieur de leur choix.

Plus généralement et pour mettre en œuvre cette réforme, les préconisations sont les suivantes :

> Mener une étude d’impact dans les grandes villes, pour évaluer l’ampleur d’une réforme sur le secteur ;

> Attribuer les nouvelles licences par véhicule et par chauffeur pour une durée déterminée de trois ans renouvelables automatiquement sauf violation des règles ci-après ;

> Interdire les cessions des nouvelles licences qui seraient attribuées gratuitement, mais assujetties à une redevance annuelle;

> Instituer des règles simples que Taxis et VTC devront s’engager à respecter au risque de perdre leur droit d’exploiter sur la voie publique : sécurité, fiscalité, règles sociales etc.

> Libérer les prix, de manière à ce que la concurrence joue, non pas seulement sur les quantités mais aussi sur les prix ;

> Veiller à ce que les prix soient clairement affichés dans les véhicules ;
Autoriser tous les véhicules, VTC et Taxis, à utiliser les mêmes innovations technologiques ;

> Stopper le gel des immatriculations de VTC et la limitation du nombre de licences de taxis ;

Une telle réforme devrait favoriser le développement d’une nouvelle offre. Dans les villes, et particulièrement en France, à Paris, les ménages ont de moins en moins de voiture et sont prêts à utiliser de plus en plus le service des taxis ou autres véhicules… Pour autant qu’ils le trouvent. Par ailleurs des taxis de qualité, comme le proposent les VTC, rendraient l’offre plus attrayante. L’identification des véhicules et une bonne communication sur les avantages proposés par chaque compagnie ou chaque type de véhicule ou prestation élargirait le choix des clients et par là, la clientèle elle-même.

 

Il est évident que dans ce cadre les Lotis devraient être soumis aux mêmes règles (NDLR)

Environnement : la régulation par la seule fiscalité ? Une vision réductrice de la politique

Environnement : la régulation par la seule fiscalité ? Une vision réductrice de la politique

 

Entre les écolos politisés et Bercy c’est l’entente  cordiale depuis le Grenelle de l’environnement. Tous sont d’accord pour imposer des taxes en plus et  partout. Même les économistes qui veulent être à la mode s’y mettent. Pourtant la question est de savoir si la régulation peut se résumer à des impôts supplémentaires ; un exemple, la question du diesel dans l’automobile, on continue d’en fabriquer et d’en vendre (7 véhicules neufs sur deux en France). Pourquoi continuer cette politique en surtaxant le gasoil ? Il suffirait dans un délai raisonnable (une quinzaine d’années) d’interdire purement et simplement le diésel en autorisant l’usage des véhicules déjà contrits pendant un temps. Les économistes fiscalistes parlent de « signal-prix » comme si la politique environnementale pouvait uniquement dépendre des prix du marché.  En fait la politique des écolos est surtout punitive et non incitative et cela dans tous les domaines économiques, sociaux voire sociétaux. Pas étonnant la plupart sont des anciens gauchistes reconvertis dans l’écologie depuis l’écroulement de l’extrême gauche. Dans le transport par exemple (un des secteurs les plus polluant), il serait plus efficace d’imposer des nomes notamment en matière de motorisation (des voitures qui roulent à 200 kms heure pour quoi faire ?;), de poids, de dimension, ce qui aurait une incidence favorable sur le prix d’achat et sur les conditions d’utilisation.  Valls a sauté sur l’occasion lors de la conférence environnementale en annonçant un relèvement de la fiscalité sur le gasoil. Les récentes taxes sur l’environnement (énergie) ne changeront rien s’il n’ya pas d’alternative or ces alternatives dépendent de l’innovation, des normes et de la compétitivité des nouveaux équipements. (Transport, logement, chauffage, éclairage etc.). Réduire la lutte contre les nuisances et la pollution à des mesures défiscalisées, c’est réduire la politique à une approche de comptable .

La régulation financière reste à faire

La régulation financière reste à faire

 

Dans « la Tribune » on présente un ouvrage très intéressant sur la crise notamment financière (*). Une mise en cause du surdimensionnement de la sphère financière (par rapport à l’économie réelle) et les dangers de sa concentration. En fait pas grand-chose n’a changé depuis 2008 puisqu’au contraire la concentration bancaire s’est accrue et que la spéculation continue faut de vraie réforme bancaire en particulier en France où on a réalisé la plus petite réforme. Sans parler du shadow banking, de la présence des banques dans les paradis fiscaux, des produits  dérivés ou encore des transactions à haute fréquence. En fait la régulation court après la sophistication financière. Avec évidemment le risque de l’éclatement d’une nouvelle bulle.  Pour bien identifier là où le bât blesse, la lecture d’un petit ouvrage « Parlons banques en 30 questions« (*), coécrit par l’universitaire Jézabel Couppey-Soubeyran et l’analyste financier Christophe Nijdam, est recommandée. Très pédagogues, les deux auteurs s’attèlent dans un premier temps à répondre aux questions les plus fondamentales de la finance : du rôle indispensable des banques dans le financement de l’économie aux dérives liées à leurs activités de marchés, en passant par une définition assez précise de tous leurs différents métiers. Autre intérêt du livre : il donne quelques éléments d’histoire, indispensables pour bien comprendre la réalité des crises financières. Les deux auteurs détaillent surtout les sujets bancaires les plus brûlants du moment. Qu’il s’agisse de la mise en place de l’Union bancaire au niveau européen, de la montée en puissance de la finance de l’ombre -le « shadow banking« -, ou de la nécessité -ou non- de séparer les activités de banque de dépôts et de banque d’affaires – à ce propos, les auteurs estiment d’ailleurs que, de toutes les lois de séparation proposées au niveau mondial depuis 2008, la loi française « Moscovici » est celle qui… sépare le moins. Au-delà de l’aspect pédagogique, les auteurs développent dans leur ouvrage les grands combats à mener pour ne plus connaître pareille crise : réduire l’endettement des banques, accroître la part de leurs fonds propres pour qu’elles puissent faire face à des difficultés, diminuer la taille des grands groupes bancaires et la concentration du secteur, améliorer sa surveillance et mettre en place des sanctions pénales pour les dirigeants qui ont failli. Le livre interpelle enfin le lecteur sur les multiples carences en matière de gestion des risques des banques, auxquelles on donne visiblement beaucoup trop d’autonomie pour définir à quel point leurs activités de marché sont risquées. Souvent, les banques se sont appuyées sur des séries statistiques pour assurer au régulateur que la situation était sous contrôle, que tout était en règle… avant de subir de terribles déconvenues. C’est ce qui s’est récemment passé dans l’affaire de la Baleine de Londres qui a vu un trader – français – occasionner une perte de 6,2 milliards de dollars pour sa banque, l’américaine JP Morgan. Les auteurs s’amusent ainsi à citer l’écrivain Mark Twain qui disait: « Il y a trois sortes de mensonges : les mensonges, les sacrés mensonges et les statistiques. » Une citation qui s’applique très bien au monde de la « finance casino« .

Autant de références et d’analogies pertinentes contenues dans ce petit livre qui permettent d’éclairer notre lanterne.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol