Archive pour le Tag 'régulation'

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Régulation d’internet : la France lance une consultation mondiale

Régulation d’internet : la France lance une consultation mondiale

 

 

La France veut réfléchir à des régulations « intelligentes » dans dix grands domaines, comme « la fiscalité », « le partage des données industrielles », « la modération des contenus en ligne » et notamment des contenus haineux, « la protection des données personnelles », ou encore le « droit des affaires » a indiqué M. Mahjoubi, le secrétaire d’Etat au numérique.  La France va donc lancer une consultation internationale en vue de régulations mondiales d’internet, a déclaré vendredi le secrétaire d’Etat au numérique Mounir Mahjoubi, en marge du salon des startups VivaTech. . Cette consultation sera nationale, européenne, et aussi internationale, en demandant notamment la participation des géants mondiaux de l’internet, a précisé le secrétaire d’Etat. « Je veux convaincre ces grandes plateformes de discuter sur ces régulations mondiales », a indiqué M. Mahjoubi à l’AFP.

 

Accès universités : la régulation par les CRS

Accès universités : la régulation par les CRS

Philippe le Premier ministre qui peine à se faire uen nom dans l’ombre de Macron agite aussi la matraque pour les universités. Il a sûrement pris connaissance des sondages où une majorité de Français approuvent la fermeté de Macron. Certes le blocage des facs n’est sans doute pas une solution, pas même un moyen quand elles sont le fait de militants politisés très minoritaires. Pour autant,  elle n’est pas la réponse à la question du refus d’accès à l’université. Que va-t-on faire des 30 ou 40% des candidats étudiants auxquels on va interdire l’entrée en fac ? Il aurait été plus constructif d’ouvrir une  grande filière apprentissage au lieu de la réduire aux travaux manuels pour les « nuls » comme vient de la faire la ministre de l’éducation. La régulation par les CRS est une mesure appréciée par  les partisan de l’ordre républicain, les réacs, les populistes mais elle ne résout rien. Surtout comme à Tolbiac on a évacué par la force mais qu’on maintiendra fermée jusqu’en septembre.  Ce discours de Philippe qui brosse dans le sens du poil ne le grandit pas même s’il  contient des évidences :

“Chaque fois que des espaces universitaires seront confisqués par de petits groupes radicaux, chaque fois que l’organisation des examens sera ciblée, nous répondrons avec fermeté”, a dit le Premier ministre après avoir reçu des membres de la Conférence des présidents d’université.“Nous ferons le nécessaire pour que les examens puissent se tenir dans de bonnes conditions”, a poursuivi le chef du gouvernement, déplorant que certains puissent “mettre en scène une contestation profondément minoritaire”. Les forces de l’ordre sont intervenues dans plusieurs universités ces derniers jours pour déloger des opposants à la réforme de l’accès à l’université, notamment dans les locaux de la Sorbonne, dans les Ve et XIIIe arrondissements parisiens.

Travailleurs détachés : la délation comme moyen de régulation !

Travailleurs détachés : la délation comme moyen de régulation !

Ce n’est pas de la délation mais cela y ressemble. La ministre du travail propose de diffuser la liste des mauvais élèves qui ne respecteraient pas des conditions d’embauche et d’utilisation des travailleurs détachés. Bref,  la délation utilisée comme système de régulation ! Si l’état veut réellement réguler il ne manque pas de moyens. Les institutions sociales d’abord comme les inspecteurs du travail par exemple, la DGCCRF aussi, en dernier ressort la justice.  Encore faudrait-il évidemment que ces institutions fassent leur travail et de manière équitable. Cela ne justifie sans doute pas pour autant la dénonciation publique ou alors on ouvre la boîte de pandore en systématisant ces dénonciations à toutes les infractions à la législation économique, social et fiscale  etc.  L’an dernier, 516.101 salariés détachés (hors transport) ont ainsi été enregistrées en France, soit une hausse de 46% par rapport à 2016. Leurs employeurs, établis dans d’autres pays européens, doivent au moins les payer au Smic, mais ils continuent de payer les cotisations sociales dans le pays d’origine.  Le bond enregistré en 2017, qui succède à des hausses de 24% en 2016 et de 25% en 2015, s’explique, en partie, par une meilleure collecte des données, mais aussi, selon la ministre du Travail Muriel Pénicaud, par les sanctions plus sévères mises en place par la majorité précédente. La ministre a emboîté le pas de ses prédécesseurs, en annonçant ce lundi seize mesures pour renforcer l’arsenal de contrôles et de sanctions. Pour frapper les fraudeurs au porte-monnaie, le gouvernement va porter les sanctions financières de 2000 à 3000 euros par salarié détaché illégalement, et de 4000 à 6000 euros en cas de récidive. Et si un prestataire étranger ne s’acquitte pas de l’amende, sa prestation de service pourra être suspendue. . La ministre du Travail, Muriel Pénicaud, a donc annoncé son intention de publier le nom des entreprises sanctionnées pour fraude au détachement de travailleurs. Par cette méthode dite du name and shame (désigner par son nom et couvrir de honte en anglais), les autorités espèrent que la menace d’entacher leur réputation dissuadera particuliers et entreprises d’enfreindre la loi.

OPEP : à la recherche d’une régulation du pétrole

OPEP : à la recherche d’une régulation du pétrole

 

Cette fois c’est  l’Arabie Saoudite qui a déséquilibré le marché en augmentant sa production depuis 2014 qui  va tenter de convaincre les membres de l’OPEP de mieux réguler l’offre par rapport à la demande. Pas sûr cependant qu’elle soit entendue et comprise après ce changement de stratégie. En outre tout dépendra en cas d’accord du point de référence qui sera retenue pour figer le volume de la production ; en effet avec le tassement économique de la croissance mondiale les besoins en pétrole ont aussi tendance à stagner voire à régresser. L’OPEP relancera cependant le mois prochain les discussions sur un gel de sa production, l’Arabie saoudite, premier exportateur mondial, semblant chercher à faire remonter les cours, a-t-on appris de plusieurs sources au sein de l’organisation, mais l’Iran, l’Irak et la Russie sont autant d’obstacles importants à un compromis. Ryad a relancé les spéculations sur la possibilité d’un accord d’encadrement de la production jeudi dernier, le ministre saoudien de l’Energie, Khalid al Falih, déclarant que son pays souhaitait travailler avec des pays membres ou non de l’OPEP à une stabilisation du marché. « Les propos du ministre saoudien de l’Energie constituent un signe positif de sa volonté d’aller vers un accord de gel de la production ; reste à savoir à quel niveau », a dit une source d’un pays du Moyen-Orient membre de l’OPEP. « Le gel se fera-t-il aux niveaux de janvier ? Qu’adviendra-t-il de l’Iran ? Et puis il y a le Nigeria, dont la production a beaucoup diminué depuis janvier », a ajouté cette source. Côté russe, le ministre de l’Energie, Alexander Novak, a déclaré à un journal saoudien que son pays menait des consultations avec l’Arabie saoudite et d’autres producteurs, ajoutant que de nouvelles discussions sur un éventuel gel des niveaux de production restaient possibles en cas de besoin. L’Arabie saoudite a augmenté sa production en juillet, à 10,67 millions de barils par jour (bpj) contre 10,2 millions en janvier. Depuis 2014, le royaume, chef de file de fait de l’OPEP en raison de son poids sur le marché mondial, a augmenté ses pompages dans le but d’exclure du marché des producteurs dont les coûts sont plus élevés, afin de regagner des parts de marché au détriment de pays comme les Etats-Unis, qui lui avaient taillé des croupières au cours des années précédentes. Cette stratégie a fortement contribué à la chute du cours du baril de Brent, tombé à 27 dollars en janvier contre 115 dollars mi-2014. Ce mouvement a certes pénalisé les producteurs nord-américains, mais il a aussi plombé le budget saoudien.

(Reuters)

Travailleurs détachés : les patrons allemands condamnent la régulation européenne

Travailleurs détachés : les patrons allemands condamnent la régulation européenne

 

Les ex pays de l’Est s’opposent à la nouvelle directive européenne qui encadrera les conditions sociales des travailleurs détachés. Ils sont rejoints sur ce point par les patrons allemands. Ce que confirme Dans une interview à Euractive Renate Hornung-Draus directrice des Affaires européennes et internationales à la Confédération allemande des associations des employeurs (BDA).

 

EURACTIV - La Commission européenne a présenté sa proposition de révision de la directive sur les travailleurs détachés en mai 2016. L’idée de base est d’assurer un « salaire égal pour un travail égal au même endroit ». Vous faites partie d’une association représentant des milliers d’entreprises allemandes, selon vous, cette modification est-elle nécessaire, et dans quels domaines ?

RENATE HORNUNG-DRAUS - Je peux parler à la fois au nom des entreprises allemandes et de BusinessEurope. Nous avons présenté une position claire qui indique que la proposition n’est pas nécessaire. Il est évident que les règles existantes, qui ont été adoptées il y a deux ans, ne sont pas efficaces pour l’instant, parce que nous sommes à la fin de la période de transposition et que certains pays n’ont pas encore finalisé le processus. Toutes les entreprises allemandes, y compris celles du secteur de la construction, estiment que la proposition n’est pas nécessaire.

Qu’est-ce qui vous déplait dans la proposition et pourquoi ?

Il y a plusieurs points qui nous déplaisent. Si les nouvelles règles sont adoptées, cela créera des incertitudes légales.

Vous assurez que les règles existantes sont suffisantes, mais vous mentionnez également des problèmes liés aux travailleurs déplacés dans l’UE et en Allemagne. Quels sont les problèmes et comment devraient-ils être résolus ?

En Allemagne, les problèmes sont liés à des abus et des pratiques illégales, comme les faux indépendants ou le non-paiement des salaires ou de la sécurité sociale par l’employeur dans le pays de détachement. Il est difficile de combattre ces abus parce que la coopération entre les autorités publiques des différents pays n’est pas parfaite. Il existe un problème spécifique au secteur de la construction et aux secteurs qui y sont associés.

Combien de travailleurs déplacés l’Allemagne compte-t-elle, et dans quels secteurs sont-ils ?

L’Allemagne est parmi les pays qui reçoivent le plus de travailleurs [détachés] dans l’UE, ce qui est logique, étant donné que c’est un grand pays avec une économie en bonne santé. D’autres pays sont également dans cette situation. C’est dans l’industrie de la construction et les secteurs associés qu’il y a le plus de travailleurs détachés, et c’est donc aussi dans ces secteurs qu’il y a le plus de problèmes. Les statistiques de la Commission européenne indiquent que le nombre de travailleurs détachés a augmenté ces dernières années, mais ce nombre reste très peu élevé. On peut dire qu’il y a une augmentation de 40%, mais 40% d’un très petit nombre, cela ne fait quand même pas grand-chose.

L’un des arguments mis en avant en République tchèque est que la proposition pourrait créer une division profonde en Europe, et en particulier les nouveaux États membres et les plus anciens. Vous comprenez ces inquiétudes ?

Nous sommes tout à fait d’accord avec cet argument, mais il est important de dire que l’opposition à la directive ne provient pas uniquement des nouveaux États membres. Elle a également émergé dans des pays comme le Danemark, qui a également participé à la procédure de carton jaune, et du monde des affaires allemand. Le gouvernement allemand a envoyé une lettre à la Commission et a approuvé la modification de détails très concrets de la proposition. Pourtant, Berlin avait encore beaucoup de questions. Le gouvernement n’a pas encore pris de position officielle, parce que la proposition est bloquée par le carton jaune. Ce carton jaune montre déjà à quel point la directive menace de diviser l’Europe et de causer des conflits. La procédure est aussi mauvaise pour les institutions, parce qu’elle montre la nécessité de commencer par discuter avec les acteurs et par comprendre les problèmes, avant de décider de changer quoi que ce soit. Il serait mieux d’attendre les résultats de l’application de la directive, avant de lancer une discussion sur les modifications possibles. Si elle ne renonce pas à sa proposition, la Commission risque d’endommager l’image des institutions.

Pourquoi la Commission a-t-elle adopté cette position ? Pourquoi préparer cette proposition ?

Selon moi, Jean-Claude Juncker a fait une promesse politique faite à certains pays, comme la France, et aux syndicats. Aujourd’hui, il ne veut pas faire marche arrière et admettre qu’il a eu tort.

La proposition actuelle comporte-t-elle de bons aspects ?

Malheureusement, la proposition actuelle ne se penche pas sur les problèmes. En fait, son entrée en vigueur aggraverait le problème en ajoutant de nouvelles règles, qui sont encore plus compliquées à appliquer et à faire respecter que les règles actuelles. Ces problèmes seraient adéquatement pris en compte dans le cadre de la directive d’application de 2014. Il faut s’efforcer d’appliquer réellement ces règles, plutôt que d’en inventer de nouvelles.

 

(Avec Euractive)

 

Crise : quelle régulation ? Une réponse à Madame Lagarde

 

Crise : quelle régulation ?  Une réponse à Madame Lagarde

 

 

 

Une interview d’Hubert Rodarie, DGD de SMA est co-animateur du programme «Normes de la Finance» à la Chaire éthique et finance de la MSH dans le Figaro qui pose la question de l’évolution des normes suite à la déclaration de Christine Lagarde sur l’Etat de l’économie mondiale. Un propos qu’on peut contester mais qui mérite d’être entendu notamment par rapport au transfert de la valeur ajoutée vers le trou de la dette. :

 

 

« Dans une interview au Figaro, le 19 avril dernier, Christine Lagarde dresse constate que «les cicatrices de la crise de 2008-2009 n’ont pas été toujours bien traitées». Que veut-elle dire? La directrice générale du FMI cite les créances douteuses des banques, le manque de réformes structurelles des États et des législations sociales et la politique budgétaire. Seraient-ce les vraies raisons «du manque de croissance de l’économie mondiale?» La réponse est non. Huit ans après, ce sont, hélas, les raisons toujours agissantes de la crise de 2008 qui expliquent la stagnation actuelle ; et non l’absence de traitement des conséquences.

 

Voici quelques années, nous pointions comme «macro-cause» des divers dérèglements l’implantation répétée dans l’économie mondiale d’un dispositif économique global que l’on peut qualifier de ricardien, car on invoque souvent David Ricardo (1772-1823) pour le justifier. Pour stimuler les échanges on organise des déséquilibres durables de coûts de production entre deux zones économiques et monétaires. Pour cela, on empêche ou freine le mécanisme des changes de faire son travail d’équilibrage.

Depuis soixante ans, cette construction politico-économique a été implantée plusieurs fois. Depuis 1998, la Chine en bénéficie. Mais ce système produit des effets néfastes qui ne sont ni maîtrisés, ni maîtrisables. Les crises récurrentes le prouvent. Ainsi, l’accumulation de dettes de toutes natures s’est révélée comme l’effet néfaste majeur de ce système. En 2008, ce phénomène a été démontré ; en 2015 il persiste toujours comme le montrent plusieurs études. Il faut donc conclure que ce processus d’endettement, sans frein ni fin, constitue le marqueur des effets néfastes du dispositif actuel et que la dette globale devient le trou noir de l’économie mondiale dans lequel bascule peu à peu la valeur ajoutée créée dans le monde.

Mais la dynamique impulsée à l’activité mondiale depuis 1998 par la stimulation des échanges avec la Chine s’étouffe aujourd’hui sous le poids de ses conséquences non voulues. Les politiques monétaires, comme les autres mesures, ne sont que des actions de retardement de cette asphyxie programmée. La loi dite de modération universelle s’impose inexorablement:

Depuis 2008, rien n’a vraiment changé. Il n’y a aucune remise en cause des paradigmes qui justifient les organisations actuelles. Tous les maux subis sont attribués, comme le fait Mme Lagarde, à des fautes ou à des erreurs politiques. Puisqu’on ne veut tarir la source des dettes, il est décrété que pour en éliminer les risques, il convient d’édicter plus de normes et de règles. On nous dit que le danger réside dans la transgression de la norme, l’absence de régulation, ou l’échec des contrôles. Le système se referme sur lui-même. Cette vision du risque est un appauvrissement intellectuel. Elle réduit le risque en confondant fraude et accident, faute et danger. Cette vision du risque écarte l’incertitude, nie le temps et ce qu’il apporte en changements de contexte et en surprises. Elle est erronée. Surtout, chacun voit que l’ordre s’est en réalité inversé: la norme n’est plus un outil au service des acteurs économiques, mais une matière en soi qui structure et modèle l’activité économique. Ce qui oblige à poser la question de la responsabilité même des modèles d’activité et des régulations globales dans l’arrivée des crises économiques. Question à poser à Mme Lagarde, au FMI et aux autres régulateurs du système financier et économique. Pour retrouver la croissance, ne faut-il pas rompre avec les dispositifs ricardiens? Ne faudrait-il pas enfin quitter cette mentalité marquée par l’impératif de la reconstruction des années 1950 qui les justifiait? Maintenant que les grands pays communistes ont rejoint les autres, et l’arrivée de la Chine et du yuan au cœur du FMI en sont le symbole, ne serait-ce pas le moment de reconstruire un ordre économique et monétaire international qui favorise des échanges équilibrés? Un ordre et une régulation pour des temps de la maturité. »

Une taxe carbone française : nouvel impôt ou régulation énergétique ?

Une taxe carbone française : nouvel impôt ou régulation énergétique ?

 

 

L France va créer une nouvelle taxe carbone qui passerait ainsi d’environ  5 euros à 30 €. Une annonce qui réjouit nombre d’économistes et d’écolos. Des économistes qui souhaitent la marchandisation de la  pollution et faire du signal pris le dogme de la révolution énergétique ;  des écolos qui veulent renchérir le coût des énergies fossiles. Le problème évidemment c’est que le consommateur final paiera la note. La problématique est de savoir si cette taxe constitue un moyen efficace d’opérer une transition énergétique. Sans parler évidemment des questions de compétitivité puisque pour l’instant en attendant de convaincre l’Union économique, la taxe ne s’appliquera qu’en France. Cette taxe veut se distinguer de la composante carbone progressive instaurée par la loi de finances 2014 dans la taxe intérieure de consommation sur les produits énergétiques (TICPE), qui vise les émissions diffuses de CO2 par le biais, essentiellement, de la consommation de carburants, par exemple pour le chauffage ou dans les transports. De sept euros par tonne de CO2 en 2014, cette « contribution climat énergie » a été portée à 14,5 euros en 2015 et 22 euros en 2016. La loi de transition énergétique prévoit de porter cette composante de la TICPE à 56 euros la tonne en 2020 et 100 en 2030, en passant par 30,5 en 2017, 39 en 2018, 47,5 en 2019. En réalité la nouvelle taxe carbone risque de ce cumuler (16 voir d’être fondu avec l’actuel et ICP. En clair,  ce sera un impôt supplémentaire  On peut se poser la question de la pertinence économique et environnementale de ce nouvel impôt. En effet il ne s’agit ni plus ni moins que de mettre une taxe supplémentaire sur la pollution. Est-ce que cette taxe sera ou non de nature à peser sur le choix du consommateur afin de réduire les émissions polluantes ?  Rien n’est sûr car  tout dépendra de l’offre alternative dont peut disposer le consommateur ; or en l’état actuel des technologiques le choix est relativement réduit. Pour le transport par exemple, dans les grandes villes, certains voyageurs peuvent faire le choix des transports collectifs mais pas les résidents  en banlieue ou a fortiori dans les zones rurales. L’offre est également très réduite entre les différentes techniques concernant le chauffage ou alors  il convient de procéder à des investissements qui ne sont accessibles qu’aux plus hauts revenus. La plus grosse critique qu’on peut émettre concernant la taxe carbone, c’est son utilisation. En fait il n’est nullement prévu que le produit de cette taxe carbone contribue à la réduction des émissions polluantes, on compte seulement sur son caractère incitatif ; le produit financier sera affecté pour réduire le déficit budgétaire. Autrement dit, il s’agira d’une fiscalité en plus. Contrairement à ce que pensent  certains écolos la taxe carbone n’est pas la martingale qui permet de résoudre la question des les émissions polluantes. D’abord cette taxe ne sera pas un niveau suffisamment dissuasif sauf à amputer brutalement le pouvoir des consommateurs ce qui socialement est difficilement envisageable ;  il serait sans doute plus efficace pour la problématique environnementale de combiner une certaine taxation de la pollution avec une un renforcement progressif des normes enfin la marchandisation des coûts de la pollution pose une question d’éthique.

Agriculteurs: « pour une régulation européenne »

Agriculteurs: « pour une régulation européenne »

 

Même si le milieu agricole est  satisfait de la baisse des charges sociales voire des discussions entamées avec la grande distribution, il n’empêche que seule une régulation européenne sera de nature à apporter une réponse pérenne à la question récurrente des prix. Or pour l’instant l’Europe a privilégié  la régulation du secteur par le seul marché, marché complètement ouvert au plan mondial ;  du coup compte tenu des conditions de concurrence, les producteurs français sont condamnés à vendre à perte et progressivement à disparaître. Faute de régulation concernant les conditions de production (fiscale, sociale, environnementale et qualitative),  c’est le modèle de production industrielle à bas coût qui triomphe. À ce jeu truqué de la concurrence ce sont les pays aux contraintes concurrentielles allégées qui gagnent. Conséquence les viandes  importées de mauvaise qualité et dangereuses pour la santé inondent le marché d’autant que concrètement il est pratiquement impossible de connaître l’origine et les conditions de production. Même les productions françaises peuvent être complètement affectées par l’utilisation d’alimentation importée ne respectant aucune règle sans parler de l’utilisation excessive des engrais, des pesticides ou des herbicides. La régulation doit donc concerner aussi bien des productions importées que les productions nationales. Ce que réclament  notamment les représentants de deux mouvements d’agriculteurs, la Confédération paysanne et la Coordination rurale, qui  ont rencontré le président de la République à l’Elysée ce vendredi. Les agriculteurs dénoncent la chute des prix de leurs produits et les lourdes charges sociales. Jeudi, François Hollande a promis hier une nouvelle baisse « immédiate » des cotisations sociales.  Bernard Lannes, président de la Coordination rurale s’est dit satisfait sur France Info de sa rencontre avec François Hollande, qu’il a trouvé « attentif ».  Ils ont évoqué une régulation de la production pour éviter de vendre à perte. « Sans régulation européenne, sans organisation de marché – ce qu’on appelle du protectionnisme éclairé [...] pour ne pas nous laisser au libre vent du marché mondial – alors il n’y aura plus d’agriculture », explique Bernard Lannes.   »Réguler, c’est-à-dire donner des autorisations de production et, quand il y a surproduction, ralentir [...] pour avoir des prix rémunérateurs » vis-à-vis des enseignes de grande distribution, selon le président de la Coordination rurale.

 

Taxis : après les VTC, c’est, les « lotis » ou l’absence de régulation

Taxis : après les VTC,  c’est, les « lotis » ou l’absence de régulation

 

Après les protestations des taxis puis celle des VTC voilà maintenant celle des chauffeurs dits lotis. Difficile sans doute pour l’opinion publique de s’y retrouver dans les différents statuts qui permettent aux taxis ou assimilés de transporter des personnes. Pour résumer trois types de statut coexistent actuellement dans le monde des taxis. Les taxis classiques, les VTC  (initié par Uber)  et qui en quelque sorte bénéficient de règles allégées (pas de licence, pas les mêmes règles fiscales) enfin les chauffeurs dits lotis normalement autorisés à ne transporter que des groupes de personnes et qui viennent faire concurrence les  deux autres catégories. Or  suite aux négociations avec les taxis, le gouvernement veut interdire à cette dernière catégorie, les lotis, d’exercer la profession de taxi qui représente toutefois près de 50 % du Sud affaire de leur chiffre d’affaires. Pour résumer 3  types d’environnement concurrentiel pour le même marché. Patrice Salini, (économiste ancien directeur de cabinet au ministère des transports), l’un des meilleurs experts du transport, rappelait  fort à propos la manière dont ont été réglé les questions de licences du transport routier de marchandises et la question du contingentement. (Article paru dans les Échos)

« Une situation de ce type débouche inéluctablement à plusieurs conséquences :

  1. Le marché « contingenté » et « tarifé » est à la fois sous productif et peu rémunérateur, tout en étant sur-tarifé.
    2. Le contingent génère des pratiques de cession ou de location-gérance de fonds de commerce, en réalité d’autorisations de transport  – ou de « plaques » comme on dit chez les taxis, dont les prix sont excessifs(2), et uniquement dus au contingentement lui-même (on paie la rareté). Cette « rente » servie au « propriétaire » qui « loue » au locataire-gérant une « autorisation de stationnement » accompagnée d’un véhicule taxi, ne reflète nullement un fonds de commerce réel, mais bien – essentiellement – un droit d’accès au marché.
    3. Ce système pèse à la fois sur les coûts de production et sur les prix de vente (tarifs), et donc d’une part sur la rentabilité des taxis, leurs conditions de travail, et d’autre part leur compétitivité.
    4. Le secteur le plus contraint peut être tenté de le contourner (frauder) pour en limiter l’incidence (recettes « au noir », tarification non appliquée…)
    5. Le secteur « exempté » de contingent et de contrainte tarifaire se trouve donc mécaniquement plus facile à rentabiliser, un avantage renforcé grâce au téléphone et à internet. »
  2. Par ailleurs Une  recherche très intéressante de l’institut IREF  définissait  perspective de sortie de crise entre les taxis traditionnels et les VTC. Contrairement à certains qui préconisent une libéralisation brutale dans le secteur et/ou qui considèrent que l’indemnisation est  impossible, l’institut propose une restructuration progressive. Extrait des propositions : La libération du marché apparait comme indispensable au regard de l’évolution des techniques et des besoins. Mais la question principale, à résoudre comme un préalable, reste celle de l’indemnisation des taxis qui subiraient une perte injuste du fait d’une libéralisation sans conditions réduisant à néant la valeur de leur licence. Dans la mesure où le coût de leur indemnisation immédiate représenterait une charge insupportable pour la collectivité, d’autres solutions doivent et peuvent être envisagées. Il est proposé de geler les licences actuelles pour une durée garantie de trente ans. Pendant ces trente ans, ces licences pourraient être librement revendues, comme aujourd’hui. Mais leur valeur perdrait mécaniquement un trentième par an, sous réserve, bien entendu, de l’évolution du marché. Parallèlement, un droit de voierie serait payable par tous les véhicule publics, taxis ou VTC, dépourvus de licences (délivrées jusqu’à la réforme) à raison d’un montant raisonnable qui pourrait être de l’ordre de 3 à 4 000 euros par an, correspondant à une partie de la valeur de la licence (il ne parait pas normal d’indemniser les titulaires de licences à hauteur du prix actuel de marché, dans la mesure où celui-ci est aléatoire. Alors que la réforme permettrait aux titulaires, dont certains n’ont pas acquis leur licence, de continuer à travailler). Aucune nouvelle licence ne serait cessible, seules les anciennes le resteraient jusqu’à expiration de leur validité (ce que propose d’ailleurs le nouveau projet de loi). Ce droit annuel serait le prix du droit de stationnement ou plus généralement du droit de faire commerce sur la voie publique dont bénéficieraient donc tant les véhicules disposant d’une licence de trente ans que les autres qui paieraient la licence annuelle. Il n’y aurait donc plus de différence de nature entre taxis et VTC, mais chacun pourrait exercer son métier différemment. Et tous ceux ayant une licence ancienne ou payant le nouveau droit d’exercice pourraient exercer sous certaines conditions (voir ci-après). Bien entendu rien n’empêcherait les compagnies de taxis ou VTC de s’identifier par la peinture de leur carrosserie ou tout signe extérieur de leur choix.

Plus généralement et pour mettre en œuvre cette réforme, les préconisations sont les suivantes :

> Mener une étude d’impact dans les grandes villes, pour évaluer l’ampleur d’une réforme sur le secteur ;

> Attribuer les nouvelles licences par véhicule et par chauffeur pour une durée déterminée de trois ans renouvelables automatiquement sauf violation des règles ci-après ;

> Interdire les cessions des nouvelles licences qui seraient attribuées gratuitement, mais assujetties à une redevance annuelle;

> Instituer des règles simples que Taxis et VTC devront s’engager à respecter au risque de perdre leur droit d’exploiter sur la voie publique : sécurité, fiscalité, règles sociales etc.

> Libérer les prix, de manière à ce que la concurrence joue, non pas seulement sur les quantités mais aussi sur les prix ;

> Veiller à ce que les prix soient clairement affichés dans les véhicules ;
Autoriser tous les véhicules, VTC et Taxis, à utiliser les mêmes innovations technologiques ;

> Stopper le gel des immatriculations de VTC et la limitation du nombre de licences de taxis ;

Une telle réforme devrait favoriser le développement d’une nouvelle offre. Dans les villes, et particulièrement en France, à Paris, les ménages ont de moins en moins de voiture et sont prêts à utiliser de plus en plus le service des taxis ou autres véhicules… Pour autant qu’ils le trouvent. Par ailleurs des taxis de qualité, comme le proposent les VTC, rendraient l’offre plus attrayante. L’identification des véhicules et une bonne communication sur les avantages proposés par chaque compagnie ou chaque type de véhicule ou prestation élargirait le choix des clients et par là, la clientèle elle-même.

 

Il est évident que dans ce cadre les Lotis devraient être soumis aux mêmes règles (NDLR)

Environnement : la régulation par la seule fiscalité ? Une vision réductrice de la politique

Environnement : la régulation par la seule fiscalité ? Une vision réductrice de la politique

 

Entre les écolos politisés et Bercy c’est l’entente  cordiale depuis le Grenelle de l’environnement. Tous sont d’accord pour imposer des taxes en plus et  partout. Même les économistes qui veulent être à la mode s’y mettent. Pourtant la question est de savoir si la régulation peut se résumer à des impôts supplémentaires ; un exemple, la question du diesel dans l’automobile, on continue d’en fabriquer et d’en vendre (7 véhicules neufs sur deux en France). Pourquoi continuer cette politique en surtaxant le gasoil ? Il suffirait dans un délai raisonnable (une quinzaine d’années) d’interdire purement et simplement le diésel en autorisant l’usage des véhicules déjà contrits pendant un temps. Les économistes fiscalistes parlent de « signal-prix » comme si la politique environnementale pouvait uniquement dépendre des prix du marché.  En fait la politique des écolos est surtout punitive et non incitative et cela dans tous les domaines économiques, sociaux voire sociétaux. Pas étonnant la plupart sont des anciens gauchistes reconvertis dans l’écologie depuis l’écroulement de l’extrême gauche. Dans le transport par exemple (un des secteurs les plus polluant), il serait plus efficace d’imposer des nomes notamment en matière de motorisation (des voitures qui roulent à 200 kms heure pour quoi faire ?;), de poids, de dimension, ce qui aurait une incidence favorable sur le prix d’achat et sur les conditions d’utilisation.  Valls a sauté sur l’occasion lors de la conférence environnementale en annonçant un relèvement de la fiscalité sur le gasoil. Les récentes taxes sur l’environnement (énergie) ne changeront rien s’il n’ya pas d’alternative or ces alternatives dépendent de l’innovation, des normes et de la compétitivité des nouveaux équipements. (Transport, logement, chauffage, éclairage etc.). Réduire la lutte contre les nuisances et la pollution à des mesures défiscalisées, c’est réduire la politique à une approche de comptable .

La régulation financière reste à faire

La régulation financière reste à faire

 

Dans « la Tribune » on présente un ouvrage très intéressant sur la crise notamment financière (*). Une mise en cause du surdimensionnement de la sphère financière (par rapport à l’économie réelle) et les dangers de sa concentration. En fait pas grand-chose n’a changé depuis 2008 puisqu’au contraire la concentration bancaire s’est accrue et que la spéculation continue faut de vraie réforme bancaire en particulier en France où on a réalisé la plus petite réforme. Sans parler du shadow banking, de la présence des banques dans les paradis fiscaux, des produits  dérivés ou encore des transactions à haute fréquence. En fait la régulation court après la sophistication financière. Avec évidemment le risque de l’éclatement d’une nouvelle bulle.  Pour bien identifier là où le bât blesse, la lecture d’un petit ouvrage « Parlons banques en 30 questions« (*), coécrit par l’universitaire Jézabel Couppey-Soubeyran et l’analyste financier Christophe Nijdam, est recommandée. Très pédagogues, les deux auteurs s’attèlent dans un premier temps à répondre aux questions les plus fondamentales de la finance : du rôle indispensable des banques dans le financement de l’économie aux dérives liées à leurs activités de marchés, en passant par une définition assez précise de tous leurs différents métiers. Autre intérêt du livre : il donne quelques éléments d’histoire, indispensables pour bien comprendre la réalité des crises financières. Les deux auteurs détaillent surtout les sujets bancaires les plus brûlants du moment. Qu’il s’agisse de la mise en place de l’Union bancaire au niveau européen, de la montée en puissance de la finance de l’ombre -le « shadow banking« -, ou de la nécessité -ou non- de séparer les activités de banque de dépôts et de banque d’affaires – à ce propos, les auteurs estiment d’ailleurs que, de toutes les lois de séparation proposées au niveau mondial depuis 2008, la loi française « Moscovici » est celle qui… sépare le moins. Au-delà de l’aspect pédagogique, les auteurs développent dans leur ouvrage les grands combats à mener pour ne plus connaître pareille crise : réduire l’endettement des banques, accroître la part de leurs fonds propres pour qu’elles puissent faire face à des difficultés, diminuer la taille des grands groupes bancaires et la concentration du secteur, améliorer sa surveillance et mettre en place des sanctions pénales pour les dirigeants qui ont failli. Le livre interpelle enfin le lecteur sur les multiples carences en matière de gestion des risques des banques, auxquelles on donne visiblement beaucoup trop d’autonomie pour définir à quel point leurs activités de marché sont risquées. Souvent, les banques se sont appuyées sur des séries statistiques pour assurer au régulateur que la situation était sous contrôle, que tout était en règle… avant de subir de terribles déconvenues. C’est ce qui s’est récemment passé dans l’affaire de la Baleine de Londres qui a vu un trader – français – occasionner une perte de 6,2 milliards de dollars pour sa banque, l’américaine JP Morgan. Les auteurs s’amusent ainsi à citer l’écrivain Mark Twain qui disait: « Il y a trois sortes de mensonges : les mensonges, les sacrés mensonges et les statistiques. » Une citation qui s’applique très bien au monde de la « finance casino« .

Autant de références et d’analogies pertinentes contenues dans ce petit livre qui permettent d’éclairer notre lanterne.

Europe : la régulation bancaire repoussée ?

Europe : la régulation bancaire repoussée ?

C’est la solidarité inter Etats qui posent problème, du coup les dirigeants européens ne sont pas parvenus mercredi à aplanir leurs divergences dans le dossier de la régulation, tout particulièrement sur la question du démantèlement des établissements en faillite. Au terme d’un troisième jour de négociations infructueuses, les représentants des pays membres de l’Union européenne se sont séparés sans avoir trouvé d’accord sur la plupart des éléments centraux du projet destiné à encadrer un secteur rendu responsable de la crise financière et couper les liens entre les Etats endettés et les banques qui achètent une grande partie de leurs obligations souveraines. Parmi les points à éclaircir, figure notamment celui de l’ampleur de l’aide que pourraient s’apporter les Etats les uns les autres. Les discussions devraient reprendre dans les jours à venir, mais les obstacles les plus difficiles à surmonter seront de trouver la place à donner à la Banque centrale européenne dans la chaîne de décision et de supervision, la mise sur pieds d’une agence chargée de démanteler les banques en faillite et la création d’un fonds destiné à en éponger les coûts. Il pourrait revenir aux chefs d’Etat et de gouvernement d’en décider lors de leur prochaine réunion à Bruxelles les 20 et 21 mars. Reste que l’heure tourne alors qu’approchent les élections au Parlement européen de mai prochain. Faute d’accord d’ici avril, la question de la régulation bancaire pourrait être repoussée de plusieurs mois, à plus forte raison en cas de poussée eurosceptique au Parlement.

 

Les taxis en grève : une autre régulation et vite

Les taxis en grève : une autre régulation et vite

 

Les taxis ont raison de dénoncer les conditions de concurrence avec les VTC ; Il y a longtemps qu’on aurait du ,comme pour les camions, repenser la régulation (même si c’est loin d’être idéal dans cette dernière profession surtout avec l’Europe)  En fait c’est l’encadrement quantitatif qui a fait monter le prix des licences autour de 200 000 euros (licences cessibles°)  ; Il convient donc de muter vers un encadrement qualitatif, mais progressivement, ce qui implique :

 

-          D’abord de suspendre les nouvelles immatriculations

-          De permettre l’amortissement fiscal des licences

-          D’harmoniser les conditions de concurrence

-           pour cela notamment se fonder sur une capacité professionnelle et  une capacité financière évoluant en fonction de l’amortissement fiscal des anciennes licences  

-          De  ne procéder à la distribution de nouvelles licences harmonisées qu’une fois les règles totalement harmonisées

.

En grève depuis lundi 10 février, les taxis parisiens sont donc désormais dans l’attente d’une réponse de Matignon pour. C’est ce qu’ont indiqué leurs représentants à la sortie d’une réunion avec le médiateur, qui a promis de contacter le Premier ministre « dans les heures qui viennent ».  « Ça s’est très bien passé. On n’est pas déçu », s’est réjoui Nordine Dahmane (FO), après que l’intersyndicale des taxis (CFDT, CGT, FO, CST, FTI et SDCTP) a rencontré le député PS Thomas Thévenoud à son bureau à l’Assemblée nationale. Il ajoute : « Pour l’instant, le mouvement reste en place jusqu’à ce qu’on ait la réponse. On reste mobilisé, on ne lâchera pas ». L’intersyndicale des taxis à l’origine de la manifestation de lundi contre la concurrence des voitures de tourisme avec chauffeur (VTC) a appelé mardi à « une grève reconductible » jusqu’à « l’arrêt des immatriculations de VTC ».. Le gouvernement a, de son côté, mis en place une mission de concertation dont l’objectif est de « définir les conditions durables d’une concurrence équilibrée entre les taxis et les VTC ».

 

Grève des taxis : le résultat d’une régulation de gribouille

 

Lundi les taxis seront en grève. C’est le résultat d’un politique de gribouille qui impose une concurrence sauvage dans une profession très réglementée. Certes les taxis doivent être plus nombreux, plus accessibles mais l’offre est  freinée par la congestion en période pointe ; certes il est souhaitable d’augmenter le nombre mais dans des conditions de concurrence équitable, ce n’est pas le cas notamment quand les uns payent un droit d’accès à la profession de l’offre 200 000 euros et pas les autres (sans parler du trafic clandestin). Tout cela révèle une absence totale de régulation.  On se demande par ailleurs pourquoi Valls est impliqué’ dans une affaire qui relève du ministère des transports. La solution serait de permettre d’amortir fiscalement le coût de la licence et progressivement d’ augmenter le nombre de VTC.  Un lundi difficile s’annonce donc pour les automobilistes dans les grandes villes et plus particulièrement aux abords des aéroports parisiens. Cinq syndicats de taxis (CFDT, CGT, FO, SDCTP et CST) appellent à la mobilisation. Ils doivent ainsi former un cortège roulant à allure lente depuis les aéroports de Roissy et Orly vers le centre de la capitale.  L’annonce faite, samedi 8 février, par le ministre de l’Intérieur, Manuel Valls, et sa collègue de l’Artisanat et du Tourisme, Sylvia Pinel, de la création d’une mission de concertation dans les prochains jours n’aura pas suffi à désamorcer le conflit. Depuis plus d’un an, les taxis multiplient les actions pour alerter les pouvoirs publics sur la montée en puissance des Voitures de tourisme avec chauffeur (VTC). Ceux-ci leur font  une concurrence déloyale qui menace leurs revenus et leur emploi.  Et mercredi 5 février, ils ont vu tomber l’une des mesures de protection de leur profession obtenue de haute lutte: le Conseil d’Etat a suspendu le décret obligeant les VTC à respecter un délai de 15 minutes entre la commande et la prise en charge du client. La Haute juridiction doit se prononcer sur le fond avant la fin de l’année. « Aujourd’hui, de toute façon, le décret est mort. Je demande simplement que les charges des VTC et des taxis soient alignées et que la loi soit respectée. » explique Nicolas Rousselet, président de l’Union nationale des industries du taxi et le PDG du groupe G7 dans Le Monde du 8 février. Les taxis accusent en effet leurs concurrents de se livrer au racolage à la sortie des aéroports, ou au maraudage, qui relèvent tous deux du monopole des taxis. Sur ce point au moins, les taxis devraient trouver satisfaction car le gouvernement a annoncé « des contrôles renforcés » dans les prochains jours sur le respect de la réglementation par les différents acteurs. S’agissant des voitures de tourisme avec chauffeur, « il sera notamment vérifié le respect de la réservation préalable, de la facturation forfaitaire ou le non-stationnement aux abords des gares ou des aéroports », précise un communiqué du gouvernement. Mais pour l’heure, ce dernier n’a pas fait savoir s’il envisageait de donner satisfaction aux taxis: élaborer une loi les protégeant de la concurrence déloyale des VTC.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol