Archive pour la Catégorie 'nouvelles technologies'

Page 56 sur 65

Taxation Gafa : la France pousse, l’Allemagne freine

Taxation Gafa : la France pousse, l’Allemagne freine

Le ministre de l’Économie, Bruno Lemaire,  a défendu avec force la taxation des GAFA  au Parlement européen, à Strasbourg, il a plaidé en faveur d’une «décision claire, nette, forte» de l’UE pour taxer les géants du numérique que sont Google, Amazon, Facebook, Apple (GAFA) et autres plateformes numériques comme YouTube ou Airbnb, qui profitent des disparités du système fiscal européen pour minimiser leurs impôts sur le Vieux Continent.  Mais l’Allemagne, elle a botté en touche.  Surtout soucieuse de ses intérêts économiques, l’Allemagne en quelque sorte botte en touche concernant l’éventuel taxation des GAFA. Sous l’impulsion de la France, l’union européenne veut en effet imposer une fiscalité forfaitaire sur les chiffres d’affaires des grandes plates-formes numériques qui pour l’instant profite par excès de l’optimisation fiscale pour payer le moins d’impôts possibles ou n’ont pas payé du tout. En proposant une taxation mondiale l’Allemagne renvoie aux calendes grecques cette fiscalité sur les plates-formes. En cause, le faite que l’Allemagne craint les sanctions que pourraient prendre les États-Unis à l’égard des importations allemandes déjà menacées par TRUMP. La proposition de la Commission de taxer les Gafa, inspirée et soutenue par la France, est aussi  combattue par l’Irlande où siègent certains groupes visés, ou des pays nordiques comme la Finlande et la Suède qui redoutent les effets sur les secteurs de l’innovation ainsi que d’éventuelles représailles commerciales américaines.  L’Allemagne, initialement du côté de la France, a fait montre d’états d’âme début septembre. Or, les réformes touchant à la fiscalité dans l’Union européenne doivent être approuvées à l’unanimité des États membres. Bruno Le Maire s’est dit «favorable à la proposition de Berlin», d’instaurer «un système mondial plus harmonieux» sur le plan fiscal. «Mais ne rêvons pas, ce n’est pas demain la veille» a-t-il ajouté, sur le plateau de l’émission Dimanche en politique sur France 3. En attendant, le ministre de l’Économie a rappelé qu’il allait se rendre mardi au Parlement européen, à Strasbourg «pour appeler tous les États européens à s’engager sans délai pour conclure sur cette taxation des géants du numérique». Reprenant des idées hexagonales, la Commission européenne a proposé en mars d’instaurer une taxe de 3% sur le chiffre d’affaires généré par les services numériques des entreprises (dont le chiffre d’affaires annuel mondial dépasse 750 millions d’euros et dont les revenus dans l’Union européenne excèdent 50 millions d’euros). Au total, environ 200 groupes pourraient être concernés par une telle taxation, dont le rendement s’élèverait à près de cinq milliards d’euros à l’échelle européenne.Bruno Le Maire s’est fixé l’objectif d’une adoption du texte au plus tard début 2019 «Comment peut-on accepter que des millions de consommateurs européens donnent gratuitement leurs données sans qu’il y ait au passage une taxe?», a-t-il demandé devant deux commissions parlementaires. «Soit l’UE est libre, soit elle est vassale. Moi je crois en une Europe libre, souveraine», a-t-il ajouté pour convaincre son assemblée.

Décentraliser Internet (Tim Berners-Lee)

Décentraliser Internet (Tim Berners-Lee)

 

C’est  Tim Berners-Lee, le père fondateur du World Wide Web, Internet qui le dit, internet  fait fausse route en l’état actuel. L’informaticien britannique, a appelé jeudi 18 octobre à une décentralisation d’Internet lors d’une keynote donnée à Las Vegas. 

« Aujourd’hui, beaucoup de gens me posent souvent la même question : « la chose que tu as créée il a des années de ça, est-ce que tu penses toujours que c’est une bonne idée ? » Et bien, c’est très difficile d’y répondreQuand j’ai commencé à créer le WWW, l’esprit était très différent d’aujourd’hui : c’était utopique. (…) Quand le premier blog est arrivé, et que les gens ont réalisé qu’ils pouvaient juste allumer un ordinateur, se connecter à Internet, utiliser des logiciels… Alors tout le monde était très excité…. « Aujourd’hui, les gens sont sur Facebook. Ce qui font et ce qu’ils voient sur Internet est déterminé par l’algorithme de Facebook, qui en profite pour en extraire des données extrêmement précieuses pour savoir qui ils sont et ce qu’ils aiment. (Le réseau social) les utilise ensuite pour proposer de la publicité ciblée, et même, leur dire pour quel candidat ils devraient voter aux prochaines élections », a-t-il taclé. A propos du scandale Analytica «La réaction des gens a été de s’inquiéter pour l’abus réalisé sur leurs propres données, ce n’était pas de s’inquiéter qu’une (élection présidentielle) a pu être manipulée avec de la data ». Le fondateur d’Internet,  travaille sur un  projet en open source, baptisé « Solid« . Pour « redonner le pouvoir » aux internautes sur leurs données. « Peut-être que les premiers utilisateurs monteront à bord du projet pour protéger davantage leurs données », a estimé ce jeudi matin Tim Berners-Lee.  »Petit à petit, les gens disposeront sur Internet d’un espace autonome permettant de restaurer la confiance avec les applications qu’ils utilisent », sans craindre un usage détourné de leurs données.

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.

Peer Tube pour contrer les GAFA

Peer Tube pour contrer les  GAFA

Peer Tube pour contrer You Tube de Google Pierre, c’est le projet de Yves Gosset, directeur de Framasoft, association française qui milite pour le développement de logiciels libres (interview la Tribune)

Pourquoi vouloir créer un « You Tube décentralisé » ?

PIERRE-YVES GOSSET - Framasoft veut sensibiliser à la concentration des services sur Internet. En 2014, nous avons lancé la campagne « Dégooglisons Internet » pour démontrer que le logiciel libre est une alternative crédible à l’hyperpuissance des GAFA (Google, Apple, Facebook, Amazon). Framasoft propose depuis une dizaine de services alternatifs par an : outils de stockage, de cartographie, d’éditing, de jeux… Mais nous n’avions toujours pas d’alternative vidéo.

YouTube est un acteur incontournable, en situation de quasi-monopole (ndlr : la plateforme de Google revendique 1,8 milliard d’utilisateurs par mois et 400 heures de vidéo mises enligne chaque minute sur YouTube dans le monde). Cette concentration pose de nombreux problèmes. Par exemple, son algorithme cherche à retenir le plus longtemps possible les internautes sur sa plateforme, en lui faisant visionner des vidéos qui font le buzz. Plus l’internaute est captif, plus il visionnera de publicités et donc, générera des revenus pour Google. Autre problème : la censure que peut instaurer Google en décidant ce qui est acceptable de diffuser ou pas. C’est donc son point de vue, en tant qu’entreprise américaine, qui s’impose au reste du monde. Dans cette logique-là, YouTube peut décider de la démonétisation de certaines vidéos, en les privant de pub. Cela entraîne une perte de revenus pour les créateurs de contenus. En France, cela a récemment été le cas pour des YouTubeuses qui évoquaient leurs règles ou le corps féminin dans des vidéos ne contenant pourtant aucune image choquante.

En l’absence de modération unique, PeerTube ne risque-t-il pas de voir proliférer les contenus pornographiques ou extrémistes, véritable fléau actuel pour les plateformes ? Comment la modération est-elle régie sur PeerTube ?

Chaque administrateur s’occupe de la modération au sein de son instance. En cas de poursuites judiciaires, la responsabilité est attribuée dans un premier temps à l’internaute qui a publié la vidéo, puis à l’hébergeur. Avec les logiciels libres, nous voulons redonner le pouvoir aux gens. Cela passe donc par un partage de responsabilité, qui permet de faire réfléchir davantage aux contenus publiés sur la Toile. Forcément, nous sommes conscients que certains utilisateurs pourront mal utiliser PeerTube… Pour autant, faut-il priver tous les autres internautes d’un espace d’expression ? Non. Nous ne sommes pas des anarchistes : nous ne souhaitons pas que Peer Tube devienne une jungle, où n’importe qui fait n’importe quoi. Mais nous voulons avant tout donner la possibilité aux gens de pouvoir s’exprimer librement sur Internet.

Pour attirer les utilisateurs, Peer Tube a besoin de contenu. Depuis mars, vous revendiquez déjà 32.000 vidéos en ligne et près d’un million de vues. En l’absence de monétisation, comment comptez-vous attirer les créateurs de contenus ?

Framasoft s’est toujours positionné comme étant antipub. C’est pourquoi il n’y a pas de monétisation par la pub prévue pour l’instant. En revanche, il est déjà possible de soutenir les créateurs grâce à des dons. Dès 2019, un plug-in sera disponible et permettra à chaque instance d’instaurer de la publicité, ou non, sur ses vidéos. Le choix sera laissé aux administrateurs. Évidemment, les YouTubeurs-stars comme Cyprien et Norman n’auront aucun intérêt à venir sur Peer Tube. Nous nous intéressons aux vidéastes déçus de YouTube, cherchant à maîtriser davantage leur outil de diffusion et leurs données.

Framasoft fédère naturellement un public technophile. Les compétences techniques requises pour créer une instance, ou proposer de nouvelles fonctionnalités, sont-elles un frein au recrutement de nouveaux utilisateurs ?

L’objectif de Peer Tube n’est pas de faire des millions de vues, mais de permettre de s’émanciper de YouTube. Côté utilisateur, mettre en ligne une vidéo sur Peer Tube est aussi simple et rapide que sur YouTube. Côté administrateur, il est vrai qu’il faut certaines connaissances techniques. La marche à l’entrée reste compliquée, mais pas insurmontable. Il est toujours possible de se regrouper pour demander un coup de main à un connaisseur, voire même, payer un développeur pour le faire à sa place.

Google: nouvelle affaire Analytica ?

Google: nouvelle affaire Analytica ?

Les données de 500 000 utilisateurs détournées chez Google. Le problème a été découvert et corrigé en mars dans le cadre d’un audit interne des procédures de partage des données avec d’autres applications, a expliqué le groupe américain sur un blog. Aucun développeur extérieur n’a exploité cette faille, ni fait un usage inapproprié des données concernées, selon les conclusions de l’audit.

L’action d’Alphabet, le groupe propriétaire de Google, a terminé en baisse de 1,02% sur le Nasdaq à 1.155,92 dollars après cette annonce.

Quelques minutes avant, le Wall Street Journal avait rapporté que Google avait choisi dans un premier temps de ne pas rendre publique la découverte de la faille de sécurité en raisons des craintes d’une enquête des autorités de tutelle du groupe.

Le quotidien cite dans son article des sources non identifiées et une note interne à Google rédigée par les services juridiques à l’attention des hauts dirigeants du groupe.

D’après le journal, cette note mettait en garde sur le fait que la divulgation de ce problème susciterait probablement “un intérêt immédiat des autorités réglementaires” et entraînerait des comparaisons avec le détournement de données personnelles d’utilisateurs de Facebook par le cabinet de conseil politique Cambridge Analytica.

Toujours selon le WSJ, un comité interne a pris la décision de ne pas informer les utilisateurs, et il a informé de son choix le directeur général de Google, Sundar Pichai.

 

Le mythe de la voiture autonome ?

Le mythe  de la voiture autonome ?

 

Elan Musk, le très médiatique patron de Tesla avait en quelque sorte inventé la mode : la généralisation de la voiture autonome et même du voyage dans la lune. Un exhibitionnisme médiatique surtout destiné à récolter des fonds mêmes si on ne peut contester certains succès techniques. Par contre la gestion financière a fait tomber Elan Musk  rétrogradé au rang de directeur mais toujours aussi contesté. Mais le mythe a été repris par nombre de constructeurs en mal d’images après les tricheries constatées concernant les émissions polluantes. Chacun promet la voiture autonome pour demain alors que vraisemblablement il ne faudra pas compter sur sa généralisation avant 30 ou 40 ans : c’est-à-dire le temps aussi équipé l’infrastructure afin que l’automobile circule dans les meilleurs conditions de sécurité, c’est-à-dire en quasi site propre. Pourtant pas de quoi refroidir les ardeurs des autres constructeurs en mal d’innovations réelles comme la voiture électrique à prix abordable. Cette prédiction de la voiture autonome pour demain ressemble un peu à celle du règne de l’intelligence artificielle qui va supprimer toute intervention humaine dans les processus de production et de distribution. Bien sûr on ne saurait refuser les progrès que permet la technologie mais il faut mesurer leurs conséquences une fois insérée dans des systèmes complexes. Il y a longtemps que des transports fonctionnent de manière presque autonome comme les métros, les tramways ou encore les trains entre parenthèses pour le TGV par exemple le conducteur n’a pas été supprimé pour des raisons techniques mais pour des questions psychologiques vis-à-vis des voyageurs.

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

La maison connectée : c’est pas pour demain !

 

 

  •  

 

C’est le résultat d’une étude qui démontre que les Français demeurent relativement prudents par rapport aux perspectives de connexion de leur logement. Les lobbys en domotique ne cessent de vanter la grande révolution numérique y compris pour tous les services et activités de la maison. Seront connectée d’après eux, la gestion de l’électricité, la sécurité, le chauffage, l’eau est bien sûr la machine à café et plus généralement la préparation des repas, bien d’autres aspects encore avec les enceintes. Le problème c’est que tout cela n’est pas gratuit. Les Français dépensent déjà des sommes non négligeables en outils et services informatiques. Ces services dont certains d’ailleurs peuvent être discutables ont un coût et forcément un prix et dans un contexte économique où le pouvoir d’achat se resserre l’équipement en domotique n’est pas forcément prioritaire. Il est surtout réservé aux ménages aisés.  reste aussi la question de l’intrusion de services informatiques dans la vie privée. Car qu’on le veuille ou non ces données seront récupérées à, analysées et exploitées à des fins commerciales de sorte que rien n’échappera concernant la vie familiale et intime. Selon le dernier baromètre Qualitel-Ipsos, le logement connecté reste un phénomène très minoritaire en France. Seuls 3 logements sur 10 possèdent au moins un équipement connecté et même le service le plus «populaire», l’alerte anti-intrusion, ne concerne que 21% des lieux de vie. Certes, le phénomène s’accentue avec le temps: 54% des logements de moins de 5 ans disposent d’au moins un service connecté, mais les Français ne semblent pas vraiment avoir le feu sacré sur ce sujet. . Les trois quarts des sondés considèrent ainsi que «des prix trop élevés les dissuaderaient d’équiper leur logement en objets connectés». Une perception confirmée par le fait que ces produits sont effectivement l’apanage des foyers les plus aisés: 16% des foyers disposant de moins de 3000€/mois disposent d’au moins deux équipements connectés contre 35% de ceux pouvant compter sur plus de 5000€/mois.

 

Incident Facebook: une faille ou du business ?

Incident Facebook: une faille ou du business ?

 

- Le secrétaire d’Etat français au Numérique ouvre la boîte de pandore à propos des facteurs explicatifs concernant le pillage de données 50 millions d’abonnés. On sait que Facebook constitue une plate-forme d’échanges d’infos entre amis qui livrent des données personnelles particulièrement intéressantes pour la publicité ciblée. On ne peut en effet adresser de publicité tout le temps et sur tout aux 2 milliards d’abonnés de Facebook. Le coût serait insupportable pour les annonceurs. Du coup il faut extraire de cet immense fichier des échantillons homogènes par pays, par produit, par comportement par catégorie socio professionnelle etc. Ces fichiers coûtent une fortune et c’est le cœur du business de Facebook. Du coup le secrétaire d’État français au numérique n’exclut pas la possibilité que le pillage des données vienne même de l’intérieur de Facebook comme cela a déjà été le cas.  “J’ai regardé dans le détail (…) comment Facebook expliquait cette faille. C’est une faille extrêmement complexe. C’est-à-dire qu’il ne s’agit pas d’une faille simple ou d’un hack qui utilise des failles déjà très connues”, a déclaré Mounir Mahjoubi à Radio J. “C’est une vraie construction; quelqu’un y a passé beaucoup de temps”, a-t-il ajouté. “Ça veut dire soit un génie, soit une organisation très structurée, soit (…) quelqu’un de l’intérieur.”Il n’a pas exclu non plus qu’un “grand pays” puisse être derrière cet incident qualifié par le PDG de Facebook, Mark Zuckerberg, de “très sérieux problème de sécurité». Selon Mounir Mahjoubi, Facebook France n’a pas été en mesure à ce stade de dire si des internautes français ont été affectés et dans quelle mesure. “J’ai fait partie des 90 millions de comptes qui ont été déconnectés d’urgence dans la journée d’avant-hier”, a cependant ajouté le secrétaire d’Etat. “Je pense donc avoir la preuve que des comptes français sont concernés.”

Facebook siphonne les infos pour la pub ciblée

Facebook siphonne les infos pour la pub ciblée

On le savait depuis longtemps, Facebook est un réseau au demeurant assez indigent (sauf exception) qui n’a d’autre but que de faire étalage de données privées de 2 milliards de personnes.  Des données récupérées pour Facebook pour faire de la pub ; le plus souvent pour vendre à prix d’or les fichiers de consommateurs ainsi constitués. Des informations qui valent des dizaines millions pour les annonceurs.  En outre pour la première fois, Facebook a admis jeudi utiliser le numéro de téléphone fourni par ses utilisateurs afin de sécuriser leur compte – et pour lequel ils ne consentent pas à une utilisation publicitaire. Le fleuron de Silicon Valley a ainsi confirmé les résultats d’une étude réalisée par des chercheurs des universités américaines de Northeastern et de Princeton, et révélée par le site spécialisé Guizmodo. Autrement dit : les utilisateurs qui souhaitent avoir un compte plus sécurisé doivent, paradoxalement, consentir à un compromis en matière de confidentialité pour que les annonceurs les identifient plus facilement. En effet, Facebook permet aux utilisateurs qui le souhaitent de fournir un numéro de téléphone. En cas d’activité suspecte repérée, comme un piratage de compte par exemple, le réseau social peut ainsi alerter rapidement l’utilisateur par SMS. Le hic : Facebook n’indique pas explicitement à l’utilisateur que son numéro peut être récupéré par des annonceurs, selon sa politique de gestion des données. Tout cela, à l’insu des intéressés. Il leur est donc impossible de faire supprimer les données personnelles pillées ou d’empêcher les annonceurs de les utiliser. Ce profil, réalisé à partir d’un faisceau d’informations récoltées par des moyens indirects, est surnommé le shadow profile (profil fantôme).

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Presse : vers la fin du papier ?

Presse : vers la fin du papier ?

On pourrait bien s’orienter assez rapidement vers la fin de la presse sur papier voire même de certains médias classiques notamment régionaux. Les médias classiques qui résistent le mieux aussi bien sur papier que par voie numérique sont les médias qui apportent une certaine valeur ajoutée comme le Figaro, le Monde, l’équipe ou encore le Parisien. Certes on ne peut sans doute pas comparer le lecteur Figaro,  du Monde à celui du Parisien ou de 20 minutes car la demande d’information est très différente ; relativement approfondie dans un cas et assez superficielle dans l’autre. Près de 60% des Français lisent des articles issus de quotidiens ou de magazines sur leur smartphone. Ils n’étaient que 47% en septembre 2017. Les grandes marques de la presse quotidienne nationale dominent le palmarès mais il faut prendre en compte une consultation de plus en plus importante de sites de second rang mais dont la ligne éditoriale et plus indépendante et plus élaborée. La presse quotidienne nationale domine le classement des marques de presse les plus lues. Les magazines sont en embuscade, mais ils ont subi une érosion de leur lectorat entre avril et juin: -3,7% pour Femme Actuelle (6e avec 18,8 millions de lecteurs), -4% pour Télé Loisirs (même audience, 7e), -6,8% pour Marmiton (14 millions, 9e), -4% pour Voici (13,8 millions, 11e). Du côté des newsmagazines, Le Point a perdu 1,4 million de lecteurs en trois mois pour un total de 9,9 millions. Libération en a aussi perdu 1,2 million, à 8,6 millions de lecteurs. Décrochage également pour Courrier International, avec 1,6 million de lecteurs en moins, à 4,7 millions. A contrario, Public a gagné un million de lecteurs en un trimestre (9,1 millions). C’est la plus grosse progression du panel aux côtés de Sud-Ouest, qui a trouvé 920.000 lecteurs de plus (7,5 millions).

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

.

Comme la mode est à la survalorisation  de l’intelligence artificielle, tout est bon pour démontrer que la plupart des emplois seront demain automatisés. Ce que rapporte aujourd’hui le Figaro en se fondant sur une étude du le Forum économique mondial qui  prévoit qu’en 2025 les machines accompliront plus de tâches que les humains, contre 29 % actuellement. À noter d’abord le degré de précision de 29 % de tâches qui seraient accomplies par les machines, une précision qui fait douter de la pertinence scientifique de l’étude. Certes l’intelligence artificielle via  notamment la numérisation et la robotisation va continuer de remplacer des tâches précédemment effectuées de manière manuelle. Mais le processus n’est pas nouveau, il y a longtemps que la machine a remplacé l’homme pour  certaines tâches. Un seul exemple, dans les années 50 il fallait plusieurs personnes pour exploiter une surface agricole d’une dizaine d’hectares. Aujourd’hui une seule personne suffit pour 200 ha (tout dépend évidemment de la nature des productions certaine à haute valeur ajoutée nécessitant davantage de main-d’œuvre que d’autres). On constate le même processus dans nombreuse filières y compris dans l’artisanat ou le commerce. Le couvreur ou le boucher ne travaille plus de la même manière. Pour assurer sans doute le citoyen l’étude du forum économique mondial considère cependant que le bilan global des emplois sera positif avec environ 60 millions d’emplois supplémentaires. Un chiffre encore tout à fait approximatif voir fantaisiste car il s’agit de prendre en compte évidemment les conditions d’évolution des processus de production mais aussi la transformation de la nature de ces productions. Or d’ici une quinzaine d’années on produira des biens dont on ne connaît pas aujourd’hui la nature pour la moitié. Si l’étude ne cache pas que la prudence doit être de rigueur dans ce tournant majeur lié à la quatrième révolution industrielle, les chiffres d’impact qu’elle avance sont plus optimistes que dans une précédente étude de 2016. Le problème c’est que personne ne peut réellement avancer des arguments pertinents pour être optimiste ou pessimiste.

 

 

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

1...5455565758...65



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol