Archive pour la Catégorie 'nouvelles technologies'

Page 3 sur 9

Google: nouvelle affaire Analytica ?

Google: nouvelle affaire Analytica ?

Les données de 500 000 utilisateurs détournées chez Google. Le problème a été découvert et corrigé en mars dans le cadre d’un audit interne des procédures de partage des données avec d’autres applications, a expliqué le groupe américain sur un blog. Aucun développeur extérieur n’a exploité cette faille, ni fait un usage inapproprié des données concernées, selon les conclusions de l’audit.

L’action d’Alphabet, le groupe propriétaire de Google, a terminé en baisse de 1,02% sur le Nasdaq à 1.155,92 dollars après cette annonce.

Quelques minutes avant, le Wall Street Journal avait rapporté que Google avait choisi dans un premier temps de ne pas rendre publique la découverte de la faille de sécurité en raisons des craintes d’une enquête des autorités de tutelle du groupe.

Le quotidien cite dans son article des sources non identifiées et une note interne à Google rédigée par les services juridiques à l’attention des hauts dirigeants du groupe.

D’après le journal, cette note mettait en garde sur le fait que la divulgation de ce problème susciterait probablement “un intérêt immédiat des autorités réglementaires” et entraînerait des comparaisons avec le détournement de données personnelles d’utilisateurs de Facebook par le cabinet de conseil politique Cambridge Analytica.

Toujours selon le WSJ, un comité interne a pris la décision de ne pas informer les utilisateurs, et il a informé de son choix le directeur général de Google, Sundar Pichai.

 

Le mythe de la voiture autonome ?

Le mythe  de la voiture autonome ?

 

Elan Musk, le très médiatique patron de Tesla avait en quelque sorte inventé la mode : la généralisation de la voiture autonome et même du voyage dans la lune. Un exhibitionnisme médiatique surtout destiné à récolter des fonds mêmes si on ne peut contester certains succès techniques. Par contre la gestion financière a fait tomber Elan Musk  rétrogradé au rang de directeur mais toujours aussi contesté. Mais le mythe a été repris par nombre de constructeurs en mal d’images après les tricheries constatées concernant les émissions polluantes. Chacun promet la voiture autonome pour demain alors que vraisemblablement il ne faudra pas compter sur sa généralisation avant 30 ou 40 ans : c’est-à-dire le temps aussi équipé l’infrastructure afin que l’automobile circule dans les meilleurs conditions de sécurité, c’est-à-dire en quasi site propre. Pourtant pas de quoi refroidir les ardeurs des autres constructeurs en mal d’innovations réelles comme la voiture électrique à prix abordable. Cette prédiction de la voiture autonome pour demain ressemble un peu à celle du règne de l’intelligence artificielle qui va supprimer toute intervention humaine dans les processus de production et de distribution. Bien sûr on ne saurait refuser les progrès que permet la technologie mais il faut mesurer leurs conséquences une fois insérée dans des systèmes complexes. Il y a longtemps que des transports fonctionnent de manière presque autonome comme les métros, les tramways ou encore les trains entre parenthèses pour le TGV par exemple le conducteur n’a pas été supprimé pour des raisons techniques mais pour des questions psychologiques vis-à-vis des voyageurs.

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

La maison connectée : c’est pas pour demain !

 

 

  •  

 

C’est le résultat d’une étude qui démontre que les Français demeurent relativement prudents par rapport aux perspectives de connexion de leur logement. Les lobbys en domotique ne cessent de vanter la grande révolution numérique y compris pour tous les services et activités de la maison. Seront connectée d’après eux, la gestion de l’électricité, la sécurité, le chauffage, l’eau est bien sûr la machine à café et plus généralement la préparation des repas, bien d’autres aspects encore avec les enceintes. Le problème c’est que tout cela n’est pas gratuit. Les Français dépensent déjà des sommes non négligeables en outils et services informatiques. Ces services dont certains d’ailleurs peuvent être discutables ont un coût et forcément un prix et dans un contexte économique où le pouvoir d’achat se resserre l’équipement en domotique n’est pas forcément prioritaire. Il est surtout réservé aux ménages aisés.  reste aussi la question de l’intrusion de services informatiques dans la vie privée. Car qu’on le veuille ou non ces données seront récupérées à, analysées et exploitées à des fins commerciales de sorte que rien n’échappera concernant la vie familiale et intime. Selon le dernier baromètre Qualitel-Ipsos, le logement connecté reste un phénomène très minoritaire en France. Seuls 3 logements sur 10 possèdent au moins un équipement connecté et même le service le plus «populaire», l’alerte anti-intrusion, ne concerne que 21% des lieux de vie. Certes, le phénomène s’accentue avec le temps: 54% des logements de moins de 5 ans disposent d’au moins un service connecté, mais les Français ne semblent pas vraiment avoir le feu sacré sur ce sujet. . Les trois quarts des sondés considèrent ainsi que «des prix trop élevés les dissuaderaient d’équiper leur logement en objets connectés». Une perception confirmée par le fait que ces produits sont effectivement l’apanage des foyers les plus aisés: 16% des foyers disposant de moins de 3000€/mois disposent d’au moins deux équipements connectés contre 35% de ceux pouvant compter sur plus de 5000€/mois.

 

Incident Facebook: une faille ou du business ?

Incident Facebook: une faille ou du business ?

 

- Le secrétaire d’Etat français au Numérique ouvre la boîte de pandore à propos des facteurs explicatifs concernant le pillage de données 50 millions d’abonnés. On sait que Facebook constitue une plate-forme d’échanges d’infos entre amis qui livrent des données personnelles particulièrement intéressantes pour la publicité ciblée. On ne peut en effet adresser de publicité tout le temps et sur tout aux 2 milliards d’abonnés de Facebook. Le coût serait insupportable pour les annonceurs. Du coup il faut extraire de cet immense fichier des échantillons homogènes par pays, par produit, par comportement par catégorie socio professionnelle etc. Ces fichiers coûtent une fortune et c’est le cœur du business de Facebook. Du coup le secrétaire d’État français au numérique n’exclut pas la possibilité que le pillage des données vienne même de l’intérieur de Facebook comme cela a déjà été le cas.  “J’ai regardé dans le détail (…) comment Facebook expliquait cette faille. C’est une faille extrêmement complexe. C’est-à-dire qu’il ne s’agit pas d’une faille simple ou d’un hack qui utilise des failles déjà très connues”, a déclaré Mounir Mahjoubi à Radio J. “C’est une vraie construction; quelqu’un y a passé beaucoup de temps”, a-t-il ajouté. “Ça veut dire soit un génie, soit une organisation très structurée, soit (…) quelqu’un de l’intérieur.”Il n’a pas exclu non plus qu’un “grand pays” puisse être derrière cet incident qualifié par le PDG de Facebook, Mark Zuckerberg, de “très sérieux problème de sécurité». Selon Mounir Mahjoubi, Facebook France n’a pas été en mesure à ce stade de dire si des internautes français ont été affectés et dans quelle mesure. “J’ai fait partie des 90 millions de comptes qui ont été déconnectés d’urgence dans la journée d’avant-hier”, a cependant ajouté le secrétaire d’Etat. “Je pense donc avoir la preuve que des comptes français sont concernés.”

Facebook siphonne les infos pour la pub ciblée

Facebook siphonne les infos pour la pub ciblée

On le savait depuis longtemps, Facebook est un réseau au demeurant assez indigent (sauf exception) qui n’a d’autre but que de faire étalage de données privées de 2 milliards de personnes.  Des données récupérées pour Facebook pour faire de la pub ; le plus souvent pour vendre à prix d’or les fichiers de consommateurs ainsi constitués. Des informations qui valent des dizaines millions pour les annonceurs.  En outre pour la première fois, Facebook a admis jeudi utiliser le numéro de téléphone fourni par ses utilisateurs afin de sécuriser leur compte – et pour lequel ils ne consentent pas à une utilisation publicitaire. Le fleuron de Silicon Valley a ainsi confirmé les résultats d’une étude réalisée par des chercheurs des universités américaines de Northeastern et de Princeton, et révélée par le site spécialisé Guizmodo. Autrement dit : les utilisateurs qui souhaitent avoir un compte plus sécurisé doivent, paradoxalement, consentir à un compromis en matière de confidentialité pour que les annonceurs les identifient plus facilement. En effet, Facebook permet aux utilisateurs qui le souhaitent de fournir un numéro de téléphone. En cas d’activité suspecte repérée, comme un piratage de compte par exemple, le réseau social peut ainsi alerter rapidement l’utilisateur par SMS. Le hic : Facebook n’indique pas explicitement à l’utilisateur que son numéro peut être récupéré par des annonceurs, selon sa politique de gestion des données. Tout cela, à l’insu des intéressés. Il leur est donc impossible de faire supprimer les données personnelles pillées ou d’empêcher les annonceurs de les utiliser. Ce profil, réalisé à partir d’un faisceau d’informations récoltées par des moyens indirects, est surnommé le shadow profile (profil fantôme).

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Presse : vers la fin du papier ?

Presse : vers la fin du papier ?

On pourrait bien s’orienter assez rapidement vers la fin de la presse sur papier voire même de certains médias classiques notamment régionaux. Les médias classiques qui résistent le mieux aussi bien sur papier que par voie numérique sont les médias qui apportent une certaine valeur ajoutée comme le Figaro, le Monde, l’équipe ou encore le Parisien. Certes on ne peut sans doute pas comparer le lecteur Figaro,  du Monde à celui du Parisien ou de 20 minutes car la demande d’information est très différente ; relativement approfondie dans un cas et assez superficielle dans l’autre. Près de 60% des Français lisent des articles issus de quotidiens ou de magazines sur leur smartphone. Ils n’étaient que 47% en septembre 2017. Les grandes marques de la presse quotidienne nationale dominent le palmarès mais il faut prendre en compte une consultation de plus en plus importante de sites de second rang mais dont la ligne éditoriale et plus indépendante et plus élaborée. La presse quotidienne nationale domine le classement des marques de presse les plus lues. Les magazines sont en embuscade, mais ils ont subi une érosion de leur lectorat entre avril et juin: -3,7% pour Femme Actuelle (6e avec 18,8 millions de lecteurs), -4% pour Télé Loisirs (même audience, 7e), -6,8% pour Marmiton (14 millions, 9e), -4% pour Voici (13,8 millions, 11e). Du côté des newsmagazines, Le Point a perdu 1,4 million de lecteurs en trois mois pour un total de 9,9 millions. Libération en a aussi perdu 1,2 million, à 8,6 millions de lecteurs. Décrochage également pour Courrier International, avec 1,6 million de lecteurs en moins, à 4,7 millions. A contrario, Public a gagné un million de lecteurs en un trimestre (9,1 millions). C’est la plus grosse progression du panel aux côtés de Sud-Ouest, qui a trouvé 920.000 lecteurs de plus (7,5 millions).

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

.

Comme la mode est à la survalorisation  de l’intelligence artificielle, tout est bon pour démontrer que la plupart des emplois seront demain automatisés. Ce que rapporte aujourd’hui le Figaro en se fondant sur une étude du le Forum économique mondial qui  prévoit qu’en 2025 les machines accompliront plus de tâches que les humains, contre 29 % actuellement. À noter d’abord le degré de précision de 29 % de tâches qui seraient accomplies par les machines, une précision qui fait douter de la pertinence scientifique de l’étude. Certes l’intelligence artificielle via  notamment la numérisation et la robotisation va continuer de remplacer des tâches précédemment effectuées de manière manuelle. Mais le processus n’est pas nouveau, il y a longtemps que la machine a remplacé l’homme pour  certaines tâches. Un seul exemple, dans les années 50 il fallait plusieurs personnes pour exploiter une surface agricole d’une dizaine d’hectares. Aujourd’hui une seule personne suffit pour 200 ha (tout dépend évidemment de la nature des productions certaine à haute valeur ajoutée nécessitant davantage de main-d’œuvre que d’autres). On constate le même processus dans nombreuse filières y compris dans l’artisanat ou le commerce. Le couvreur ou le boucher ne travaille plus de la même manière. Pour assurer sans doute le citoyen l’étude du forum économique mondial considère cependant que le bilan global des emplois sera positif avec environ 60 millions d’emplois supplémentaires. Un chiffre encore tout à fait approximatif voir fantaisiste car il s’agit de prendre en compte évidemment les conditions d’évolution des processus de production mais aussi la transformation de la nature de ces productions. Or d’ici une quinzaine d’années on produira des biens dont on ne connaît pas aujourd’hui la nature pour la moitié. Si l’étude ne cache pas que la prudence doit être de rigueur dans ce tournant majeur lié à la quatrième révolution industrielle, les chiffres d’impact qu’elle avance sont plus optimistes que dans une précédente étude de 2016. Le problème c’est que personne ne peut réellement avancer des arguments pertinents pour être optimiste ou pessimiste.

 

 

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Téléphone : la fin des lignes fixes ? (Orange)

Téléphone : la fin  des lignes fixes ? (Orange)

 

 

C’est la fin annoncée des lignes fixes de téléphone traditionnelles  encore utilisées par environ 10 millions de personnes. Désormais on passera progressivement par  l’utilisation obligatoire d’une box avec évidemment abonnement Internet. En clair il s’agit d’une manière habile d’augmenter les prix des communications. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet, le 15 novembre prochain, Orange va cesser de commercialiser des lignes fixes, selon Le Parisien. Les fameuses prises en «T» qui ornent les murs de tous les foyers français ne serviront plus à rien. Toutefois les lignes des 9,4 millions de foyers qui utilisent encore un téléphone fixe ne seront pas brusquement coupées cet automne. La transition des réseaux d’hier à ceux d’aujourd’hui se fera progressivement et s’étalera sur plusieurs années. Mi-novembre, seuls les nouveaux clients d’Orange ou ceux qui déménagent ne pourront plus être reliés par le réseau téléphonique commuté (RTC), les lignes téléphoniques traditionnelles. Ils pourront s’abonnement. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet continuer à téléphoner via une ligne fixe, mais il faudra alors s’équiper d’une box. Ils devront donc obligatoirement souscrire à un abonnement internet. Ensuite, entre 2023 et 2028, le réseau sera coupé progressivement, groupes de communes après groupes de communes.

L’État assure que le service universel du téléphone va perdurer. «L’État est le garant de ce service afin que chaque Français ait accès à un service téléphonique de qualité à un prix raisonnable», confie Delphine Gény-Stephann, secrétaire d’État auprès du ministre de l’Économie, au Parisien. Depuis février, l’opérateur historique a d’ailleurs mené une expérimentation en Bretagne où les clients de quatorze communes devaient déjà se passer du réseau traditionnel. Un test passé avec succès, selon Orange. L’opération risque toutefois d’être un peu plus complexe pour les professionnels. De fait, une grande partie des terminaux de paiement par cartes fonctionnent encore via le vieux réseau téléphonique. Toute l’infrastructure est à remettre à plat. Il en va de même pour les systèmes de surveillance des ascenseurs, les réseaux de télésurveillance, les fax… La liste de secteurs concernés est longue.

 

Gafa, l’Inde veut contrôler les données

Gafa, l’Inde veut contrôler les données

 

Un projet de loi indien vise à réguler très sévèrement le stockage des données des CAF à et autres plates-formes ; il propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens – issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce – sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d’enquête. L’Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d’accès, a favorisé l’émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local. Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d’interdire l’accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l’égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif – très répandu dans le pays – en filtrant les messages et les appels indésirables. De son côté, le fabricant d’iPhone suspecte l’appli de siphonner massivement les données personnelles des utilisateurs… Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l’accès au réseau, rendant ses téléphones inutilisables.

 

Oui à un « Airbus de l’IA »

Oui à un « Airbus de l’IA »

La proposition allemande de créer un AIRBUS de l’IA constitue une avancée certaine dans un paysage européen bien morne. Enfin la coopération prend des formes concrètes et constitue par ailleurs en soi une réponse au repli général tant sur le plan politique qu’économique. N’oublions pas qu’Airbus commencé par uen coopération sous forme de consortium pour se transformer en société avant de faire plus que jeu égal avec Boeing. Cet grâce à Airbus que la balance commerciale de la France ne s’écroule pas totalement.  Air Bus qui emploie 60 000 salariés et fait travailler ‘  3 fois plus de sous traitants dans le monde entier est devenu un géant industriel au plan mondial. Dans une interview publiée mercredi par le Figaro, le ministre allemand de l’Economie, Peter Altmaier, propose de créer “en étroite collaboration avec les acteurs existants, notamment les producteurs automobiles, un nouvel acteur sur le plan de l’intelligence artificielle, comme on l’a fait avec Airbus.” “Cet acteur unique et fort pourrait se lancer dans le développement de solutions concrètes et compétitives en matière d’intelligence artificielle”, a-t-il ajouté. A l’issue d’une rencontre avec Peter Altmaier, le ministre français de l’Economie et des Finances, Bruno Le Maire, a souligné de son côté que le futur fonds pour l’innovation doté de dix milliards d’euros devait être un préalable à un fonds européen et que cela se ferait sans doute d’abord avec l’Allemagne.

La blockchain testée aux JO

La blockchain testée aux JO

 

 Curieux cette idée de tester la blockchain aux JO de 2024. C’est en tout cas la proposition de l’ancien sous-gouverneur de la Banque de France Jean-Pierre Landau dans un rapport sur le sujet. Pour l’instant le rapport des autorités publiques aux nouvelles technologies de gestion sans intermédiaires bancaires  des transactions est encore assez ambigüe voire contradictoire. La première raison peut –être est que la compréhension d’un système très complexe dans son fonctionnement. La seconde c’est qu’on ne sait pas s’il s’agit d’un phénomène majeur ou au contraire marginal. En clair si cela est susceptible de bouleverser tout l’environnement monétaire ou simplement d’un dispositif comptable accessoire. Du coup,  le rapport propose de se préoccuper de la blockchain mais pas trop sauf peut être au niveau international. Avec uen expérimentation au JO de 2024 pour la billetterie. “Les ‘tokens’ (jetons, NDLR) donnant accès à cette cérémonie seraient émis sur une blockchain au bénéfice des personnes ayant contribué à la préparation et à l’organisation d’événements populaires autour des jeux”, explique l’ancien sous-gouverneur de la Banque de France. “Ces tokens pourraient être ensuite échangés de manière transparente sur cette même blockchain, sécurisant ainsi les transactions et réduisant d’autant les risques liés à la revente au marché noir, à la contrefaçon ainsi qu’à la fraude”, précise-t-il. Prudent le rapport estime en revanche qu’une coordination internationale dans le cadre du G20 est “indispensable”, pour adapter le cadre réglementaire afin que les cryptomonnaies restent cantonnées dans l’espace virtuel, sans “contagion” au système monétaire et financier.

La “blockchain” (“chaîne de blocs”), est une technologie de stockage et de transmission d’information qui repose sur la constitution d’une base de données comportant l’historique de tous les échanges effectués par ses utilisateurs depuis sa création, mais sans organe de régulation, comme peut l’être une banque centrale pour une monnaie par exemple. Ce registre décentralisé est partagé par ses différents utilisateurs, sans intermédiaire, ce qui permet de garantir à tout instant la sécurité et la validation des échanges de données.

Tesla : encore un accident de voiture « autonome »

Tesla : encore un accident de voiture « autonome »

 

Théoriquement les voitures autonomes doivent circuler en toute sécurité ou alors avec un pilote en semi autonomie. C’était le cas pour cette voiture Tesla qui a percuté uen voiture de police à l’Arrêt. En réalité, le concept d’autonomie complète n’est applicable qu’en site propre, complètement protégé. Et la circulation sur voie banalisée pose d’énormes problèmes de sécurité sans parler des questions juridiques.  Une Tesla qui roulait en mode semi-autonome sur une route américaine a percuté mardi une voiture de police en stationnement, un accident sans gravité mais qui intervient alors que le logiciel « Autopilot » fait déjà l’objet d’une enquête. « L’agent (de police) n’était pas dans le véhicule et le conducteur de la Tesla n’a subi que de légères blessures », a indiqué la police de Laguna Beach, située au sud de Los Angeles (ouest), sur son compte Twitter, qui montre aussi des photos des véhicules accidentés. La berline roulait « en +Autopilot+ », un logiciel que Tesla prend soin de présenter comme un système d’aide à la conduite et non de conduite autonome. Interrogé par l’AFP, le constructeur de voitures électriques haut-de-gamme a indiqué que « lorsque les conducteurs utilisent Autopilot, (le système) leur rappelle en permanence qu’il est de leur responsabilité de laisser leurs mains sur le volant et de garder le contrôle du véhicule à tout moment ». Tesla a aussi assuré avoir toujours dit que son logiciel ne rendait pas ses voitures invulnérables et rappelé qu’Autopilot est prévu pour fonctionner sur autoroute avec séparation centrale. Bien que Tesla soit un petit constructeur, qui ne produit qu’environ 100.000 voitures par an, la renommée de ses voitures électriques et le caractère médiatique de son patron Elon Musk, lui font régulièrement faire les gros titres, notamment à l’occasion d’accidents.

RGPD : personne n’est prêt

RGPD : personne n’est prêt

Le fameux Règlement général sur la protection des données, voté en mai 2016 par le Parlement européen, est entré en vigueur le 25 mais  Il définit de nouvelles règles communes qui renforcent la protection des données personnelles des citoyens, ainsi que les obligations des professionnels et des entreprises. Problème cependant, personne n’est prêt et surtout pas les PME.  Les entreprise doivent s’engager  à utiliser les données  utiliser à des fins précises, légitimes et justifiées, et encadrées par le RGPD, notamment pour améliorer le service. Et dans le cas où elle les transmettrait à des tiers (pour de la publicité ciblée par exemple), elle doit respecter des procédures de sécurité et savoir expliquer à qui et pourquoi elle transmet les données. L’utilisateur est aussi censé pourvoir accepter ou refuser ce type de pratiques.

 

Le règlement européen RGPD au fait c’est quoi ?  

 

 

 

C’est la question à laquelle répond dans une  interview à la Tribune, la présidente de la Commission nationale de l’informatique et des libertés Isabelle Falque-Pierrotin. On sait que l’enjeu est considérable.  Pour faire simple, il s’agit de réguler pour empêcher la mise en sous-traitance de l’économie européenne par les GAFA, le trafic de données notamment à des fins politiques  et pour protéger les consommateurs et les citoyens.

 

- Pourquoi considérez-vous que le RGPD est indispensable ?

ISABELLE FALQUE-PIERROTIN - Le RGPD est une grande avancée pour plusieurs raisons. Tout d’abord, il crée un marché européen de la donnée en unifiant les législations par un règlement unique. Jusqu’à présent, il fallait composer avec des textes nationaux pas forcément raccords les uns avec les autres. Deuxièmement, le RGPD remet enfin les acteurs européens et internationaux à égalité de concurrence. La disposition relative au ciblage, qui permet d’appliquer le règlement aux groupes étrangers qui traitent les données de citoyens européens, force les géants du Net américains et chinois à ne plus s’affranchir des règles de l’UE. Le troisième avantage du RGPD est qu’il renforce la capacité de dialogue de l’Europe face à ces acteurs. Google, par exemple, ne dialoguera plus séparément avec la Cnil française puis son équivalente allemande, mais avec l’autorité chef de file qui représente toutes les Cnil européennes. Enfin, le RGPD répond à la volonté de plus en plus marquée des citoyens européens de mieux maîtriser leur vie numérique. Les droits des personnes sont considérablement renforcés. Certes, la mise en conformité s’accompagne d’un investissement et d’une réorganisation interne pour les entreprises et les collectivités, mais le RGPD est une chance pour l’Europe.

 

Très peu sont prêts. Comment expliquez-vous ce retard ?

Beaucoup d’entreprises n’étaient pas conformes à la directive sur la protection des données de 1995 révisée en 2004, qui a modifié la loi de 1978. Elles partent donc de très loin, il y a un effet de rattrapage. En dépit de nos efforts de communication, la culture de la protection de la donnée peine à s’installer en France. Historiquement, la gestion des données a été cantonnée aux directions juridiques des entreprises. Elle n’a jamais été investie par les directions générales ou au niveau du comex [comité exécutif, ndlr]. Une prise de conscience est nécessaire pour que l’enjeu monte dans la hiérarchie des structures et devienne stratégique. Le RGPD pousse justement à cette prise de conscience parce que les sanctions qui résultent du non-respect du règlement sont très dissuasives. Aujourd’hui, les entreprises sont vraiment au pied du mur.

L’arme des sanctions, qui peuvent atteindre 4% du chiffre d’affaires mondial, force les entreprises à enfin se préoccuper de leur gestion des données. La menace est-elle le seul moyen efficace ?

L’ampleur inédite des sanctions est une bonne arme de dissuasion. Cette crainte nous permet de faire entrer le sujet de la protection des données dans les entreprises. Mais maintenant que nous avons leur attention, notre but est surtout de pousser un autre message, celui que la conformité au RGPD n’est pas seulement une contrainte réglementaire mais peut aussi apporter un bénéfice opérationnel. Respecter la vie privée de ses clients et collaborateurs est un facteur de différenciation concurrentielle et répond à une demande sociétale forte depuis l’affaire Snowden. Dans les secteurs qui utilisent énormément les données, comme les startups du numérique, les mentalités changent. Des fonds d’investissement commencent à se dire qu’ils ne veulent pas investir dans une startup qui ne pratique pas le « privacy by design ». La conformité est aussi un outil marketing : elle rassure les consommateurs. On l’a bien vu au CES de Las Vegas, où de plus en plus de startups françaises ont mis en avant leur éthique des données. Le RGPD est une opportunité de business.

 

Beaucoup d’entreprises restent complètement dans le flou, notamment les PME-TPE. Comment les aider à se mettre en conformité ?

Il est vrai que les grands groupes ont les moyens de s’adapter et sont en train d’investir. Les PME en revanche sont plus démunies face à la complexité du texte. En tant que régulateur, il est de notre responsabilité de les aider. Nous avons mis en place beaucoup d’outils. D’abord, les « six étapes » du RGPD, une information de base très pédagogique sur ce qu’est le RGPD et comment s’en emparer. Nous proposons aussi des outils plus opérationnels, par exemple un tutoriel pour aider à réaliser une étude d’impact. Pour les PME et les ETI tous secteurs confondus, nous travaillons avec Bpifrance à la réalisation d’un kit pratique qui sera disponible d’ici à la fin du mois de mars. Nous menons aussi une réflexion plus macro qui consiste à réutiliser les packs de conformité que nous avons développés ces dernières années. Le but est de créer un référentiel sectoriel qui permettrait d’éviter quelques démarches aux entreprises qui y adhèrent. Ainsi, les entreprises sauront exactement ce que le régulateur attend en termes de conformité dans leur secteur, en fonction des usages.

 

Allez-vous commencer votre travail de contrôle et de sanction dès le 25 mai, tout en sachant que la plupart des entreprises ne sont pas en situation de conformité ?

Le RGPD ne part pas d’une feuille blanche. Un certain nombre de principes liés à la gouvernance des données existaient déjà, comme la finalité du traitement des données par exemple. Nous les contrôlerons donc comme avant, car les entreprises sont déjà censées les avoir intégrés. La méthode sera la même : soit nous réagirons à des plaintes – nous en recevons 8.000 par an -, soit nous diligenterons nous-mêmes des contrôles, qui peuvent déboucher sur des sanctions.
En revanche, nous souhaitons faire preuve de pragmatisme et de bienveillance pour les principes nouveaux du règlement, comme le droit à la portabilité ou l’obligation de mettre en place un registre, car il faut laisser aux entreprises le temps de se les approprier. Le but d’un régulateur n’est pas d’afficher un tableau de chasse de sanctions. Dans un premier temps, nous privilégierons l’accompagnement et l’explication.

Aurez-vous une tolérance plus forte envers les PME qu’envers les grands groupes et les géants du Net, par exemple ?

Nous raisonnons au cas par cas. Une PME suscite bien sûr une certaine réserve, mais cela ne veut pas dire qu’on laissera passer n’importe quoi. Imaginez une PME dans l’économie des données de santé qui laisse passer une faille de sécurité considérable. Dans un tel cas, nous serions forcés de réagir vite. Il ne faut pas tomber dans des automatismes.

Le RGPD oblige les structures qui utilisent des données à grande échelle à recruter un Data Protection Officer (DPO). Mais il n’y a pas assez de DPO… Comment faire ?

J’entends cette difficulté, mais je crois aussi que les DPO vont « se faire » sur le terrain. Ce nouveau métier, central, nécessite des compétences transversales. Des formations se mettent en place dans tous les pays européens. Mais les entreprises peuvent aussi faire évoluer un profil existant. Le DPO peut être un juriste, un technicien, un CIL (correspondant informatique et libertés)… Son positionnement doit à la fois être proche des métiers et branché sur la chaîne de décision pour qu’il ne soit pas un personnage de paille et que ses recommandations soient suivies.

 

Avec le RGPD, le marché de la conformité explose. Vous avez d’ailleurs mis en garde contre la multiplication des arnaques…

Ce marché n’est pas nouveau mais il prend de l’ampleur. De nouveaux outils et programmes de conformité émergent à partir des règlements européens. À certains égards, je m’en réjouis car il n’y avait pas suffisamment d’acteurs investis dans l’opérationnalisation des principes européens. Cette activité peut être complémentaire de celle des régulateurs. Depuis quatre ans, nous émettons des labels qui prennent la forme de référentiels en fonction des secteurs. À présent, nous voulons progressivement passer des labels à une véritable certification, en s’appuyant sur des certificateurs privés. Cela permettra de mieux encadrer ce marché et de réduire les arnaques. Il est vrai que certains pratiquent un grossier marketing de la peur en accentuant les difficultés du RGPD pour vendre des prestations parfois inutiles à un prix exorbitant. Face à cela, nous rappelons que tout n’est pas nouveau : si vous êtes en conformité avec les réglementations précédentes, le RGPD ne nécessite qu’un travail de toilettage. Les entreprises doivent rester vigilantes, vérifier la crédibilité de leur interlocuteur et utiliser nos outils sur notre site pour identifier leurs besoins de conformité.

Vous insistez sur les nouveaux droits que le RGPD offre aux citoyens pour mieux contrôler leur vie numérique. Mais les usages révèlent une attitude paradoxale : d’un côté les citoyens se méfient des acteurs qui « aspirent » leurs données de manière non transparente, de l’autre ils continuent d’utiliser en masse ces services…

Le « privacy paradox » est une réalité mais je crois que le RGPD arrive à point nommé pour appuyer un changement de culture vis-à-vis des données personnelles. Il y a de plus en plus de bloqueurs de publicité. De plus en plus de profils Facebook ferment, ce qui n’était pas le cas il y a quelques années. On sent bien que les services qui se présentent comme plus respectueux des données recueillent de plus en plus d’intérêt. Il est vrai que beaucoup de droits existants, comme le droit d’accès ou le droit de rectification, sont peu utilisés, en grande partie car ils restent peu connus. Mais le droit à l’oubli sur les moteurs de recherche est un vrai succès en France et en Europe. Je suis également persuadée que le nouveau droit à la portabilité des données, ainsi que la possibilité de recours collectifs face aux acteurs qui ne respectent pas leurs obligations, vont être plébiscités. Le RGPD va accélérer cette prise de conscience, qui est pour l’heure marginale. C’est un vrai choix politique de la part de l’Union européenne.

Dans quel sens ?

Avec le RGPD, nous affirmons une certaine vision de l’innovation. Contrairement à ce qui peut être dit, le règlement ne freinera pas l’innovation, bien au contraire. Commercialement et stratégiquement, l’idée de l’Europe est de bâtir une innovation robuste parce qu’elle est construite sur le respect des droits, qui sont pris en compte en amont. Bien sûr, il y aura toujours des paradis de la donnée. Mais est-ce le modèle que l’Europe veut construire ? Non. Le RGPD incarne un modèle d’innovation durable.

 

Régulation d’internet : la France lance une consultation mondiale

Régulation d’internet : la France lance une consultation mondiale

 

 

La France veut réfléchir à des régulations « intelligentes » dans dix grands domaines, comme « la fiscalité », « le partage des données industrielles », « la modération des contenus en ligne » et notamment des contenus haineux, « la protection des données personnelles », ou encore le « droit des affaires » a indiqué M. Mahjoubi, le secrétaire d’Etat au numérique.  La France va donc lancer une consultation internationale en vue de régulations mondiales d’internet, a déclaré vendredi le secrétaire d’Etat au numérique Mounir Mahjoubi, en marge du salon des startups VivaTech. . Cette consultation sera nationale, européenne, et aussi internationale, en demandant notamment la participation des géants mondiaux de l’internet, a précisé le secrétaire d’Etat. « Je veux convaincre ces grandes plateformes de discuter sur ces régulations mondiales », a indiqué M. Mahjoubi à l’AFP.

 

L’avenir du bitcoin et de la Blockchain (Eric Larchevêque)

L’avenir du bitcoin et  de la Blockchain (Eric Larchevêque)

Eric Larchevêque, directeur général de Ledger, s’exprime sur l’avenir du bitcoin et  de la Blockchain, dans une interview à  LA TRIBUNE –

 

 Quand avez-vous découvert le Bitcoin et qu’est-ce qui vous a séduit dans cette « monnaie virtuelle » ?

ERIC LARCHEVÊQUE - J’étais à la recherche d’une nouvelle aventure professionnelle en 2013 après avoir vendu à High Co le comparateur de prix sur mobile que j’avais créé en 2010 (Prixing). Je me suis alors plongé dans l’univers du Bitcoin, j’ai beaucoup lu et j’ai été frappé par l’éclair quand j’ai fini par comprendre les implications de cette technologie, cette notion de confiance décentralisée : c’est la quatrième révolution industrielle ! Quand j’ai créé ma première startup (France Cyber Media), en 1996, à l’époque où l’Internet supplantait le Minitel, j’ai vu à quel point la transformation technologique pouvait avoir un impact sur la société. Je me suis dit qu’il allait se passer la même chose avec la technologie Blockchain qui rebat les cartes de la finance et de la confiance.

En revanche, je n’avais pas d’idée de business modèle. Avec mon associé Thomas France, co-fondateur de Ledger, nous avons eu envie d’ouvrir un lieu physique, très horizontal, où échanger et expliquer ce qu’était le Bitcoin. Nous avons choisi un nom un peu désuet pour rassurer, La Maison du Bitcoin, qui a ouvert dans le 2e arrondissement de Paris au printemps 2014. C’était juste après la chute de la plateforme Mt. Gox, tout le monde disait que le Bitcoin était officiellement mort. Nous voulions expliquer que derrière ces « monnaies virtuelles » —  on parle plutôt de « crypto-actifs » maintenant — il y avait cette technologie Blockchain. Nous avons mené ce projet sur nos fonds propres. Notre modèle économique c’était de faire le pari qu’il allait se passer quelque chose !

L’intérêt de ce lieu a été de concentrer tous les acteurs de l’écosystème, en y organisant des hackathons, des meet-ups, etc. Nous avons ainsi croisé la route de deux startups, BTChip de Nicolas Bacca, qui venait de l’univers de la carte à puce (Oberthur) et avait développé la première version d’un coffre digital hardware (électronique), produit techniquement très performant, mais sans interface, d’un usage trop complexe, et Chronocoin, de Joel Pobeda, qui vendait des bitcoins envoyés par UPS, sous contre-signature pour vérifier l’identité et éviter la fraude : il lui fallait un moyen de sécuriser l’envoi des clés privées. Nous avons décidé de fusionner en septembre 2014. Mon associé et moi apportions la vision entrepreneuriale et la mise en musique du projet pour attirer des investisseurs. La première version du produit, Ledger Nano, sans écran, a été lancée en octobre 2014, et tout est allé assez vite.


Quel est le principe de ce « coffre » à la fois digital et physique ?

Notre ambition était de dépoussiérer la technologie de sécurité des cartes à puce dans le but de créer un coffre digital pour cryptomonnaies. Si vous perdez la clé privée d’accès à votre compte en cryptomonnaies ou qu’on vous la vole, vous ne pouvez plus y accéder, tout est perdu. Sous sa forme de clé USB, le Nano S est un véritable ordinateur embarqué, avec un système d’exploitation que nous avons développé. Dans ce petit boîtier, l’important c’est la carte à puce qui permet de sécuriser la clé privée d’un portefeuille de crypto-actifs. Grâce à ce format de clé USB, nous pouvons intégrer un écran où l’on peut vérifier ce que l’on signe et non pas envoyer un ordre à l’aveugle.

 
Votre produit est « made in Vierzon ». Pourquoi ce choix ?

J’ai passé toute mon enfance à Vierzon, où ma famille a un passé industriel : mon grand-père avait créé une fabrique de porcelaine, Larchevêque, qui a fini par péricliter dans les années 1980. Mais c’est en fait le fruit d’une coïncidence incroyable : Joel Pobeda avait installé Chronocoin à Vierzon. C’est une fierté d’avoir une unité de production dans cette ville, un peu sinistrée : nous sommes l’entreprise qui a créé le plus d’emplois l’an dernier. Nous sommes 80 à Paris et une cinquantaine à Vierzon, dans la production, la logistique, l’ingénierie et l’assistance client. Nous y construisons le « Ledger plex » et nous allons créer une centaine d’emplois dans les années à venir. Nous sponsorisons aussi les équipes de foot, de rugby etc, et participons à l’émergence d’un « Silicon Berry ». C’est un projet personnel et émotionnel de pouvoir réindustrialiser la région et poursuivre ainsi l’histoire familiale.

Vous avez vendu plus de 1,2 million de ces « coffres digitaux ». Qui sont les acheteurs ?

Nous avons connu une croissance extraordinaire ces derniers mois. C’est un motif de fierté pour tous dans l’entreprise, d’autant qu’il est difficile de percer avec un produit d’électronique grand public et conçu en France. Nous avons vendu ces 1,2 million de coffres pour cryptomonnaies dans 165 pays, environ un tiers en Europe, un tiers aux États-Unis et un tiers en Asie. Les ventes sont complètement corrélées au marché des cryptomonnaies qui est passé d’une capitalisation de quelques dizaines de milliards de dollars à 850 milliards en décembre et oscille aujourd’hui entre 300 et 400 milliards de dollars. Quand le cours du Bitcoin monte, cela crée un tel cirque médiatique que de nouveaux acheteurs arrivent et ont besoin de s’équiper pour protéger leurs portefeuilles. Les ventes sont moins importantes en cas de baisse des cours.

L’an dernier, nous ne pouvions plus suivre la demande, nous avons été en rupture de stock pendant l’été et les deux premiers mois de 2018. Nous avions prévu de vendre 60.000 unités en 2017 et nous en avons écoulé près d’un million !Nous avons dû revoir entièrement nos outils de production, ce qui ne se fait pas du jour au lendemain. Nous avons vu nos produits sur eBay à des prix absurdes, plusieurs centaines de dollars (contre un prix public de 95 euros).

Cela démontre aussi la véritable utilité de notre produit : je rencontre beaucoup de gens qui me disent merci, ce coffre digital leur permet de passer de meilleures nuits. On peut le porter sur soi, comme un portefeuille, ou le laisser au coffre à la banque s’il s’agit de sommes conséquentes. Il n’y a pas de limite de stockage, puisque c’est la clé privée d’accès aux comptes qui est sauvegardée : ce sont comme des « bons au porteur » digitaux.

Selon une enquête récente de Deloitte, 75% des Français connaissent les cryptomonnaies et 7%, soit 3 millions de personnes, seraient utilisateurs de cryptomonnaies. Ces chiffres vous semblent-ils crédibles ?

Même Jean-Pierre Pernaut en a parlé dans son journal télévisé, le taux de notoriété n’est pas étonnant ! Cependant, il n’y a probablement pas 3 millions de Français qui possèdent des crypto-actifs, ce chiffre paraît très optimiste ! Certes, c’était un peu l’émeute en décembre à la Maison du Bitcoin et l’intérêt semble transcender toutes les classes d’âge et sociales. D’après ma perception du marché, il y a quelques centaines de milliers d’utilisateurs de crypto-actifs en France, on s’approche peut-être du million.

A-t-il été difficile de lever des fonds, du fait de la défiance de certains investisseurs ?

Nous avons réalisé une première levée de fonds de 1,3 million d’euros en février 2015 auprès du fonds français Xange et de business angels, comme Fred Potter, le fondateur de Netatmo, et Pascal Gauthier, de Criteo. Thomas, mon associé, est parti ouvrir une filiale à San Francisco, où se fait tout le développement « crypto » et Blockchain : si on n’est pas dans la Silicon Valley, on n’existe pas ! Il était important d’être là-bas pour présenter nos produits et « évangéliser » les produits de sécurité. Nous avons procédé à plusieurs itérations du produit et lancé le Nano S avec un écran, en juin 2016. Le marché était encore tout petit, nous étions moins d’une vingtaine chez Ledger et à peine à l’équilibre. Nous avons réalisé un deuxième tour de table de 7 millions d’euros en mars 2017, auprès de la Maif notamment. Quand le marché a vraiment accéléré en 2017, notre marque, qui a bénéficié du bouche-à-oreille, était déjà un peu connue dans l’écosystème et l’enjeu de la sécurité était bien compris.

La croissance de Ledger a été verticale. Pascal Gauthier (ex-directeur opérationnel de Criteo) nous a rejoint pour son expertise opérationnelle de structuration de l’entreprise, afin de mettre en place les fonctions supports (finance, RH, juridique) et nous permettre d’accélérer. Nous avons réalisé un tour de table de 60 millions d’euros pour dérouler notre feuille de route à cinq ans. Notre ambition est de créer un géant technologique européen des applications de la Blockchain, en particulier des cryptomonnaies. La première étape, c’est l’électronique grand public avec ce coffre digital, la deuxième étape, ce sont les entreprises et les services, nous avons lancé des solutions pour les institutions financières, la troisième étape, à plus long terme, ce sera l’Internet des objets et toute l’industrie.

La technologie Blockchain ne coûte-t-elle pas cher pour le seul stockage ? Des experts relèvent que ce n’est pas l’alpha et l’oméga pour tous les secteurs…

La Blockchain n’est pas la solution à tous les problèmes, ce ne sera pas la seule technologie utilisée. Cependant, elle a beaucoup de sens dans des cas d’usage qui peuvent représenter des marchés importants.
Premier exemple : tout ce qui touche à l’énergie, aux smart grids, à la voiture autonome ou électrique. Si on se projette dans le futur, le véhicule connecté dans la smart city va avoir besoin de se recharger par induction au feu rouge, payer un parking, un péage, etc : son trajet va être ponctué de 50 opérations où se produira un échange de flux physiques et financiers entre plusieurs acteurs qui peuvent être réalisés sous la forme de « smart contracts » [contrats « intelligents » déclenchés automatiquement selon des paramètres prédéfinis]. Utiliser un protocole pair-à-pair distribué comme la Blockchain a plus de sens et apportera plus de flexibilité qu’un système centralisé.

Deuxième exemple l’industrie 4.0 et la « supply-chain »(chaîne d’approvisionnement), où doit s’opérer le lien entre matières premières et flux financiers. Avec la Blockchain, on va pouvoir interconnecter tous les acteurs et permettre à une usine de se reconfigurer en fonction de la demande.

Le troisième exemple est un peu au fondement de tout cela : créer des cryptomonnaies d’État. C’est une manière de répondre aux questions de régulation que se posent les pouvoirs publics. Il s’agirait tout simplement de publier un décret qui autorise les banques à émettre, de façon centralisée, des tokens (jetons numériques) d’une valeur d’un euro. L’intérêt de la Blockchain c’est le « smart contract », la possibilité d’ajouter des fonctions programmables dans l’argent et de pouvoir ainsi permettre à un véhicule d’avoir un portefeuille pour se recharger à un réseau électrique intelligent. Je sais bien qu’on ne pourra jamais payer en bitcoins à la pompe ! D’ici quelques années, avec des vitesses d’adoption différentes entre les États-Unis, l’Europe et certaines micro-nations, on verra l’arrivée de cryptomonnaies d’État, que l’on peut aussi qualifier de « stable coins », des « crypto » ayant une valeur d’un pour un avec une monnaie ayant cours légal.

Ces « stable coins » permettront de débloquer des tas de « smart contracts », comme ceux que l’on voit apparaître dans l’assurance pour un retard d’avion : ça n’a pas de sens de rembourser les assurés en ethers alors qu’il y a un coût de couverture des fluctuations du cours, il faut le faire en euros. Or l’un des grands frottements financiers dans les métiers de l’assurance réside dans la gestion pour compte de tiers, avec tous les coûts de conformité, d’audit, de connaissance client (KYC). Si on met les fonds dans un « smart contract », qui est l’équivalent d’un séquestre automatisé, connecté à ce que l’on appelle des « oracles » qui prédisent le retard des avions, le débouclement du contrat d’assurance se fait de manière totalement automatisée, sans intervention humaine. In fine, la prime est plus faible, le produit est plus performant et le client a plus de chances de le choisir. C’est ce qu’apporte la « révolution Blockchain » : pouvoir qualifier des événements financiers en même temps que des événements physiques et déboucler tout cela de manière automatisée.

 

Pour Ledger, cela peut représenter des contrats d’équipements. Par exemple, des micro-Etats tels que la Barbade, qui ont perdu une partie de leur business off-shore avec le durcissement des lois internationales, cherchent une nouvelle source de revenus et ont la chance d’avoir une monnaie arrimée au dollar, plutôt stable : ils travaillent à un projet d’émettre des crypto-dollars dotés de toutes les qualités des « smart contracts ». D’autres pays, comme la Chine, la Russie et l’Iran, se posent la question d’émettre leurs propres cryptomonnaies qui pourraient répondre à des problématiques de sanctions internationales et d’embargo. Je pense que, plutôt qu’essayer de réguler les cryptomonnaies, les États vont prendre le problème à l’envers et créer leurs propres cryptomonnaies.
La tendance n’est-elle pas plutôt à la régulation ? Le sujet a été débattu au G20, deux missions d’information au Parlement en sont chargées et la loi Pacte doit l’aborder aussi.

C’est vrai, nous participons d’ailleurs à ces missions d’information parlementaires et nous avons recruté des personnes telles que Nathalie de Gaulle, comme directrice des affaires gouvernementales et banques centrales [ex-directrice de campagne de Bruno Le Maire, ex-Société Générale CIB et Engie, Ndlr] pour y apporter notre vision. Dans le futur, dans trois ou cinq ans, il est probable que les États s’emparent de la problématique en émettant leurs propres cryptomonnaies. C’est un futur possible et sûrement le plus souhaitable pour la croissance des usages grand public des « smart contracts », et qui n’empêche en rien le développement parallèle des blockchains décentralisées.

La Banque de France prône un encadrement clair des crypto-actifs et la création d’un statut de prestataire de service en crypto-actifs. Faut-il un cadre réglementaire ?

Aujourd’hui, il y a une zone grise. Par exemple, la Maison du Bitcoin, qui fait plutôt un métier de broker (courtier) en achat et vente de crypto, opère dans un vide juridique. Il est évidemment souhaitable de créer un cadre pour permettre à ces entreprises d’exercer de façon contrôlée, ce qui est clé pour avoir accès au système bancaire. C’est le plus grand problème rencontré aujourd’hui par les sociétés de l’univers des crypto. Il a été compliqué de pouvoir simplement ouvrir un compte en banque pour la Maison du Bitcoin, nous avons finalement trouvé auprès de Fidor [néobanque allemande rachetée par le groupe BPCE], et même pour Ledger alors que l’on vend de l’électronique, on n’intervient pas sur les cryptomonnaies et on est bien capitalisé. Certaines banques ne souhaitent pas travailler avec nous par crainte d’un risque de réputation. J’ai encadré les lettres de refus à côté de mon bureau ! Nous avons trouvé depuis plusieurs banques. Malgré les discours sur l’innovation et les startups, le banquier reste frileux par rapport à cet univers des crypto-actifs.

S’il est nécessaire d’avoir un cadre juridique dès que l’on rentre dans un univers où l’on gère de l’argent fiduciaire, comme dans le système bancaire classique, certaines propositions sont inapplicables et impossibles, comme celle d’exiger de faire du « KYC », de la connaissance client sur tout portefeuille de cryptomonnaies [qui figure dans le projet de directive européenne anti-blanchiment]. C’est comme si on l’exigeait des vendeurs de coffre-fort, ça n’aurait aucun sens. Le marché est mondial et cela viendrait limiter l’usage des coffres à crypto dans une zone géographique précise. Le plus grand danger serait de tuer la compétitivité européenne : on se retrouverait avec des GAFA Blockchain dans cinq ans. J’espère que le gouvernement l’a compris et que nous arriverons, tout en protégeant le consommateur contre le risque spéculatif, à avoir un cadre juridique qui ne tue pas l’innovation ou la déplace à l’étranger. Nous sommes heureux et fiers d’être Français, d’avoir un héritage de 40 ans de savoir-faire dans la carte à puce, domaine que ne maîtrisent pas les Américains.

La traçabilité est pourtant possible avec la Blockchain, on peut identifier des bitcoins d’origine douteuse, non ?

Tout à fait. Un bitcoin n’est pas totalement fongible et il existe des outils de traçabilité et d’analyse statistique pour identifier l’origine de bitcoins « teintés » (« tainted » c’est-à-dire ternis, corrompus). Ce n’est pas une preuve absolue, mais une analyse statistique, un scoring de bitcoins présentant une forte probabilité d’être issus d’un piratage, d’un vol sur une place de marché. Dans l’enquête sur Silk Road [marché noir du « darknet » fermé par le FBI en 2013, Ndlr], le procureur a dit avoir pu la résoudre grâce à la traçabilité du bitcoin. Ce dernier n’est pas anonyme, mais pseudo-anonyme : même si on ne pourra jamais, d’un point de vue pratique, avoir un KYC sur les clés privées, on aura toujours des outils permettant à la police de faire son travail. La Maison du Bitcoin a par exemple collaboré à de nombreuses enquêtes sur des affaires diverses. Le Bitcoin n’est pas une zone de non-droit. Par ailleurs, unerécente étude de l’entreprise britannique Elliptic [éditeur de logiciels de cybersécurité crypto] a estimé à moins de 1% la part des bitcoins utilisés pour des usages illégaux, sur l’ensemble des transactions sur la Blockchain. Interpol n’a pas non plus identifié de connexion entre le Bitcoin et le financement du terrorisme.

Il faut replacer le débat dans un cadre plus posé et factuel. Cela fait partie du rôle de Ledger, qui n’a pas besoin d’un statut particulier pour opérer, de porter ce débat et d’éviter la mise en place de réglementations absurdes. Aujourd’hui on ne peut plus ignorer les crypto-actifs et les pouvoirs publics ont compris que ceux-ci étaient là pour durer. Il y a en outre une réelle volonté de la part de ce gouvernement de créer des champions français et la crainte de rater un nouveau virage, après celui de l’Internet. Je suis donc assez optimiste et je crois assez peu à une régulation absurde : les acteurs technologiques bénéficient d’une certaine bienveillance. Le pragmatisme devrait l’emporter sur le manque de courage.


Quid de la fiscalité ?

Aujourd’hui, la fiscalité sur les crypto-actifs est confiscatoire : on peut se retrouver à payer 70% d’impôt sur la plus-value [il faut la déclarer en tant que bénéfice non commercial (BNC) si l’activité d’achat-revente en euros est occasionnelle, et comme bénéfice industriel et commercial (BIC) s’il s’agit d’une activité régulière]. Tout le monde voit bien que c’est une recette pour un désastre et que cela dissuade de déclarer. J’ai l’impression que l’on se dirige vers une sorte de « flat-tax » de l’ordre d’un tiers.Ce serait clair, simple et acceptable, et une véritable libération pour certaines entreprises du secteur qui envisageraient l’avenir de façon plus posée.
Le Bitcoin est né après la crise financière de 2008 et d’une défiance à l’égard du système. Cet aspect-là vous a-t-il séduit ? Et quid de l’attrait spéculatif pour l’ex-joueur de poker professionnel que vous êtes ?

En plus des aspects technologiques, la résistance à la censure de la Blockchain et du Bitcoin et la capacité de créer une réserve de valeur alternative m’ont complètement séduit. D’un point de vue économique et philosophique, je me suis toujours inquiété de la course à la dette, de la solution dangereuse pour les générations futures de la planche à billets. Il y a un délitement de la confiance dans les États et les institutions et j’ai vu le Bitcoin comme une réponse à cela. Le citoyen a besoin d’alternatives, ce n’est pas forcément un acte révolutionnaire ou anarchiste. Je ne suis pas libertarien ni révolutionnaire, je crois en l’Etat et dans les banques, qui remplissent des fonctions essentielles. Paradoxalement, les cryptomonnaies répondent au besoin très profond de possession, c’est une de leurs fonctions qui m’a séduit, dans un environnement de plus en plus « cashless », ce qui revient pour moi un peu à une privation de liberté, car tout y est contrôlé, vérifié. Le Bitcoin c’est fondamentalement du cash, ou de l’or, une réserve de valeur.

Je suis un défenseur des espèces. Le cash, c’est agréable et difficilement remplaçable. On ne peut pas vous le prendre, vous en faites ce que vous voulez, le Bitcoin c’est la même chose, c’est une alternative au cash. En France, on aura du mal à faire disparaître le cash. Mais je pense qu’on a besoin d’une monnaie plus efficace et la solution pourrait être de l’émettre sous forme de cryptomonnaie légale.

Pourquoi avoir levé des fonds classiquement auprès de sociétés de capital-risque et non par Initial Coin Offering, l’émission de jetons numériques, mode de financement très prisé des startups de la Blockchain ?

Quand on fait une ICO, cette opération est censée être la dernière levée de fonds, la sortie. Et d’un point de vue technique, émettre un « token d’utilité » [jeton servant ensuite à payer un service sur la plateforme qui l’émet] n’aurait pas de sens et serait complètement artificiel pour Ledger. Surtout, notre vision est de construire un géant technologique, dans la durée : cette feuille de route va s’écrire en passant par des levées de fonds normales, avec des investisseurs qualifiés qui vont aider à notre développement dans certaines régions, comme Korelya et Cathay Capital en Asie, et des investisseurs à l’esprit entrepreneur comme Draper.

Si un jour nous devions procéder à une Initial Coin Offering, ce serait plutôt ce que l’on appelle une « IPCO », en « tokenisant » les actions de l’entreprise : ce serait une belle histoire, puisque nous pourrions stocker les actions sur nos propres produits ! Mais le cadre juridique n’est pas encore là.

 

Comment voyez-vous évoluer le marché des cryptomonnaies ?

Personne ne peut faire de prédictions et il est difficile de dire si cette période de consolidation plutôt calme va durer six ou dix-huit mois, mais elle n’a rien à voir avec celle qui a suivi la chute de Mt.Gox : de nombreux acteurs technologiques du secteur dans le monde entier, qui ont des réserves confortables de cash, recrutent, innovent. Tout cet écosystème travaille sur des cas d’usages, des produits, des solutions qui verront le jour petit à petit et donneront une dimension d’utilité plus importante aux cryptomonnaies, qui étaient en grande partie de la spéculation jusqu’ici, pour revenir dans un cycle plus positif, moins violent avec de meilleurs fondamentaux à long terme.

Des véhicules autonomes sur les routes en 2020 !!

Des véhicules autonomes sur les routes en 2020 !!

Le gouvernement envisage d’autoriser les véhicules largement autonomes sur les routes françaises à partir de 2020-2022. Une illusion sur voie banalisée  car il s’agit en fait d’assistance ou alors d’autonomie réelle mais sur des voies dédiées (site propres), comme le train ou le métro.  En France, Valérie Pécresse, a annoncé en outre le lancement d’expérimentations de véhicules autonomes dès 2019 sur l’A1, l’A6, l’A4 et l’A10, sur des bandes d’arrêt d’urgence transformées en pistes de circulation connectées et dédiées, une infrastructure financée à hauteur de 100 millions d’euros par la région. A la clef, “une desserte automatisée des sites des Jeux olympiques de 2024, pour pallier à certains retards du ferré”, a-t-elle affirmé. Ces bus autonomes ou taxis collectifs – le projet n’a pas encore été arrêté – auront vocation à desservir l’aéroport Charles de Gaulle, Orly ou encore Marne-la-Vallée, “des lieux de vie qui sont aussi des lieux touristiques”, a souligné Valérie Pécresse. “Le Grand Paris a pris du retard, en attendant il faut faire du transport collectif moins coûteux, sur route”, a-t-elle justifié, appelant à faire de l’Île-de-France la première région en matière d’autonomie des véhicules. Au niveau national, les véhicules autonomes de catégorie 3 (le conducteur peut céder le contrôle complet du véhicule mais doit être en mesure de le reprendre dans un temps donné) pourront être autorisés en 2020, ceux de catégorie 4 (conduite autonome complète sur certaines portions de route) en 2022, selon le calendrier présenté par Anne-Marie Idrac, chargée par le gouvernement de composer une stratégie sur le sujet.

12345...9



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol