Archive pour la Catégorie 'nouvelles technologies'

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.

Peer Tube pour contrer les GAFA

Peer Tube pour contrer les  GAFA

Peer Tube pour contrer You Tube de Google Pierre, c’est le projet de Yves Gosset, directeur de Framasoft, association française qui milite pour le développement de logiciels libres (interview la Tribune)

Pourquoi vouloir créer un « You Tube décentralisé » ?

PIERRE-YVES GOSSET - Framasoft veut sensibiliser à la concentration des services sur Internet. En 2014, nous avons lancé la campagne « Dégooglisons Internet » pour démontrer que le logiciel libre est une alternative crédible à l’hyperpuissance des GAFA (Google, Apple, Facebook, Amazon). Framasoft propose depuis une dizaine de services alternatifs par an : outils de stockage, de cartographie, d’éditing, de jeux… Mais nous n’avions toujours pas d’alternative vidéo.

YouTube est un acteur incontournable, en situation de quasi-monopole (ndlr : la plateforme de Google revendique 1,8 milliard d’utilisateurs par mois et 400 heures de vidéo mises enligne chaque minute sur YouTube dans le monde). Cette concentration pose de nombreux problèmes. Par exemple, son algorithme cherche à retenir le plus longtemps possible les internautes sur sa plateforme, en lui faisant visionner des vidéos qui font le buzz. Plus l’internaute est captif, plus il visionnera de publicités et donc, générera des revenus pour Google. Autre problème : la censure que peut instaurer Google en décidant ce qui est acceptable de diffuser ou pas. C’est donc son point de vue, en tant qu’entreprise américaine, qui s’impose au reste du monde. Dans cette logique-là, YouTube peut décider de la démonétisation de certaines vidéos, en les privant de pub. Cela entraîne une perte de revenus pour les créateurs de contenus. En France, cela a récemment été le cas pour des YouTubeuses qui évoquaient leurs règles ou le corps féminin dans des vidéos ne contenant pourtant aucune image choquante.

En l’absence de modération unique, PeerTube ne risque-t-il pas de voir proliférer les contenus pornographiques ou extrémistes, véritable fléau actuel pour les plateformes ? Comment la modération est-elle régie sur PeerTube ?

Chaque administrateur s’occupe de la modération au sein de son instance. En cas de poursuites judiciaires, la responsabilité est attribuée dans un premier temps à l’internaute qui a publié la vidéo, puis à l’hébergeur. Avec les logiciels libres, nous voulons redonner le pouvoir aux gens. Cela passe donc par un partage de responsabilité, qui permet de faire réfléchir davantage aux contenus publiés sur la Toile. Forcément, nous sommes conscients que certains utilisateurs pourront mal utiliser PeerTube… Pour autant, faut-il priver tous les autres internautes d’un espace d’expression ? Non. Nous ne sommes pas des anarchistes : nous ne souhaitons pas que Peer Tube devienne une jungle, où n’importe qui fait n’importe quoi. Mais nous voulons avant tout donner la possibilité aux gens de pouvoir s’exprimer librement sur Internet.

Pour attirer les utilisateurs, Peer Tube a besoin de contenu. Depuis mars, vous revendiquez déjà 32.000 vidéos en ligne et près d’un million de vues. En l’absence de monétisation, comment comptez-vous attirer les créateurs de contenus ?

Framasoft s’est toujours positionné comme étant antipub. C’est pourquoi il n’y a pas de monétisation par la pub prévue pour l’instant. En revanche, il est déjà possible de soutenir les créateurs grâce à des dons. Dès 2019, un plug-in sera disponible et permettra à chaque instance d’instaurer de la publicité, ou non, sur ses vidéos. Le choix sera laissé aux administrateurs. Évidemment, les YouTubeurs-stars comme Cyprien et Norman n’auront aucun intérêt à venir sur Peer Tube. Nous nous intéressons aux vidéastes déçus de YouTube, cherchant à maîtriser davantage leur outil de diffusion et leurs données.

Framasoft fédère naturellement un public technophile. Les compétences techniques requises pour créer une instance, ou proposer de nouvelles fonctionnalités, sont-elles un frein au recrutement de nouveaux utilisateurs ?

L’objectif de Peer Tube n’est pas de faire des millions de vues, mais de permettre de s’émanciper de YouTube. Côté utilisateur, mettre en ligne une vidéo sur Peer Tube est aussi simple et rapide que sur YouTube. Côté administrateur, il est vrai qu’il faut certaines connaissances techniques. La marche à l’entrée reste compliquée, mais pas insurmontable. Il est toujours possible de se regrouper pour demander un coup de main à un connaisseur, voire même, payer un développeur pour le faire à sa place.

Google: nouvelle affaire Analytica ?

Google: nouvelle affaire Analytica ?

Les données de 500 000 utilisateurs détournées chez Google. Le problème a été découvert et corrigé en mars dans le cadre d’un audit interne des procédures de partage des données avec d’autres applications, a expliqué le groupe américain sur un blog. Aucun développeur extérieur n’a exploité cette faille, ni fait un usage inapproprié des données concernées, selon les conclusions de l’audit.

L’action d’Alphabet, le groupe propriétaire de Google, a terminé en baisse de 1,02% sur le Nasdaq à 1.155,92 dollars après cette annonce.

Quelques minutes avant, le Wall Street Journal avait rapporté que Google avait choisi dans un premier temps de ne pas rendre publique la découverte de la faille de sécurité en raisons des craintes d’une enquête des autorités de tutelle du groupe.

Le quotidien cite dans son article des sources non identifiées et une note interne à Google rédigée par les services juridiques à l’attention des hauts dirigeants du groupe.

D’après le journal, cette note mettait en garde sur le fait que la divulgation de ce problème susciterait probablement “un intérêt immédiat des autorités réglementaires” et entraînerait des comparaisons avec le détournement de données personnelles d’utilisateurs de Facebook par le cabinet de conseil politique Cambridge Analytica.

Toujours selon le WSJ, un comité interne a pris la décision de ne pas informer les utilisateurs, et il a informé de son choix le directeur général de Google, Sundar Pichai.

 

Le mythe de la voiture autonome ?

Le mythe  de la voiture autonome ?

 

Elan Musk, le très médiatique patron de Tesla avait en quelque sorte inventé la mode : la généralisation de la voiture autonome et même du voyage dans la lune. Un exhibitionnisme médiatique surtout destiné à récolter des fonds mêmes si on ne peut contester certains succès techniques. Par contre la gestion financière a fait tomber Elan Musk  rétrogradé au rang de directeur mais toujours aussi contesté. Mais le mythe a été repris par nombre de constructeurs en mal d’images après les tricheries constatées concernant les émissions polluantes. Chacun promet la voiture autonome pour demain alors que vraisemblablement il ne faudra pas compter sur sa généralisation avant 30 ou 40 ans : c’est-à-dire le temps aussi équipé l’infrastructure afin que l’automobile circule dans les meilleurs conditions de sécurité, c’est-à-dire en quasi site propre. Pourtant pas de quoi refroidir les ardeurs des autres constructeurs en mal d’innovations réelles comme la voiture électrique à prix abordable. Cette prédiction de la voiture autonome pour demain ressemble un peu à celle du règne de l’intelligence artificielle qui va supprimer toute intervention humaine dans les processus de production et de distribution. Bien sûr on ne saurait refuser les progrès que permet la technologie mais il faut mesurer leurs conséquences une fois insérée dans des systèmes complexes. Il y a longtemps que des transports fonctionnent de manière presque autonome comme les métros, les tramways ou encore les trains entre parenthèses pour le TGV par exemple le conducteur n’a pas été supprimé pour des raisons techniques mais pour des questions psychologiques vis-à-vis des voyageurs.

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

La maison connectée : c’est pas pour demain !

 

 

  •  

 

C’est le résultat d’une étude qui démontre que les Français demeurent relativement prudents par rapport aux perspectives de connexion de leur logement. Les lobbys en domotique ne cessent de vanter la grande révolution numérique y compris pour tous les services et activités de la maison. Seront connectée d’après eux, la gestion de l’électricité, la sécurité, le chauffage, l’eau est bien sûr la machine à café et plus généralement la préparation des repas, bien d’autres aspects encore avec les enceintes. Le problème c’est que tout cela n’est pas gratuit. Les Français dépensent déjà des sommes non négligeables en outils et services informatiques. Ces services dont certains d’ailleurs peuvent être discutables ont un coût et forcément un prix et dans un contexte économique où le pouvoir d’achat se resserre l’équipement en domotique n’est pas forcément prioritaire. Il est surtout réservé aux ménages aisés.  reste aussi la question de l’intrusion de services informatiques dans la vie privée. Car qu’on le veuille ou non ces données seront récupérées à, analysées et exploitées à des fins commerciales de sorte que rien n’échappera concernant la vie familiale et intime. Selon le dernier baromètre Qualitel-Ipsos, le logement connecté reste un phénomène très minoritaire en France. Seuls 3 logements sur 10 possèdent au moins un équipement connecté et même le service le plus «populaire», l’alerte anti-intrusion, ne concerne que 21% des lieux de vie. Certes, le phénomène s’accentue avec le temps: 54% des logements de moins de 5 ans disposent d’au moins un service connecté, mais les Français ne semblent pas vraiment avoir le feu sacré sur ce sujet. . Les trois quarts des sondés considèrent ainsi que «des prix trop élevés les dissuaderaient d’équiper leur logement en objets connectés». Une perception confirmée par le fait que ces produits sont effectivement l’apanage des foyers les plus aisés: 16% des foyers disposant de moins de 3000€/mois disposent d’au moins deux équipements connectés contre 35% de ceux pouvant compter sur plus de 5000€/mois.

 

Incident Facebook: une faille ou du business ?

Incident Facebook: une faille ou du business ?

 

- Le secrétaire d’Etat français au Numérique ouvre la boîte de pandore à propos des facteurs explicatifs concernant le pillage de données 50 millions d’abonnés. On sait que Facebook constitue une plate-forme d’échanges d’infos entre amis qui livrent des données personnelles particulièrement intéressantes pour la publicité ciblée. On ne peut en effet adresser de publicité tout le temps et sur tout aux 2 milliards d’abonnés de Facebook. Le coût serait insupportable pour les annonceurs. Du coup il faut extraire de cet immense fichier des échantillons homogènes par pays, par produit, par comportement par catégorie socio professionnelle etc. Ces fichiers coûtent une fortune et c’est le cœur du business de Facebook. Du coup le secrétaire d’État français au numérique n’exclut pas la possibilité que le pillage des données vienne même de l’intérieur de Facebook comme cela a déjà été le cas.  “J’ai regardé dans le détail (…) comment Facebook expliquait cette faille. C’est une faille extrêmement complexe. C’est-à-dire qu’il ne s’agit pas d’une faille simple ou d’un hack qui utilise des failles déjà très connues”, a déclaré Mounir Mahjoubi à Radio J. “C’est une vraie construction; quelqu’un y a passé beaucoup de temps”, a-t-il ajouté. “Ça veut dire soit un génie, soit une organisation très structurée, soit (…) quelqu’un de l’intérieur.”Il n’a pas exclu non plus qu’un “grand pays” puisse être derrière cet incident qualifié par le PDG de Facebook, Mark Zuckerberg, de “très sérieux problème de sécurité». Selon Mounir Mahjoubi, Facebook France n’a pas été en mesure à ce stade de dire si des internautes français ont été affectés et dans quelle mesure. “J’ai fait partie des 90 millions de comptes qui ont été déconnectés d’urgence dans la journée d’avant-hier”, a cependant ajouté le secrétaire d’Etat. “Je pense donc avoir la preuve que des comptes français sont concernés.”

Facebook siphonne les infos pour la pub ciblée

Facebook siphonne les infos pour la pub ciblée

On le savait depuis longtemps, Facebook est un réseau au demeurant assez indigent (sauf exception) qui n’a d’autre but que de faire étalage de données privées de 2 milliards de personnes.  Des données récupérées pour Facebook pour faire de la pub ; le plus souvent pour vendre à prix d’or les fichiers de consommateurs ainsi constitués. Des informations qui valent des dizaines millions pour les annonceurs.  En outre pour la première fois, Facebook a admis jeudi utiliser le numéro de téléphone fourni par ses utilisateurs afin de sécuriser leur compte – et pour lequel ils ne consentent pas à une utilisation publicitaire. Le fleuron de Silicon Valley a ainsi confirmé les résultats d’une étude réalisée par des chercheurs des universités américaines de Northeastern et de Princeton, et révélée par le site spécialisé Guizmodo. Autrement dit : les utilisateurs qui souhaitent avoir un compte plus sécurisé doivent, paradoxalement, consentir à un compromis en matière de confidentialité pour que les annonceurs les identifient plus facilement. En effet, Facebook permet aux utilisateurs qui le souhaitent de fournir un numéro de téléphone. En cas d’activité suspecte repérée, comme un piratage de compte par exemple, le réseau social peut ainsi alerter rapidement l’utilisateur par SMS. Le hic : Facebook n’indique pas explicitement à l’utilisateur que son numéro peut être récupéré par des annonceurs, selon sa politique de gestion des données. Tout cela, à l’insu des intéressés. Il leur est donc impossible de faire supprimer les données personnelles pillées ou d’empêcher les annonceurs de les utiliser. Ce profil, réalisé à partir d’un faisceau d’informations récoltées par des moyens indirects, est surnommé le shadow profile (profil fantôme).

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Presse : vers la fin du papier ?

Presse : vers la fin du papier ?

On pourrait bien s’orienter assez rapidement vers la fin de la presse sur papier voire même de certains médias classiques notamment régionaux. Les médias classiques qui résistent le mieux aussi bien sur papier que par voie numérique sont les médias qui apportent une certaine valeur ajoutée comme le Figaro, le Monde, l’équipe ou encore le Parisien. Certes on ne peut sans doute pas comparer le lecteur Figaro,  du Monde à celui du Parisien ou de 20 minutes car la demande d’information est très différente ; relativement approfondie dans un cas et assez superficielle dans l’autre. Près de 60% des Français lisent des articles issus de quotidiens ou de magazines sur leur smartphone. Ils n’étaient que 47% en septembre 2017. Les grandes marques de la presse quotidienne nationale dominent le palmarès mais il faut prendre en compte une consultation de plus en plus importante de sites de second rang mais dont la ligne éditoriale et plus indépendante et plus élaborée. La presse quotidienne nationale domine le classement des marques de presse les plus lues. Les magazines sont en embuscade, mais ils ont subi une érosion de leur lectorat entre avril et juin: -3,7% pour Femme Actuelle (6e avec 18,8 millions de lecteurs), -4% pour Télé Loisirs (même audience, 7e), -6,8% pour Marmiton (14 millions, 9e), -4% pour Voici (13,8 millions, 11e). Du côté des newsmagazines, Le Point a perdu 1,4 million de lecteurs en trois mois pour un total de 9,9 millions. Libération en a aussi perdu 1,2 million, à 8,6 millions de lecteurs. Décrochage également pour Courrier International, avec 1,6 million de lecteurs en moins, à 4,7 millions. A contrario, Public a gagné un million de lecteurs en un trimestre (9,1 millions). C’est la plus grosse progression du panel aux côtés de Sud-Ouest, qui a trouvé 920.000 lecteurs de plus (7,5 millions).

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

.

Comme la mode est à la survalorisation  de l’intelligence artificielle, tout est bon pour démontrer que la plupart des emplois seront demain automatisés. Ce que rapporte aujourd’hui le Figaro en se fondant sur une étude du le Forum économique mondial qui  prévoit qu’en 2025 les machines accompliront plus de tâches que les humains, contre 29 % actuellement. À noter d’abord le degré de précision de 29 % de tâches qui seraient accomplies par les machines, une précision qui fait douter de la pertinence scientifique de l’étude. Certes l’intelligence artificielle via  notamment la numérisation et la robotisation va continuer de remplacer des tâches précédemment effectuées de manière manuelle. Mais le processus n’est pas nouveau, il y a longtemps que la machine a remplacé l’homme pour  certaines tâches. Un seul exemple, dans les années 50 il fallait plusieurs personnes pour exploiter une surface agricole d’une dizaine d’hectares. Aujourd’hui une seule personne suffit pour 200 ha (tout dépend évidemment de la nature des productions certaine à haute valeur ajoutée nécessitant davantage de main-d’œuvre que d’autres). On constate le même processus dans nombreuse filières y compris dans l’artisanat ou le commerce. Le couvreur ou le boucher ne travaille plus de la même manière. Pour assurer sans doute le citoyen l’étude du forum économique mondial considère cependant que le bilan global des emplois sera positif avec environ 60 millions d’emplois supplémentaires. Un chiffre encore tout à fait approximatif voir fantaisiste car il s’agit de prendre en compte évidemment les conditions d’évolution des processus de production mais aussi la transformation de la nature de ces productions. Or d’ici une quinzaine d’années on produira des biens dont on ne connaît pas aujourd’hui la nature pour la moitié. Si l’étude ne cache pas que la prudence doit être de rigueur dans ce tournant majeur lié à la quatrième révolution industrielle, les chiffres d’impact qu’elle avance sont plus optimistes que dans une précédente étude de 2016. Le problème c’est que personne ne peut réellement avancer des arguments pertinents pour être optimiste ou pessimiste.

 

 

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Téléphone : la fin des lignes fixes ? (Orange)

Téléphone : la fin  des lignes fixes ? (Orange)

 

 

C’est la fin annoncée des lignes fixes de téléphone traditionnelles  encore utilisées par environ 10 millions de personnes. Désormais on passera progressivement par  l’utilisation obligatoire d’une box avec évidemment abonnement Internet. En clair il s’agit d’une manière habile d’augmenter les prix des communications. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet, le 15 novembre prochain, Orange va cesser de commercialiser des lignes fixes, selon Le Parisien. Les fameuses prises en «T» qui ornent les murs de tous les foyers français ne serviront plus à rien. Toutefois les lignes des 9,4 millions de foyers qui utilisent encore un téléphone fixe ne seront pas brusquement coupées cet automne. La transition des réseaux d’hier à ceux d’aujourd’hui se fera progressivement et s’étalera sur plusieurs années. Mi-novembre, seuls les nouveaux clients d’Orange ou ceux qui déménagent ne pourront plus être reliés par le réseau téléphonique commuté (RTC), les lignes téléphoniques traditionnelles. Ils pourront s’abonnement. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet continuer à téléphoner via une ligne fixe, mais il faudra alors s’équiper d’une box. Ils devront donc obligatoirement souscrire à un abonnement internet. Ensuite, entre 2023 et 2028, le réseau sera coupé progressivement, groupes de communes après groupes de communes.

L’État assure que le service universel du téléphone va perdurer. «L’État est le garant de ce service afin que chaque Français ait accès à un service téléphonique de qualité à un prix raisonnable», confie Delphine Gény-Stephann, secrétaire d’État auprès du ministre de l’Économie, au Parisien. Depuis février, l’opérateur historique a d’ailleurs mené une expérimentation en Bretagne où les clients de quatorze communes devaient déjà se passer du réseau traditionnel. Un test passé avec succès, selon Orange. L’opération risque toutefois d’être un peu plus complexe pour les professionnels. De fait, une grande partie des terminaux de paiement par cartes fonctionnent encore via le vieux réseau téléphonique. Toute l’infrastructure est à remettre à plat. Il en va de même pour les systèmes de surveillance des ascenseurs, les réseaux de télésurveillance, les fax… La liste de secteurs concernés est longue.

 

Gafa, l’Inde veut contrôler les données

Gafa, l’Inde veut contrôler les données

 

Un projet de loi indien vise à réguler très sévèrement le stockage des données des CAF à et autres plates-formes ; il propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens – issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce – sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d’enquête. L’Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d’accès, a favorisé l’émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local. Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d’interdire l’accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l’égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif – très répandu dans le pays – en filtrant les messages et les appels indésirables. De son côté, le fabricant d’iPhone suspecte l’appli de siphonner massivement les données personnelles des utilisateurs… Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l’accès au réseau, rendant ses téléphones inutilisables.

 

Oui à un « Airbus de l’IA »

Oui à un « Airbus de l’IA »

La proposition allemande de créer un AIRBUS de l’IA constitue une avancée certaine dans un paysage européen bien morne. Enfin la coopération prend des formes concrètes et constitue par ailleurs en soi une réponse au repli général tant sur le plan politique qu’économique. N’oublions pas qu’Airbus commencé par uen coopération sous forme de consortium pour se transformer en société avant de faire plus que jeu égal avec Boeing. Cet grâce à Airbus que la balance commerciale de la France ne s’écroule pas totalement.  Air Bus qui emploie 60 000 salariés et fait travailler ‘  3 fois plus de sous traitants dans le monde entier est devenu un géant industriel au plan mondial. Dans une interview publiée mercredi par le Figaro, le ministre allemand de l’Economie, Peter Altmaier, propose de créer “en étroite collaboration avec les acteurs existants, notamment les producteurs automobiles, un nouvel acteur sur le plan de l’intelligence artificielle, comme on l’a fait avec Airbus.” “Cet acteur unique et fort pourrait se lancer dans le développement de solutions concrètes et compétitives en matière d’intelligence artificielle”, a-t-il ajouté. A l’issue d’une rencontre avec Peter Altmaier, le ministre français de l’Economie et des Finances, Bruno Le Maire, a souligné de son côté que le futur fonds pour l’innovation doté de dix milliards d’euros devait être un préalable à un fonds européen et que cela se ferait sans doute d’abord avec l’Allemagne.

La blockchain testée aux JO

La blockchain testée aux JO

 

 Curieux cette idée de tester la blockchain aux JO de 2024. C’est en tout cas la proposition de l’ancien sous-gouverneur de la Banque de France Jean-Pierre Landau dans un rapport sur le sujet. Pour l’instant le rapport des autorités publiques aux nouvelles technologies de gestion sans intermédiaires bancaires  des transactions est encore assez ambigüe voire contradictoire. La première raison peut –être est que la compréhension d’un système très complexe dans son fonctionnement. La seconde c’est qu’on ne sait pas s’il s’agit d’un phénomène majeur ou au contraire marginal. En clair si cela est susceptible de bouleverser tout l’environnement monétaire ou simplement d’un dispositif comptable accessoire. Du coup,  le rapport propose de se préoccuper de la blockchain mais pas trop sauf peut être au niveau international. Avec uen expérimentation au JO de 2024 pour la billetterie. “Les ‘tokens’ (jetons, NDLR) donnant accès à cette cérémonie seraient émis sur une blockchain au bénéfice des personnes ayant contribué à la préparation et à l’organisation d’événements populaires autour des jeux”, explique l’ancien sous-gouverneur de la Banque de France. “Ces tokens pourraient être ensuite échangés de manière transparente sur cette même blockchain, sécurisant ainsi les transactions et réduisant d’autant les risques liés à la revente au marché noir, à la contrefaçon ainsi qu’à la fraude”, précise-t-il. Prudent le rapport estime en revanche qu’une coordination internationale dans le cadre du G20 est “indispensable”, pour adapter le cadre réglementaire afin que les cryptomonnaies restent cantonnées dans l’espace virtuel, sans “contagion” au système monétaire et financier.

La “blockchain” (“chaîne de blocs”), est une technologie de stockage et de transmission d’information qui repose sur la constitution d’une base de données comportant l’historique de tous les échanges effectués par ses utilisateurs depuis sa création, mais sans organe de régulation, comme peut l’être une banque centrale pour une monnaie par exemple. Ce registre décentralisé est partagé par ses différents utilisateurs, sans intermédiaire, ce qui permet de garantir à tout instant la sécurité et la validation des échanges de données.

Tesla : encore un accident de voiture « autonome »

Tesla : encore un accident de voiture « autonome »

 

Théoriquement les voitures autonomes doivent circuler en toute sécurité ou alors avec un pilote en semi autonomie. C’était le cas pour cette voiture Tesla qui a percuté uen voiture de police à l’Arrêt. En réalité, le concept d’autonomie complète n’est applicable qu’en site propre, complètement protégé. Et la circulation sur voie banalisée pose d’énormes problèmes de sécurité sans parler des questions juridiques.  Une Tesla qui roulait en mode semi-autonome sur une route américaine a percuté mardi une voiture de police en stationnement, un accident sans gravité mais qui intervient alors que le logiciel « Autopilot » fait déjà l’objet d’une enquête. « L’agent (de police) n’était pas dans le véhicule et le conducteur de la Tesla n’a subi que de légères blessures », a indiqué la police de Laguna Beach, située au sud de Los Angeles (ouest), sur son compte Twitter, qui montre aussi des photos des véhicules accidentés. La berline roulait « en +Autopilot+ », un logiciel que Tesla prend soin de présenter comme un système d’aide à la conduite et non de conduite autonome. Interrogé par l’AFP, le constructeur de voitures électriques haut-de-gamme a indiqué que « lorsque les conducteurs utilisent Autopilot, (le système) leur rappelle en permanence qu’il est de leur responsabilité de laisser leurs mains sur le volant et de garder le contrôle du véhicule à tout moment ». Tesla a aussi assuré avoir toujours dit que son logiciel ne rendait pas ses voitures invulnérables et rappelé qu’Autopilot est prévu pour fonctionner sur autoroute avec séparation centrale. Bien que Tesla soit un petit constructeur, qui ne produit qu’environ 100.000 voitures par an, la renommée de ses voitures électriques et le caractère médiatique de son patron Elon Musk, lui font régulièrement faire les gros titres, notamment à l’occasion d’accidents.

RGPD : personne n’est prêt

RGPD : personne n’est prêt

Le fameux Règlement général sur la protection des données, voté en mai 2016 par le Parlement européen, est entré en vigueur le 25 mais  Il définit de nouvelles règles communes qui renforcent la protection des données personnelles des citoyens, ainsi que les obligations des professionnels et des entreprises. Problème cependant, personne n’est prêt et surtout pas les PME.  Les entreprise doivent s’engager  à utiliser les données  utiliser à des fins précises, légitimes et justifiées, et encadrées par le RGPD, notamment pour améliorer le service. Et dans le cas où elle les transmettrait à des tiers (pour de la publicité ciblée par exemple), elle doit respecter des procédures de sécurité et savoir expliquer à qui et pourquoi elle transmet les données. L’utilisateur est aussi censé pourvoir accepter ou refuser ce type de pratiques.

 

Le règlement européen RGPD au fait c’est quoi ?  

 

 

 

C’est la question à laquelle répond dans une  interview à la Tribune, la présidente de la Commission nationale de l’informatique et des libertés Isabelle Falque-Pierrotin. On sait que l’enjeu est considérable.  Pour faire simple, il s’agit de réguler pour empêcher la mise en sous-traitance de l’économie européenne par les GAFA, le trafic de données notamment à des fins politiques  et pour protéger les consommateurs et les citoyens.

 

- Pourquoi considérez-vous que le RGPD est indispensable ?

ISABELLE FALQUE-PIERROTIN - Le RGPD est une grande avancée pour plusieurs raisons. Tout d’abord, il crée un marché européen de la donnée en unifiant les législations par un règlement unique. Jusqu’à présent, il fallait composer avec des textes nationaux pas forcément raccords les uns avec les autres. Deuxièmement, le RGPD remet enfin les acteurs européens et internationaux à égalité de concurrence. La disposition relative au ciblage, qui permet d’appliquer le règlement aux groupes étrangers qui traitent les données de citoyens européens, force les géants du Net américains et chinois à ne plus s’affranchir des règles de l’UE. Le troisième avantage du RGPD est qu’il renforce la capacité de dialogue de l’Europe face à ces acteurs. Google, par exemple, ne dialoguera plus séparément avec la Cnil française puis son équivalente allemande, mais avec l’autorité chef de file qui représente toutes les Cnil européennes. Enfin, le RGPD répond à la volonté de plus en plus marquée des citoyens européens de mieux maîtriser leur vie numérique. Les droits des personnes sont considérablement renforcés. Certes, la mise en conformité s’accompagne d’un investissement et d’une réorganisation interne pour les entreprises et les collectivités, mais le RGPD est une chance pour l’Europe.

 

Très peu sont prêts. Comment expliquez-vous ce retard ?

Beaucoup d’entreprises n’étaient pas conformes à la directive sur la protection des données de 1995 révisée en 2004, qui a modifié la loi de 1978. Elles partent donc de très loin, il y a un effet de rattrapage. En dépit de nos efforts de communication, la culture de la protection de la donnée peine à s’installer en France. Historiquement, la gestion des données a été cantonnée aux directions juridiques des entreprises. Elle n’a jamais été investie par les directions générales ou au niveau du comex [comité exécutif, ndlr]. Une prise de conscience est nécessaire pour que l’enjeu monte dans la hiérarchie des structures et devienne stratégique. Le RGPD pousse justement à cette prise de conscience parce que les sanctions qui résultent du non-respect du règlement sont très dissuasives. Aujourd’hui, les entreprises sont vraiment au pied du mur.

L’arme des sanctions, qui peuvent atteindre 4% du chiffre d’affaires mondial, force les entreprises à enfin se préoccuper de leur gestion des données. La menace est-elle le seul moyen efficace ?

L’ampleur inédite des sanctions est une bonne arme de dissuasion. Cette crainte nous permet de faire entrer le sujet de la protection des données dans les entreprises. Mais maintenant que nous avons leur attention, notre but est surtout de pousser un autre message, celui que la conformité au RGPD n’est pas seulement une contrainte réglementaire mais peut aussi apporter un bénéfice opérationnel. Respecter la vie privée de ses clients et collaborateurs est un facteur de différenciation concurrentielle et répond à une demande sociétale forte depuis l’affaire Snowden. Dans les secteurs qui utilisent énormément les données, comme les startups du numérique, les mentalités changent. Des fonds d’investissement commencent à se dire qu’ils ne veulent pas investir dans une startup qui ne pratique pas le « privacy by design ». La conformité est aussi un outil marketing : elle rassure les consommateurs. On l’a bien vu au CES de Las Vegas, où de plus en plus de startups françaises ont mis en avant leur éthique des données. Le RGPD est une opportunité de business.

 

Beaucoup d’entreprises restent complètement dans le flou, notamment les PME-TPE. Comment les aider à se mettre en conformité ?

Il est vrai que les grands groupes ont les moyens de s’adapter et sont en train d’investir. Les PME en revanche sont plus démunies face à la complexité du texte. En tant que régulateur, il est de notre responsabilité de les aider. Nous avons mis en place beaucoup d’outils. D’abord, les « six étapes » du RGPD, une information de base très pédagogique sur ce qu’est le RGPD et comment s’en emparer. Nous proposons aussi des outils plus opérationnels, par exemple un tutoriel pour aider à réaliser une étude d’impact. Pour les PME et les ETI tous secteurs confondus, nous travaillons avec Bpifrance à la réalisation d’un kit pratique qui sera disponible d’ici à la fin du mois de mars. Nous menons aussi une réflexion plus macro qui consiste à réutiliser les packs de conformité que nous avons développés ces dernières années. Le but est de créer un référentiel sectoriel qui permettrait d’éviter quelques démarches aux entreprises qui y adhèrent. Ainsi, les entreprises sauront exactement ce que le régulateur attend en termes de conformité dans leur secteur, en fonction des usages.

 

Allez-vous commencer votre travail de contrôle et de sanction dès le 25 mai, tout en sachant que la plupart des entreprises ne sont pas en situation de conformité ?

Le RGPD ne part pas d’une feuille blanche. Un certain nombre de principes liés à la gouvernance des données existaient déjà, comme la finalité du traitement des données par exemple. Nous les contrôlerons donc comme avant, car les entreprises sont déjà censées les avoir intégrés. La méthode sera la même : soit nous réagirons à des plaintes – nous en recevons 8.000 par an -, soit nous diligenterons nous-mêmes des contrôles, qui peuvent déboucher sur des sanctions.
En revanche, nous souhaitons faire preuve de pragmatisme et de bienveillance pour les principes nouveaux du règlement, comme le droit à la portabilité ou l’obligation de mettre en place un registre, car il faut laisser aux entreprises le temps de se les approprier. Le but d’un régulateur n’est pas d’afficher un tableau de chasse de sanctions. Dans un premier temps, nous privilégierons l’accompagnement et l’explication.

Aurez-vous une tolérance plus forte envers les PME qu’envers les grands groupes et les géants du Net, par exemple ?

Nous raisonnons au cas par cas. Une PME suscite bien sûr une certaine réserve, mais cela ne veut pas dire qu’on laissera passer n’importe quoi. Imaginez une PME dans l’économie des données de santé qui laisse passer une faille de sécurité considérable. Dans un tel cas, nous serions forcés de réagir vite. Il ne faut pas tomber dans des automatismes.

Le RGPD oblige les structures qui utilisent des données à grande échelle à recruter un Data Protection Officer (DPO). Mais il n’y a pas assez de DPO… Comment faire ?

J’entends cette difficulté, mais je crois aussi que les DPO vont « se faire » sur le terrain. Ce nouveau métier, central, nécessite des compétences transversales. Des formations se mettent en place dans tous les pays européens. Mais les entreprises peuvent aussi faire évoluer un profil existant. Le DPO peut être un juriste, un technicien, un CIL (correspondant informatique et libertés)… Son positionnement doit à la fois être proche des métiers et branché sur la chaîne de décision pour qu’il ne soit pas un personnage de paille et que ses recommandations soient suivies.

 

Avec le RGPD, le marché de la conformité explose. Vous avez d’ailleurs mis en garde contre la multiplication des arnaques…

Ce marché n’est pas nouveau mais il prend de l’ampleur. De nouveaux outils et programmes de conformité émergent à partir des règlements européens. À certains égards, je m’en réjouis car il n’y avait pas suffisamment d’acteurs investis dans l’opérationnalisation des principes européens. Cette activité peut être complémentaire de celle des régulateurs. Depuis quatre ans, nous émettons des labels qui prennent la forme de référentiels en fonction des secteurs. À présent, nous voulons progressivement passer des labels à une véritable certification, en s’appuyant sur des certificateurs privés. Cela permettra de mieux encadrer ce marché et de réduire les arnaques. Il est vrai que certains pratiquent un grossier marketing de la peur en accentuant les difficultés du RGPD pour vendre des prestations parfois inutiles à un prix exorbitant. Face à cela, nous rappelons que tout n’est pas nouveau : si vous êtes en conformité avec les réglementations précédentes, le RGPD ne nécessite qu’un travail de toilettage. Les entreprises doivent rester vigilantes, vérifier la crédibilité de leur interlocuteur et utiliser nos outils sur notre site pour identifier leurs besoins de conformité.

Vous insistez sur les nouveaux droits que le RGPD offre aux citoyens pour mieux contrôler leur vie numérique. Mais les usages révèlent une attitude paradoxale : d’un côté les citoyens se méfient des acteurs qui « aspirent » leurs données de manière non transparente, de l’autre ils continuent d’utiliser en masse ces services…

Le « privacy paradox » est une réalité mais je crois que le RGPD arrive à point nommé pour appuyer un changement de culture vis-à-vis des données personnelles. Il y a de plus en plus de bloqueurs de publicité. De plus en plus de profils Facebook ferment, ce qui n’était pas le cas il y a quelques années. On sent bien que les services qui se présentent comme plus respectueux des données recueillent de plus en plus d’intérêt. Il est vrai que beaucoup de droits existants, comme le droit d’accès ou le droit de rectification, sont peu utilisés, en grande partie car ils restent peu connus. Mais le droit à l’oubli sur les moteurs de recherche est un vrai succès en France et en Europe. Je suis également persuadée que le nouveau droit à la portabilité des données, ainsi que la possibilité de recours collectifs face aux acteurs qui ne respectent pas leurs obligations, vont être plébiscités. Le RGPD va accélérer cette prise de conscience, qui est pour l’heure marginale. C’est un vrai choix politique de la part de l’Union européenne.

Dans quel sens ?

Avec le RGPD, nous affirmons une certaine vision de l’innovation. Contrairement à ce qui peut être dit, le règlement ne freinera pas l’innovation, bien au contraire. Commercialement et stratégiquement, l’idée de l’Europe est de bâtir une innovation robuste parce qu’elle est construite sur le respect des droits, qui sont pris en compte en amont. Bien sûr, il y aura toujours des paradis de la donnée. Mais est-ce le modèle que l’Europe veut construire ? Non. Le RGPD incarne un modèle d’innovation durable.

 

Régulation d’internet : la France lance une consultation mondiale

Régulation d’internet : la France lance une consultation mondiale

 

 

La France veut réfléchir à des régulations « intelligentes » dans dix grands domaines, comme « la fiscalité », « le partage des données industrielles », « la modération des contenus en ligne » et notamment des contenus haineux, « la protection des données personnelles », ou encore le « droit des affaires » a indiqué M. Mahjoubi, le secrétaire d’Etat au numérique.  La France va donc lancer une consultation internationale en vue de régulations mondiales d’internet, a déclaré vendredi le secrétaire d’Etat au numérique Mounir Mahjoubi, en marge du salon des startups VivaTech. . Cette consultation sera nationale, européenne, et aussi internationale, en demandant notamment la participation des géants mondiaux de l’internet, a précisé le secrétaire d’Etat. « Je veux convaincre ces grandes plateformes de discuter sur ces régulations mondiales », a indiqué M. Mahjoubi à l’AFP.

 

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol