Archive pour le Tag 'données'

Santé : L’enjeu d’un espace européen des données médicales

Santé : L’enjeu d’un espace européen des données médicales

 

La Commission européenne met en œuvre l’espace européen des données de santé (EDHS), qui doit permettre la formation d’un marché européen unique des thérapies numériques compétitif face à la concurrence américaine, expliquent, dans une tribune au « Monde », des entrepreneurs, médecins, patients engagés dans l’innovation en santé numérique.

 

La Commission européenne a choisi, le 20 juillet, de confier au Health Data Hub, un consortium de seize partenaires issus de dix pays différents, la construction, dès septembre, d’une première version du futur « espace européen des données de santé » (European Health Data Space, EDHS en anglais).

Début mai, elle présentait sa proposition de règlement relatif à l’espace européen des données de santé, qui sera prochainement soumis au Conseil de l’Union européenne puis au Parlement européen. Le choix de l’opérateur, désormais entériné, rapproche donc un peu plus l’EDHS de la réalité, sans toutefois lever toutes les « réserves ». Celles-ci portent notamment sur le choix de Microsoft Azure, un acteur américain, comme hébergeur de ces données de santé, et sur l’assurance que ces données ne pourront pas franchir l’Atlantique.

A cette question, comme à d’autres qui ne manqueront pas de se poser, il faudra apporter des réponses fortes et transparentes. Celles-ci garantiront une confiance sans laquelle l’investissement à long terme serait compromis. Or, l’enjeu est de taille. La vocation de l’EDHS est de « placer les citoyens au centre, en leur donnant le pouvoir de contrôler leurs données afin de bénéficier de meilleurs soins de santé », selon les mots de Stella Kyriakides, commissaire européenne à la santé et à la sécurité alimentaire.

L’EDHS ouvre la voie à une vague d’innovations au profit des patients et doit aussi permettre la formation d’un marché européen unique des thérapies numériques, doté de règles communes, qui, à son tour, favorisera l’émergence d’un tissu de technologies de la santé européen compétitif face à la concurrence américaine.

Au cœur de cette révolution – et c’est ce qui rend la question de la protection des données si sensible – se trouvent les « données patients ». Valorisées par l’intelligence artificielle (IA) et le big data, celles-ci sont une mine d’or pour l’identification de marqueurs biologiques et l’interprétation des données.

Ces marqueurs sont eux-mêmes à la base de nouveaux outils de diagnostic (imagerie médicale, biologie) et de prévention (interprétation des symptômes, analyse des interactions médicamenteuses) qui se déploient à grande vitesse dans les hôpitaux et les cabinets médicaux.

Dans le diabète et en cancérologie, des dispositifs « point of care » [« au plus près des patients »], installés sur les smartphones et rendus intelligents grâce au machine learning, accompagnent les patients dans le suivi de leur pathologie et de leur thérapie, tout en gardant les professionnels de santé « dans la boucle ».

Transfert de données aux États-Unis : l’ Irlande dit non

Transfert de données aux États-Unis : Irlande dit non

 

Rien est toujours complètement réglé entre les États-Unis et l’Europe concernant le transfert des données outre-Atlantique. En attendant, la Cnil irlandaise a pris la décision de bloquer les transferts des données européennes de Meta outre-Atlantique.

Désormais, les autres régulateurs européens, à l’instar de la Cnil en France, vont devoir donner leur avis sur le blocage des données des utilisateurs européens de Meta. Selon un porte-parole de l’IDPC, cité par Politico, ils disposent d’un mois pour le faire. Ensuite, le couperet pourrait définitivement tomber, et potentiellement mener à un arrêt des services de Meta (dont Facebook et Instagram) en Europe.

Cependant Meta se tirerait une balle dans le pied. L’Europe est son principal marché à l’export, et lui rapporte 19,68 dollars en moyenne par utilisateur, contre 4,89 dollars par utilisateur de la région Asie-Pacifique.

Métavers : Pompe à données et à fric

Métavers :  Pompe à données et à fric
Loin de l’idéal du web3 décentralisé, Mark Zuckerberg voit surtout le métavers comme un relais de croissance pour son empire des réseaux sociaux. Un moyen de relancer son business publicitaire menacé, de devenir un acteur du paiement grâce aux NFT, et surtout de se positionner comme une porte d’entrée incontournable dans ce nouvel internet grâce à ses casques Oculus Quest et son Quest Store. ( un papier de la Tribune, extrait)

Le métavers est-il vraiment le futur d’Internet et l’avènement d’un nouveau monde « ouvert et décentralisé » où le réel et le virtuel s’entremêleront dans une fluidité parfaite ? Ou est-ce simplement un coup marketing génial <https://www.latribune.fr/technos-medias/innovation-et-start-up/realite-virtuelle-le-metavers-de-facebook-a-mi-chemin-entre-le-pari-fou-et-le-coup-marketing-894679.html>pour rendre désirable l’utilisation de la réalité virtuelle et augmentée, technologies qui arriveront enfin à maturité dans les prochaines années, pour les transformer en machines à cash et conforter au passage les positions dominantes de certains géants actuels du numérique ? La question mérite d’être posée au regard de la stratégie affichée par les acteurs les plus entreprenants sur le sujet, à commencer par le bien nommé Meta <https://www.latribune.fr/technos-medias/facebook-le-groupe-va-s-appeler-meta-895373.html>, la maison-mère de Facebook, Instagram, Messenger et WhatsApp depuis la fin de l’année 2021.
Plus qu’une coqueluche, le métavers est carrément devenu la nouvelle raison d’être de Meta, et l’obsession de son directeur général, Mark Zuckerberg. L’ensemble du business de l’entreprise pivote dans cet univers et ses nouvelles applications « révolutionnaires ». Persuadé de longue date que la réalité virtuelle et augmentée vont refaçonner les interactions sociales et ouvrir de nouvelles opportunités publicitaires pour les marques, Mark Zuckerberg veut que Meta devienne la plateforme de référence de ce web3. Le directeur général de Méta s’est engagé à investir 10 milliards de dollars par an <https://www.latribune.fr/technos-medias/facebook-en-plein-scandale-promet-10-000-emplois-a-l-ue-pour-batir-son-metaverse-894595.html> dans la prochaine décennie pour façonner ce monde virtuel et immersif rempli d’avatars.
Autrement dit, Zuckerberg veut éviter la ringardisation et l’effacement progressif de ses réseaux sociaux, qui dominent actuellement le web2. L’idée est de profiter de leur puissance -chacun regroupe entre 2 et 3 milliards d’utilisateurs actifs par mois dans le monde- pour que les nouveaux usages du métavers se démocratisent aussi grâce et avec eux. L’objectif est en fait de reproduire pour le web3 le modèle du web2 qui a si bien réussi aux Gafam (Google, Apple, Facebook, Amazon, Microsoft) : concentrer les usages numériques autour de quelques plateformes dominantes, structurantes et incontournables. Et tant pis pour l’énorme contradiction entre l’idéal ouvert et décentralisé du web3 et la stratégie de plateformisation du métavers que Mark Zuckerberg souhaite imposer…

 

 

Métavers : Une collecte de données sans précédent !

Métavers : Une collecte de données sans précédent !

 

Métavers est encore un concept assez fumeux hormis l’accès aux jeux. Par contre, il pourra permettre une collecte sans précédent des données utiles aux marchands du temple. NDLR

Qui n’a pas encore entendu parler du métavers ? Cette notion a récemment pris de l’importance dans les médias qui nous la présentent tout en essayant de comprendre sa signification et d’interpréter son influence sur notre avenir. Qu’il s’agisse de fréquenter des amis, de faire des achats, ou encore de créer son entreprise, tout cela pourrait avoir lieu dans un nouvel environnement qui ne fait pas la distinction entre la entre la réalité et le virtuel. Par Ola Mohty, Juriste et experte RGPD chez Data Legal drive.

L’expression « métavers » n’est pas nouvelle. Elle est apparue il y a 30 ans dans le roman de science-fiction « Snow Crash » de Neal Stephenson. Cette notion vague fait référence à un nouvel espace. Il ne s’agit en effet pas d’un site de commerce classique ou encore d’une plateforme web de mise en contact. Ce concept innovant s’appuie sur un objectif d’immersion des utilisateurs d’une part et une interaction entre plusieurs personnes se trouvant dans différents lieux d’autre part.

Bien que pas encore pleinement abouti, plusieurs entreprises commencent à s’approprier ce concept dont notamment Facebook qui s’appelle désormais « Meta ». Ce géant du web précise vouloir « construire un avenir où les gens ont plus de moyens de jouer et de se connecter »[1]. Cette invention suscite toutefois de nombreuses inquiétudes en matière de protection des données personnelles. Il convient ainsi de s’interroger sur ses enjeux juridiques et sur la règlementation applicable.

 

Une des principales questions qui se posent au sujet des métavers concerne les données et leur protection. Se présentant comme une réalité virtuelle avec des avatars contrôlés par l’utilisateur, cette nouvelle technologie est susceptible d’entraîner la naissance de nouvelles catégories de données personnelles d’une part et une augmentation du nombre des données personnelles collectées d’autre part.

Or, ces données sont-elles vraiment des données à caractère personnel ? Bien que des avatars y circulent, les données pouvant être collectées permettent de révéler de nombreuses informations sur les utilisateurs. Ces derniers sont représentés par des personnages fictifs et ceux-ci constituent une version fidèle de la personne. Il ne fait, dès lors, aucun doute que les données collectées permettent de remonter aux individus concernés. Plus encore, il semble que ces données aideront à mieux comprendre les processus de pensée des clients.

En effet, les applications mobiles et les sites web permettent aujourd’hui aux entreprises de comprendre comment les individus se déplacent sur internet ou encore comment ils naviguent via une application. Demain, avec les plateformes métaverses, il serait possible de suivre les individus de manière beaucoup plus intime. L’utilisation du métavers impliquera alors une collecte de données sans précédent. Il pourrait s’agir d’expressions faciales, de gestes ou encore d’autres types de réactions qu’un avatar pourrait produire lors de ses interactions dans le métavers. Ces informations permettront aux entreprises de mieux comprendre le comportement des utilisateurs et d’adapter les campagnes publicitaires de manière très ciblée.

La collecte des données ne se fera toutefois pas de manière directe. La personne n’aura pas à fournir de manière proactive des données personnelles en accédant à une page web ou à une application. Les données seront recueillies en temps réel lorsque les utilisateurs se trouvent dans leur métavers, interagissant par l’intermédiaire de leurs avatars. Ceci pourra être à l’origine de divers risques puisque l’utilisateur ne sera pas forcément conscient des données qu’il émet.

 

Les règles de droit permettant d’encadrer ce nouvel espace existent-elles déjà ? La mise en place de nouvelles règles ou encore d’un nouveau règlement européen est-elle nécessaire pour règlementer cet univers ?

Le RGPD régit le traitement des données à caractère personnel appartenant à des personnes au sein de l’Union. Pour assurer une protection optimale de ces personnes, il définit les données personnelles de manière large. Est considérée comme une donnée personnelle toute information se rapportant à une personne physique identifiée ou identifiable[2]. Il suffit donc de pouvoir remonter à la personne, quoique de manière indirecte, pour admettre le caractère personnel de la donnée. Ainsi, le terme « donnée personnelle » peut comprendre un large panel d’informations allant du prénom de la personne à un simple numéro de référence. Les données auxquelles l’utilisation du métavers donnera naissance entrera dans cette catégorie dès lors qu’elles révèlent des renseignements sur une personne. Tel est le cas de tout geste ou encore de toute réaction élaborés par un avatar.

Le champ d’application territorial du RGPD est également très large. Deux critères principaux doivent être pris en compte, le critère d’ «établissement » et le critère de « ciblage ». Ainsi, du moment où une entreprise cible des personnes se trouvant sur le territoire de l’Union, les activités de traitements concernées doivent être soumises au RGPD. Par conséquent, pour déterminer si le RGPD s’applique ou pas, il faudrait identifier notamment le lieu où se trouve la personne à laquelle appartiennent les données. Or, dans le cadre du métavers, les utilisateurs sont représentés par des personnalités virtuelles qui peuvent se trouver dans des endroits différents. Faudrait-il alors se baser sur la localisation de la personne qui fait fonctionner l’avatar ou il serait plus approprié de se baser sur l’avatar lui-même ?

Le caractère sans frontières du métavers avec des avatars qui y naviguent rendent en effet les choses complexes. Supposons que c’est la règlementation du lieu où se trouve la personne qui s’applique et donc le RGPD dans le cas où l’individu se trouve dans l’Union européenne, d’autres interrogations peuvent prendre naissance portant sur les principes de transfert des données. A partir de quel moment doit-on considérer qu’il s’agit d’un transfert de données ? Serait-il suffisant de se contenter de se baser sur les garanties de transfert actuelles pour valider la licéité d’un transfert de données ? Ces évolutions technologiques ne nécessitent-elles pas de repenser les outils juridiques applicables ? La nécessité d’assurer une protection optimale des données semble pencher vers cette alternative.

Des règles à renforcer

Spécifier quelle entité doit déterminer comment et pourquoi les données personnelles seront traitées et quelle entité traite les données pour le compte de quelle entité, pourrait s’avérer difficile dans le métavers. Pour ce faire, il faudrait sans doute décrypter un ensemble de relations complexes et il n’est pas certain que des réponses claires et évidentes puissent être trouvées. L’identification du responsable de traitement pourrait ainsi être à l’origine de plusieurs difficultés. Elle est toutefois nécessaire dans le cadre de la répartition des responsabilités et des obligations vis-à-vis des utilisateurs.

Plusieurs autres questions peuvent se poser. Y aura-t-il un administrateur principal du métavers qui collectera toutes les données personnelles fournies dans le métavers et qui déterminera comment ces données personnelles seront traitées et partagées ? Ou bien plusieurs entités collecteront ces données par le biais du métavers et chaque entité déterminera ses propres objectifs ? Comment le consentement des utilisateurs doit-il être recueilli ? Comment les différentes entités doivent-elles chacune afficher sa propre politique de confidentialité ?

La CNIL attire l’attention sur la nécessité d’assurer une information renforcée des personnes et de respecter les principes relatifs au consentement. Or, il n’est pas certain que l’utilisateur puisse profiter pleinement de ce dispositif dans le cas où il refuse de donner son consentement. Celui-ci ne serait dès lors pas collecté de manière libre. Il faudrait ainsi s’assurer que la modalité de collecte du consentement dans le métavers doit être identique à celle pratiquée dans le « monde réel » ou s’il faudrait recourir à d’autres modalités qui tiennent compte des particularités de cet univers.

De même, le RGPD exige que les informations obligatoires soient transmises à la personne concernée au moment de la collecte des données pour lui permettre de prendre une décision en connaissance de cause. Cette contrainte semble difficile à respecter dans le métavers où l’échange de données se fait de manière très rapide et implique un grand nombre de participants.

Face à ce constat, il serait difficile d’échapper à une revue des lois actuelles. Assurer une protection optimale des données personnelles dans ce nouveau monde semble toutefois être un défi. La quantité et le type de données que ce dispositif permet de collecter sont inédits. La possibilité d’enregistrer les moindres réactions des personnes permettront en effet d’ouvrir la voie à un profilage d’une finesse exceptionnelle. Ceci pourrait renforcer le pouvoir des détenteurs de ces données, rendant ainsi en quelque sorte obsolètes les règles actuelles sur la protection des données.

______

[1] https://fr-fr.facebook.com/MetaFrance/
[2] Règlement (UE) 2016/679 du parlement européen et du conseil du 27 avril 2016, article 4 1).

Données personnelles: sous la tutelle des Etats-Unis ?

Données personnelles: sous la tutelle des Etats-Unis ?  

Fondateur d’une start-up informatique, Alain Garnier s’inquiète, dans une tribune au « Monde », d’un accord passé en catimini entre Bruxelles et Washington sur le transfert de données entre les deux continents, craignant un troc « données contre gaz ».(le Monde)

 

Tribune.

 

Vendredi 25 mars, dans une relative indifférence, Ursula von der Leyen, présidente de la Commission européenne, et Joe Biden, président des Etats-Unis, annonçaient qu’ils étaient parvenus à un accord portant sur un nouveau cadre pour le transfert des données personnelles entre les deux continents.

Une annonce dont les contours doivent encore être précisés, mais qui pourrait ruiner des années d’efforts pour instaurer notre souveraineté numérique. Reste un espoir, celui que cet accord ne soit en réalité qu’un leurre pour profiter du gaz américain le temps que la crise ukrainienne s’apaise et avant que la Commission européenne, une fois encore, ne le retoque.

Car le transfert de données personnelles entre l’Europe et les Etats-Unis n’a jamais vraiment été une évidence. Le Safe Harbor mis en place par l’Union européenne en l’an 2000, autorisait ce transfert vers les Etats-Unis, considérant que la législation américaine offrait des garanties suffisantes quant à la protection de la vie privée.

Annulé par un arrêt de la Cour de justice européenne en 2015, cet accord renaissait tel le phénix un an plus tard sous le nom de Privacy Shield. Mais, nouveau coup de tonnerre en 2020, ce dernier était à son tour déclaré caduque, car incompatible avec l’article 5 du réglement général sur la protection des données (RGPD).

Ces revirements successifs font écho à la politique américaine qui n’a cessé d’assouplir ses lois sur la surveillance des données personnelles depuis vingt ans. Chaque évolution – Patriot Act en 2001, Foreign Intelligence Surveillance Act (FISA) en 2008 et Cloud Act en 2018 – a donné toujours plus de nouveaux pouvoirs aux instances juridiques et gouvernementales sur les données personnelles hébergées par les entreprises américaines, que leurs serveurs soient situés dans le pays ou ailleurs dans le monde. Une vision incompatible avec les règles européennes strictes en matière de protection des données.

La fin du Privacy Shield avait durement secoué les géants américains du numérique. Et les premiers effets commençaient tout juste à se faire sentir. La Commission nationale de l’informatique et des libertés (CNIL) avait ainsi appelé en 2021 le gouvernement à écarter le choix de Microsoft Azure pour l’hébergement des données de santé de son fameux Health Data Hub.

Plus récemment, elle mettait en garde les établissements d’enseignement supérieur quant à l’utilisation des suites collaboratives proposées par les éditeurs américains. Enfin, début février, elle mettait en demeure un éditeur de site Web utilisant Google Analytics, considérant le transfert de ces données vers les Etats-Unis comme illégal.

Faciliter l’accès des données de santé ?

Faciliter l’accès des données de santé ?

 

Le retard pris dans le déploiement du Health Data Hub, infrastructure unique facilitant l’accès aux données de santé de façon sécurisée, est inquiétant, affirment les membres de son conseil scientifique consultatif dans une tribune au « Monde ».

 

Tribune.

 

La crise sanitaire a mis en lumière le rôle que jouent les données pour assurer le pilotage des mesures collectives, permettre l’amélioration des soins, et faire avancer les connaissances scientifiques. La France a tous les éléments pour utiliser aux mieux celles qui sont disponibles, grâce à l’excellence de ses bases de données administratives et la richesse de ses registres et cohortes pour la recherche. Elle a aussi une stratégie pour exploiter son Système national des données de santé, dont un des éléments est le Health Data Hub, groupement d’intérêt public créé en 2019.

La mission de cette plate-forme est de faciliter l’accès aux données de santé sous hautes conditions de sécurité et dans le respect des droits des malades. En deux ans, les progrès ont été remarquables. Grâce à la mise en place de cette infrastructure, technique comme réglementaire, une vingtaine de grandes collections de données ont été identifiées comme étant d’intérêt général, en plus des bases administratives telles que celle de l’Assurance maladie, des établissements de santé et des causes médicales de décès.

Un guichet unique d’analyse a été constitué, ainsi qu’un support pour une utilisation efficace de ces ressources. Quarante-huit projets innovants ont été sélectionnés par appels à projet, et d’autres ont été réalisés pour venir en appui de la gestion de la crise sanitaire. Le Health Data Hub est déjà résolument tourné vers l’Europe et participe activement aux travaux pour la mise en place, par la Commission européenne, d’un espace commun des données de santé.

Techniquement, ces avancées sont rendues possibles par l’utilisation simultanée de données dispersées dans des bases distantes. Cela réduit les délais d’accès aux données et permet de répondre à des questions de recherche, sur les pratiques réelles et leurs conséquences. Cela favorise aussi la réalisation de projets au service des soins, pratiquement impossibles à mettre en œuvre autrement. C’est la bonne approche pour accélérer la compréhension des inégalités d’accès aux traitements, des réponses différentes des patients aux prises en charge, ou pour surveiller à long terme, par exemple, le rapport bénéfice/risque des produits de santé.

Actuellement, le Health Data Hub accompagne un projet qui vise à prévenir les poussées d’insuffisance cardiaque en analysant les données produites par les pacemakers connectés, un autre sur un cancer rare, le sarcome, pour lequel les essais cliniques traditionnels sont impossibles, ou encore un travail de développement d’outils de prédiction de l’évolution du cancer de la prostate.

L’enjeu de l’hébergement des données

 L’enjeu de l’hébergement des données

La tribune de Me Laurent Marville (dans l’Opinion, extrait)

Laurent Marville est avocat-associé du cabinet Reinhart Marville Torre

 

Sur ce nouveau terrain de l’affrontement entre les Etats, s’opposent principalement une approche inscrite dans une tradition humaniste héritée des Lumières estimant que le droit sur ses données constitue un droit personnel, fondamental et inaliénable et une autre approche privilégiant la défense des intérêts stratégiques des Etats et ignorant largement le droit des personnes.

Surveillance. A la suite de la France, qui, dès 1978, consacrait la notion d’un droit des personnes sur leurs données personnelles, cette vision fut consacrée par l’Union Européenne en 2016 avec le RGPD. Ce droit personnel ne peut faire l’objet d’une cession ou d’une patrimonialisation. Pour simplifier, une personne doit pouvoir être en mesure de contrôler l’utilisation qu’un tiers peut faire de ses données.

Cette vision est loin d’être dominante dans le monde. La plupart des grandes puissances consacrent, à l’inverse, un droit stratégique des Etats à disposer des données personnelles, de leurs concitoyens en Chine, et sur les citoyens du monde pour les Etats Unis. Les droits des individus sur leurs données personnelles constituent désormais un indicateur des libertés individuelles.

En Chine, l’objectif de la réglementation (loi de 2020) consiste « à sauvegarder la souveraineté du cyberespace à garantir la sécurité nationale ». Ce pays vient en 2021 d’adopter une réglementation qui, en apparence, reprend certains des principes fondamentaux du RGPD mais dont la finalité essentielle consiste à assurer à l’Etat chinois un contrôle des sociétés technologiques qui devront gérer les données personnelles en fonction de « leur pertinence pour la sécurité nationale ». Pékin exerce une surveillance d’Etat sans cesse renforcée, organisant notamment une notation du comportement de ses citoyens.

Si les Etats Unis partagent avec la Chine une vision utilitariste et une volonté de surveillance, ils sont aussi soucieux d’assurer la prospérité de leurs champions économiques. Or les GAFAM ont assis leur prospérité sur un modèle économique permettant une exploitation sans freins des données personnelles. Aussi, les Etats Unis se sont délibérément dotés de réglementations (Patriot Act et Cloud Act) permettant un contrôle important des personnes et particulièrement de celles qui ne bénéficient pas de droits de résidence dans ce pays. Ces réglementations à vocation extraterritoriale leur permettent donc, en toute légalité, de pouvoir appréhender des données et informations personnelles en violation totale du RGPD.

Face à ces attitudes ou réglementations ouvertement hostiles, est-il possible pour l’Union Européenne de ne pas réagir ? Dans cette « guerre » pour le contrôle des données, nous n’avons que trop tardé, aveuglés par nos préjugés candides et le nécessaire respect des droits des personnes.

Cette candeur de nos gouvernants, voire cette pusillanimité à répliquer, est particulièrement alarmante

A ce jour, la seule riposte mise en place l’a été sur le plan juridique et dans un registre strictement défensif. Ainsi l’arrêt de la Cour de Justice de l’Union Européenne du 16 juillet 2020 a estimé que, du fait de ces réglementations, les opérateurs américains n’assuraient pas un niveau de protection suffisant des données personnelles des Européens. Pour autant, le législateur, communautaire et national, demeure sans aucune réaction et il n’est nullement même envisagé la mise en place de dispositions offensives symétriquement équivalentes à celle des Etats Unis.

Cette candeur de nos gouvernants, voire cette pusillanimité à répliquer, est particulièrement alarmante sur le terrain économique. En effet, la principale des ripostes consisterait à avoir les moyens de son indépendance et donc de pouvoir héberger des données. A ce jour il n’existe aucun acteur significatif susceptible d’offrir une alternative réelle aux géants américains.

La France prétend devenir un Eldorado en la matière mais croit-elle vraiment en sa politique alors que certaines administrations, et symboliquement le health data hub, choisissent Microsoft comme hébergeur ? Il est évident que l’Etat ne peut sérieusement et sans incohérence encourager un hébergement des données à des opérateurs français alors que lui-même ne dispose pas d’autre choix que de devoir recourir au GAFAM.

Croire à des projets simplement hexagonaux est sur ce point particulièrement naïf. Il est évident qu’un opérateur majeur devrait par essence avoir une taille et une vocation communautaire. Cette absence de vision ne peut que réjouir nos concurrents chinois et américains qui, à l’évidence, ont de beaux jours devant eux et pourront sereinement se partager le trésor de nos données personnelles.

Sans pour autant passer dans le temps des cyniques, l’Union Européenne doit entrer dans le camp des réalistes.

Laurent Marville est avocat-associé du cabinet Reinhart Marville Torre.

Protéger juridiquement les données personnelles menacées par les logiciels espions

 

L’édiction de nouvelles normes internationales est urgente pour protéger les données personnelles, soulignent, dans une tribune au « Monde » (extrait) , les avocats William Bourdon et Vincent Brengarth, et Christophe Deloire, secrétaire général de Reporters sans frontières.

 

Tribune.

 Edward Snowden, par ses révélations en 2013, a ouvert les yeux de milliards de citoyens. Certains responsables publics, qui, bien sûr, devaient le supputer, telle Angela Merkel, ont été définitivement convaincus que leur portable était en permanence tracé par les grandes écoutes américaines. Comme M. Snowden l’a rappelé récemment, dans une interview publiée le 19 juillet, par Le Monde, s’agissant de la surveillance d’Etat : « Il y avait un voile de légitimité et de légalité, des procédures. Ce n’était déjà pas suffisant mais au moins c’était ça. »

Nous avons aussi compris que l’aggravation de la menace terroriste a conduit les Etats démocratiques à laisser globalement carte blanche aux services de renseignement, sans ériger des contre-pouvoirs effectifs permettant de les contrôler. Ces derniers ne cessent d’exiger, au nom de l’efficacité qui leur est demandée, de plus en plus de prérogatives. C’est vainement, que des parlementaires français se sont émus de l’absence de dispositions permettant de contrôler les conditions dans lesquelles sont mutualisées des données personnelles entre les services français et les services étrangers, et ce de façon de plus en plus systématique et massive.


Les révélations du consortium de médias, coordonné par l’équipe de Forbidden Stories en coopération avec Amnesty International, donnent le vertige et devraient tous lourdement nous inquiéter. Elles ont trait à l’utilisation du logiciel Pegasus par des services étrangers, mais elles appellent à l’instauration urgente de garde-fous pour nous protéger de l’ensemble du secteur de la surveillance.

 

Les informations exploitées démontrent que la société israélienne NSO vend un logiciel utilisable par les Etats pour accéder aux données les plus intimes. Il constitue un outil pour espionner les téléphones de dizaines de milliers de personnes et sans doute plus, permettant à certains services d’Etat (ou à des factions) d’exercer une surveillance étroite au jour le jour sur des personnes considérées comme dissidentes ou sources d’intérêts, en tout cas n’ayant rien à voir avec le terrorisme. Il y va de la protection de nos libertés comme de celle des démocraties.

Lire aussi : Comment la société israélienne NSO Group a révolutionné l’espionnage

La liste des cibles est ahurissante et ce n’est sans doute qu’un début. Il est à craindre que la société NSO ait déjà développé d’autres technologies sophistiquées, sans même parler de ses sociétés cousines à Tel-Aviv ou ailleurs. Une nouvelle association de malfaiteurs s’est scellée entre la société NSO et des services d’Etats étrangers pour favoriser une mécanique de contrôle et de persécution, qui, il faut l’espérer, ne restera pas impunie.

Il vous reste 55.13% de cet article à lire. La suite est réservée aux abonnés.

Trafic de données : une amende de 746 millions pour Amazon

Trafic  de données : une amende de 746 millions pour Amazon

Une amende de 746 millions d’euros au Luxembourg pour non-respect de la réglementation européenne sur les données privées des internautes.

Amazon avait déjà été condamné fin 2020 à 35 millions d’euros d’amende par la France pour non-respect de la législation sur les cookies, les traceurs publicitaires. Google avait alors également été condamné à une amende de 100 millions d’euros. Hors d’Europe, la justice américaine a validé en 2020 une amende de 5 milliards de dollars infligée à Facebook pour n’avoir pas su protéger les données personnelles.

Selon le nouveau règlement européen sur les services numériques, les plateformes ne pourront plus utiliser des données collectées à travers plusieurs services pour cibler un utilisateur contre son gré. Elles devront aussi fournir aux entreprises clientes l’accès aux données qu’elles génèrent.

Business–santé: Doctolib vend des données au privé

Business–santé: Doctolib vend des données au privé

Incapable de mettre au point un logiciel permettant de prendre rendez-vous pour la vaccination, l’administration française en particulier a notamment sous-traité à doctolib cette tâche très rémunératrice .  Sur les énormes effectifs de la sécu y compris dans le domaine numérique.  Doctolib en profite pour revendre à des Allemands une partie de ces informations ( l’Allemagne possède un fort secteur pharmaceutique très intéressé par ces données)

Selon une étude publiée le 21 juin par le site allemand Mobilsicher, spécialiste des questions de confidentialité des données numériques, Doctolib a transmis des informations sur les activités de ses utilisateurs à Facebook et la firme de e-marketing Outbrain.

Ces informations, transmises sous forme d’URL, contenaient notamment la retranscription des recherches effectuées par les utilisateurs allemands sur la plateforme. Pouvaient apparaître la spécialité médicale recherchée (neurologue, psychologue, etc.), mais aussi l’adresse IP – le numéro d’identification unique – de l’appareil utilisé.

« Les informations transmises peuvent donc difficilement être considérées comme anonymes », estime Mobilsicher, qui souligne que « les informations sur les rendez-vous effectivement pris n’étaient pas enregistrées ».

Doctolib vend des données au privé

Doctolib vend des données au privé

Incapable de mettre au point un logiciel permettant de prendre rendez-vous pour la vaccination, l’administration française en particulier a notamment sous-traité à doctolib cette tâche très rémunératrice .  Sur les énormes effectifs de la sécu y compris dans le domaine numérique.  Doctolib en profite pour revendre à des Allemands une partie de ces informations ( l’Allemagne possède un fort secteur pharmaceutiqueTrès intéressé par ces données)

Selon une étude publiée le 21 juin par le site allemand Mobilsicher, spécialiste des questions de confidentialité des données numériques, Doctolib a transmis des informations sur les activités de ses utilisateurs à Facebook et la firme de e-marketing Outbrain.

Ces informations, transmises sous forme d’URL, contenaient notamment la retranscription des recherches effectuées par les utilisateurs allemands sur la plateforme. Pouvaient apparaître la spécialité médicale recherchée (neurologue, psychologue, etc.), mais aussi l’adresse IP – le numéro d’identification unique – de l’appareil utilisé.

« Les informations transmises peuvent donc difficilement être considérées comme anonymes », estime Mobilsicher, qui souligne que « les informations sur les rendez-vous effectivement pris n’étaient pas enregistrées ».

Un détournement des données par l’armée américaine

Un détournement des données par l’armée américaine

Un article de Byron Tau Dans le Wall Street Journal

 Des personnes habitant dans le monde entier fournissent à leur insu des renseignements basiques à l’armée américaine, en utilisant simplement une application grand public sur leurs smartphones.

Premise, une société de San Francisco, paie des utilisateurs, dont beaucoup habitent dans des pays émergents, afin qu’ils accomplissent des petites tâches en échange d’un peu d’argent. Ces missions consistent souvent à prendre des photos, à répondre à des enquêtes ou à effectuer d’autres collectes de données simples ou des relevés d’observation, par exemple compter des distributeurs automatiques de billets ou pointer des prix de biens de consommation comme les denrées alimentaires.

Environ la moitié des clients de la société sont des entreprises privées à la recherche d’informations commerciales, indique Premise. Ces dernières peuvent vouloir obtenir des données sur l’implantation de leurs concurrents, faire du repérage pour des emplacements et effectuer d’autres tâches élémentaires d’observation dans les lieux publics. Ces dernières années, Premise a également commencé à travailler avec l’armée américaine et des gouvernements étrangers, en mettant en avant les possibilités offertes par sa main-d’œuvre flexible, internationale et travaillant à la tâche capable de faire des missions de repérage basiques et de sonder les opinions publiques.

Premise fait partie de ses entreprises, dont le nombre augmente, qui se situent à cheval entre les services aux consommateurs et la surveillance pour le compte de gouvernements. Ces sociétés s’appuient sur la prolifération des téléphones portables pour transformer des milliards d’appareils en capteurs recueillant des informations d’origine source ouverte (OSINT) utiles aux services de sécurité gouvernementaux du monde entier.

« Les données obtenues grâce à nos collaborateurs ont permis d’informer les décideurs politiques sur la meilleure façon de gérer l’hésitation à se faire vacciner, les risques liés à l’ingérence étrangère et à la désinformation lors des élections, ainsi que, par exemple, la localisation et la nature des activités des gangs au Honduras »

L’entreprise affirme que 90 % de son travail consiste à évaluer le ressenti des opinions publiques et à étudier la géographie humaine en rémunérant les utilisateurs pour qu’ils répondent à des enquêtes. Elle obtient ainsi des données qui, selon elle, peuvent servir aux entreprises commerciales, aux organisations à but non lucratif et aux gouvernements. Certains de ses projets, moins nombreux, consistent à demander aux utilisateurs de se déplacer sur le terrain pour accomplir des missions, par exemple prendre des photos ou suivre un itinéraire prédéterminé. Parfois, ces opérations impliquent la collecte de données concernant les réseaux mobiles situés à proximité ou d’autres téléphones portables, explique la société, comparant cette pratique à la façon dont Google et Apple cartographient les réseaux Wi-Fi avec les smartphones utilisant leurs systèmes d’exploitation.

« Les données obtenues grâce à nos collaborateurs ont permis d’informer les décideurs politiques sur la meilleure façon de gérer l’hésitation à se faire vacciner, les risques liés à l’ingérence étrangère et à la désinformation lors des élections, ainsi que, par exemple, la localisation et la nature des activités des gangs au Honduras », détaille Maury Blackman, directeur général de Premise. La société refuse de révéler l’identité de ses clients, invoquant sa politique de confidentialité.

Premise a été lancé en 2013 comme outil destiné à recueillir des données que les gouvernements et les ONG étaient susceptibles d’utiliser dans le cadre de leurs activités de développement international. Ces dernières années, il a également tissé des liens avec l’establishment de l’appareil sécuritaire américain et mis en avant sa capacité à servir d’outil de surveillance, selon des documents et des témoignages d’anciens employés. En 2019, les documents marketing de l’entreprise indiquaient qu’elle comptait 600 000 contributeurs opérant dans 43 pays à travers le monde, dont des zones sensibles comme l’Irak, l’Afghanistan, la Syrie et le Yémen.

Selon les registres de dépenses fédérales, Premise a reçu au moins 5 millions de dollars depuis 2017 dans le cadre de projets militaires — notamment des contrats avec les armées de l’air et de terre et en tant que sous-traitant d’autres entités du secteur de la défense. Lors d’un argumentaire présentant sa technologie, préparé en 2019 pour la Combined Joint Special Operations Task Force-Afghanistan, Premise présentait trois utilisations potentielles susceptibles de « répondre aux besoins d’information du commandement » : jauger l’efficacité des opérations d’information américaines ; repérer et cartographier les lieux d’interaction sociale clés telles que les mosquées, les banques et les cybercafés ; surveiller secrètement les signaux des antennes-relais et du Wi-Fi dans une zone de 100 km2. Selon cette présentation, les missions doivent être conçues de manière à « masquer leur intention véritable » vis-à-vis des participants qui ne sont pas nécessairement conscients de travailler pour une opération gouvernementale.

La société assure que le document ne décrivait que des fonctionnalités potentielles et ne dépeignait pas exactement le travail effectué pour ses clients militaires. Un porte-parole des forces de la coalition en Afghanistan n’a pas réagi à notre demande de commentaire destinée à savoir si elles avaient eu connaissance de la note de synthèse ou avaient fait appel aux services de Premise.

Un deuxième document, soumis à l’armée de l’air en vue d’obtenir une subvention que la société a finalement reçue, évoque des fonctionnalités similaires. Premise y indique qu’elle peut envoyer des collaborateurs effectuer des « missions d’observations suivant des instructions, recueillir leur impression sur celles-ci, et cartographiers de réseaux mobiles ». Un autre document produit par Premise indique que la société peut concevoir des « activités réalisés par des mandataires », comme le comptage d’arrêts de bus, de lignes électriques ou de distributeurs automatiques de billets, afin d’inciter les contributeurs à se déplacer pendant la collecte de ces données basiques.

Les données provenant des réseaux Wi-Fi, des antennes-relais de téléphonie cellulaire et des appareils mobiles peuvent être précieuses pour l’armée notamment en termes de connaissance de la situation, et de suivi des cibles. Le fait de disposer d’un réseau distribué de téléphones faisant office de capteurs offre également une capacité en matière de géolocalisation. Connaître la puissance du signal des antennes-relais et des points d’accès Wi-Fi situés à proximité peut être utile pour tenter de brouiller les communications lors d’opérations militaires. Selon les experts en la matière, les noms des réseaux sans fil existants peuvent également aider à identifier l’emplacement d’un appareil, même si le GPS est désactivé.

En juillet dernier, Premise a soumis au gouvernement britannique un document détaillant ses capacités. La société y affirme qu’elle peut récupérer plus de 100 types de métadonnées à partir des téléphones de ses contributeurs et les fournir à ses clients — notamment la localisation d’un téléphone, son modèle, le niveau de la batterie et les applications installées dessus

M. Blackman affirme que la collecte de ce genre de données open source ne constitue pas un travail de renseignement. « Elles sont disponibles pour quiconque possède un téléphone portable, dit-il. Elles ne sont pas uniques ou secrètes. »

«  Si certaines de nos données sont utilisées par les agences gouvernementales pour élaborer des politiques et protéger nos citoyens, nous en sommes fiers », ajoute M. Blackman.

En juillet dernier, Premise a soumis au gouvernement britannique un document détaillant ses capacités. La société y affirme qu’elle peut récupérer plus de 100 types de métadonnées à partir des téléphones de ses contributeurs et les fournir à ses clients — notamment la localisation d’un téléphone, son modèle, le niveau de la batterie et les applications installées dessus. Un porte-parole de l’ambassade britannique à Washington n’a pas voulu dire si des structures gouvernementales de son pays avaient recours à ce service.

Les utilisateurs de l’application Premise ne sont pas informés de l’entité qui a passé un contrat avec la société pour les informations qu’ils sont chargés de recueillir. La politique de confidentialité de la société indique que certains clients peuvent être des gouvernements et qu’elle peut collecter certains types de données à partir du téléphone, selon un porte-parole.

« Tous ceux qui collectent pour le compte de Premise et l’utilisent sont pleinement informés grâce aux conditions générales d’utilisation — disponibles sur l’application et le site web de Premise — que les données open source, collectées par des “contributeurs” locaux rémunérés à partir de leurs téléphones portables, peuvent être partagées avec n’importe quel client de Premise, y compris les agences gouvernementales », indique M. Blackman.

Actuellement, l’application assigne environ cinq tâches par jour à ses utilisateurs en Afghanistan, selon des témoignages d’utilisateurs sur place. Ils doivent, par exemple, prendre des photos de distributeurs automatiques de billets, de bureaux de change, de supermarchés et d’hôpitaux.

Selon Premise, photographier des sites religieux tels que des mosquées, des temples, des synagogues et des églises est une tâche classique confiée à des contributeurs du monde entier pour aider les clients à comprendre la géographie physique et sociale d’un lieu. Elle affirme qu’elle ne demande aux contributeurs que des photos d’extérieur et pas d’entrer dans les sites

Un utilisateur afghan explique qu’il est, comme les autres personnes sur place, généralement payé 20 Afghani par tâche, soit environ 25 centimes — ce qui leur permet de financer leur forfait téléphonique. Il y a quelques mois, certaines des missions proposées sur le site lui ont paru potentiellement risquées. Selon lui, l’application a proposé plusieurs missions consistant à identifier et à photographier des mosquées chiites dans un quartier de l’ouest de Kaboul, en grande partie peuplé de membres de la minorité chiite Hazara. Le quartier a été attaqué à plusieurs reprises par l’Etat islamique au cours des cinq dernières années, et au moins 50 personnes y ont été tuées en mai lors de trois explosions visant une école de filles — une attaque qu’aucune organisation n’a revendiquée. En raison de la nature et de l’emplacement des missions dans une zone ciblée par le terrorisme, l’utilisateur indique qu’il pense que ces missions pouvaient être liées à de l’espionnage et ne les a pas acceptées.

Selon Premise, photographier des sites religieux tels que des mosquées, des temples, des synagogues et des églises est une tâche classique confiée à des contributeurs du monde entier pour aider les clients à comprendre la géographie physique et sociale d’un lieu. Elle affirme qu’elle ne demande aux contributeurs que des photos d’extérieur et pas d’entrer dans les sites.

Aucune des plus de trois millions de personnes qui ont travaillé avec Premise au cours des cinq dernières années n’a subi de préjudice, alors qu’elles ont accompli plus de 100 millions de tâches ou d’enquêtes, déclare la société.

A l’origine, Premise était un outil conçu pour relever les prix dans les pays en développement et aider ses clients à mieux comprendre les besoins de leur population. Mais la société a eu du mal à dégager des bénéfices sur ces marchés, et la demande pour ses services était irrégulière, selon d’anciens employés.

En 2018, le conseil d’administration a nommé M. Blackman CEO, en espérant qu’il pourrait stabiliser les finances de l’entreprise et élargir ses activités, selon des employés actuels et anciens. M. Blackman disposait d’une expérience en matière de contrats publics. Il avait auparavant fondé Accela, une entreprise qui développait des logiciels destinés aux administrations. Selon les employés, il a poussé pour obtenir davantage de contrats dans les domaines militaire et du renseignement, ce qui a provoqué un choc culturel au sein de la société. Beaucoup de développeurs expérimentés se sont opposés à certaines utilisations à caractère militaire et de renseignement envisagées par la plateforme. Un porte-parole de la société réfute ces témoignages, expliquant qu’ils proviennent d’anciens employés mécontents et affirme que la société ne s’est jamais écartée de sa mission initiale. David Soloff, le cofondateur de Premise, auquel M. Blackman a succédé au poste de CEO, n’a pas répondu à notre demande de réaction.

Ces dernières années, les données collectées par Premise ont été achetées par de nombreux fournisseurs de la défense ou par des agences gouvernementales travaillant sur des programmes de défense, comme le montrent les dossiers fédéraux. En 2019, l’Air Force a versé 1,4 million de dollars à l’entreprise pour faire de l’« ISR terrestre régulier » — une abréviation militaire qui signifie intelligence, surveillance et reconnaissance. L’Air Force Research Laboratory indique que le contrat était axé sur la science des données et le travail d’apprentissage automatique pour les unités militaires, mais refuse de fournir plus de détails.

Au moins cinq autres fournisseurs du secteur de la défense ou des services de renseignement ont acheté des données à Premise, selon les documents répertoriant les dépenses fédérales. Premise a renforcé sa présence à Washington ces dernières années, comme le montrent des offres d’emploi, publiées sur LinkedIn, exigeant d’avoir des habitations de sécurité, et le recrutement d’employés disposant d’une grande expérience dans le monde du renseignement, selon leurs profils sur ce même réseau social.

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Traduit à partir de la version originale en anglais

Données personnelles, un enjeu de souveraineté.

Données personnelles, un enjeu de souveraineté. 

L’enjeu des données qui transitent chaque jour vers les Etats-Unis et la Chine au détriment de l’Europe est infiniment plus grand que la production de masques en tissu sur le territoire national », mettent en garde Robin Reda et Jean-François Husson  , le député de l’Essonne et le sénateur de Meurthe-et-Moselle

Tribune dans l’Opinion

Chaque jour, 80% des données émises par les Français sur les plateformes numériques, sur nos smartphones, ou par nos objets connectés sont captées par les Etats-Unis et la Chine parce que les logiciels source y sont résidents. A l’heure où le gouvernement s’interroge sur le tracking des malades infectés du Covid-19 par le biais d’une application smartphone, il y a fort à parier que les géants du web étrangers sont déjà capables d’établir une cartographie de l’épidémie en Europe à partir de nos conversations personnelles sur les réseaux sociaux, de rendez-vous médicaux conclus sur les applications médicales ou des écarts au confinement à domicile qui échappent aux autorités mais dont le trajet reste en mémoire dans les serveurs de Waze.

Si les données personnelles renseignent par définition sur un individu, elles sont surtout des données communes : ainsi le répertoire d’un téléphone portable renseigne sur les liens qu’entretient une personne avec un nombre considérable d’autres personnes. L’ensemble de ces données constitue un véritable patrimoine national. Or celui-ci ne fait l’objet d’aucun contrôle, est ouvert à tous les vents, commercialisable sans limite alors même qu’il constitue une part de nos vies privées, de nos intimités.

La crise actuelle nous invite à repenser notre souveraineté. Relocaliser la production d‘industries comme celle du médicament ou des masques en France est une nécessité. Mais celle-ci doit impérativement s’accompagner d’une nouvelle souveraineté sur nos données : une véritable souveraineté numérique. La valeur ajoutée de la quantité des données qui transitent chaque jour vers les deux grandes puissances mondiales en passe de réactiver des guerres commerciales au détriment de l’Europe est infiniment plus grande que la production de masques en tissu sur le territoire national sur fond de rhétorique industrielle martiale.

Pour maîtriser notre destin, il est temps de comprendre le basculement du monde dans l’économie de la donnée. Si ce patrimoine numérique qui renseigne sur chacun d’entre nous, n’est pas stocké et protégé en France, il continuera d’alimenter des bases de données extraterritoriales qui asphyxient définitivement tout espoir de « produire en France » en nous privant de la principale matière première d’expertise de l’industrie du futur.

Pire, sans souveraineté retrouvée, nous risquons demain la mise en confinement numérique totale. Que deviendrait l’économie sans les logiciels et sans les données fournis et actualisés chaque jour par les Etats-Unis ? Nous le savons, ce monde ne relève plus de la science-fiction. L’Europe souffrira tôt ou tard d’avoir laissé la main à de véritables cyber-empires. Notre nation s’inclinera face à des géants sans frontières et sans droit qui ont dépassé de loin la puissance des Etats.

Dans le fameux « monde d’après », stoppons l’épidémie de l’impuissance digitale. Mais mettre fin à l’hémorragie des données produites en France, en ne les transférant qu’en échange de protocoles souverainement définis, nécessitera du courage. Notre Constitution pourrait consacrer ce patrimoine national numérique, enjeu parmi d’autres dans la reconquête de notre liberté et de notre compétitivité.

Robin Reda est député de l’Essonne et vice-président de Libres. Jean-François Husson est sénateur de Meurthe-et-Moselle.

L’enjeu des données de santé

L’enjeu des données de santé

 

« Il faut remettre l’hôpital au centre du jeu car il rassemble les informations médicales les plus cruciales ainsi qu’une expertise de pointe », jugent Corneliu Malciu, Théo Ryffel et Emeric Lemaire, cofondateurs d’Arkhn, start-up spécialisée dans l’interopérabilité des données de santé ( Tribune dans l’Opinion)

( Les conditions d’ouverture et d’accès à ces données stratégiques méritent cependant une réflexion peut être plus approfondie NDLR )

 

 

La crise de la Covid-19 a mis en évidence l’importance des données de santé pour la résilience du système de soin. La souveraineté des établissements sur les données qu’ils collectent et administrent est un prérequis pour fluidifier le parcours de soin, soulager le quotidien des professionnels ou encore mener des analyses cliniques. Bref, pour améliorer la prise en charge des patients et faciliter la recherche clinique.

La problématique n’est pas nouvelle, elle s’est simplement accélérée. De nombreux projets, comme les plateformes régionales de suivi des patients, le dossier médical partagé, les ambitions affichées par « Ma Santé 2022 » [lancé par l’ex-ministre de la Santé Agnès Buzyn], se sont heurtés à la difficulté d’accès aux données hospitalières. Pour y répondre, il sera indispensable de transformer la gestion des données au sein des hôpitaux en les dotant d’infrastructures data locales, s’appuyant sur les outils déjà en place, et gérées par les hôpitaux eux-mêmes.

Pour cela, il convient de s’attaquer aux sources du problème. Les dizaines de logiciels utilisés au sein des différents services d’un même hôpital génèrent des données complètement cloisonnées. Les données existent mais restent inexploitables car stockées sur des infrastructures séparées, incapables de communiquer entre elles. Ce manque d’interopérabilité rend leur accès difficile, long et coûteux.

Si les fondations de cette Tour de Babel sont purement informatiques et structurelles, les dysfonctionnements qu’elle engendre ont des conséquences concrètes et multiples. Economiques d’abord, puisque 10% des dépenses de santé dans les pays de l’OCDE sont superflues — actes inutiles, dupliqués ou résultant d’erreurs évitables —, selon une étude de l’OMS.

Humaines, ensuite, avec des médecins qui passent trois fois plus de temps derrière leur écran qu’avec leurs patients. Médicales, enfin, avec une prise en charge des patients plus difficile et une recherche clinique ralentie dans les CHU. En France, 10 000 à 30 000 décès sont causés chaque année par des accidents médicamenteux évitables, dont la cause première est un mauvais partage de l’information.

Pourtant, les choses bougent. La création d’un espace numérique de santé, les propositions du numérique en santé, les accords du Ségur de la santé, la généralisation de l’identité nationale de santé vont dans le sens d’une meilleure gestion des données. Aujourd’hui, il est nécessaire d’aller au-delà d’un « cloud médical centralisé », en redonnant aux hôpitaux et aux patients la souveraineté sur leurs données de santé et les usages qui en sont faits.

L’hôpital est le plus à même d’utiliser les données, de les rendre accessibles aux patients et aux acteurs institutionnels, et de les valoriser dans le cadre de la recherche

Pour cela, il faut remettre l’hôpital au centre du jeu car il rassemble les informations médicales les plus cruciales, ainsi qu’une expertise de pointe. Il est le plus à même de les utiliser, de les rendre accessibles aux patients et aux acteurs institutionnels, et de les valoriser dans le cadre de la recherche. Enfin, il est le meilleur garant de la sécurité et de la confidentialité des données patients. C’est un tiers de confiance reconnu, à l’interface du soin, de la recherche et l’innovation de pointe.

L’interopérabilité est la clef pour replacer l’hôpital au centre de l’échiquier du soin et elle passe notamment par l’utilisation de standards ouverts, comme le FHIR (un langage commun, transparent qui fait référence sur la scène internationale). La santé de demain doit être pensée comme ouverte et collaborative, grâce à un cadre politique imposant des standards d’interopérabilité et un cadre juridique clarifié.

L’hôpital a connu sa numérisation dans les deux décennies précédentes et l’heure est à l’adoption d’architectures data standard. C’est le système de santé dans son ensemble qui en sortira gagnant avec une meilleure qualité des soins, une meilleure coordination des acteurs territoriaux, une meilleure collaboration avec la recherche clinique et de meilleurs outils et innovations en santé.

Corneliu Malciu, Théo Ryffel et Emeric Lemaire sont cofondateurs d’Arkhn.

5G: Pas de garantie sur la protection des données

 5G:  Pas de garantie sur la  protection des données 

 

L’expert en informatique Sean O’Brien explique, dans une tribune au « Monde », qu’un risque de fragmentation de l’Internet met en danger le principe de neutralité du Net et qu’aucune preuve n’est apportée pour garantir la sécurité des données.

 

Tribune.

Les promesses de la 5G semblent infinies grâce à l’accès à des débits supérieurs à la 4G, et surtout grâce aux possibilités offertes par l’Internet des objets (en anglais « Internet of Things », ou IoT, c’est-à-dire la connexion des objets à des technologies numériques démultipliant leurs usages). Mais bien que la 5G soit encensée comme une nouvelle révolution technologique, elle présente des risques potentiels majeurs, qu’il s’agisse de confidentialité des données, de traçage des individus mais aussi de fragmentation d’un internet de moins en moins libre, au péril du concept même de neutralité du Net.

La 5G est présentée comme une solution idéale pour déployer le haut débit dans les zones blanches, majoritairement rurales. Elle est également présentée comme une solution pour connecter les véhicules autonomes et une multitude de dispositifs IoT. Néanmoins, la valeur ajoutée pour les consommateurs n’est pas encore claire.

 

La rapidité de la 5G reste bien inférieure à celle de la bande passante de technologies comme la fibre. La vitesse maximale de la 5G est de 10 gigabits, lorsque celle des réseaux câblés est de 50 gigabits et celle de la fibre de 100 térabits.

Cette technologie introduit par ailleurs des vulnérabilités qui incluent un haut risque d’exposition des données, telles que l’emplacement géographique, le traçage des appels et SMS émis, des sites et applications visités. Plus inquiétant encore, la 5G ne va résoudre aucun des risques de protection des données et de la vie privée, déjà présents sur les réseaux cellulaires traditionnels. Elle va de plus introduire de nouveaux problèmes de contrôle pour les utilisateurs.

Mais le plus ennuyeux est qu’elle accentue la lente disparition du concept de « neutralité du réseau », l’un des principes fondateurs d’Internet, qui permet la liberté de consulter, partager et faire circuler l’information sans aucune discrimination. Aujourd’hui, les Etats imposent de plus en plus de règles liberticides sur Internet. Le risque est surtout de voir se créer un monopole technologique des communications à l’échelle internationale, en imposant encore plus de contrôle et de surveillance, sans pour autant garantir la sécurité des individus.

 

Par ailleurs, la 5G offre la possibilité de mettre en place des réseaux contrôlés par des intermédiaires, ou tout simplement par des Etats spécifiques. Cela signerait la fin d’un réseau unique, libre, universel et accessible par tous sans restriction. Ces environnements, qui fonctionnent en silos, posent de gros problèmes en matière de vie privée, de sécurité, de respect des droits de l’homme, mais aussi de liberté d’expression, tout simplement à cause du manque de transparence et de responsabilité.

Covid: les données épidémiologiques sont erronées

Covid: les données épidémiologiques sont erronées

 

«Le variant croît désormais à peine plus vite que la souche historique», explique dans le Figaro Philippe Lemoine. doctorant en philosophie des sciences.

Philippe Lemoine est doctorant à l’université Cornell (États-Unis) et chargé de recherche au Center for the Study of Partisanship and Ideology.

Cela fait désormais plus de quatre mois que l’ensemble de la population française est soumise à un couvre-feu, ce qui après le confinement du printemps 2020 constitue la restriction des libertés individuelles la plus importante en France depuis la Seconde Guerre mondiale. Mais cette mesure n’a pourtant jamais fait l’objet d’un véritable débat.

Une étude de l’Inserm parue il y a quelques jours, et dont les résultats avaient préalablement été présentés lors d’une conférence de presse du gouvernement, a conclu que l’avancement du couvre-feu à 18 heures en janvier avait permis de retarder l’augmentation du nombre de cas résultant de l’expansion de B.1.1.7, le variant anglais de SARS-CoV-2, à la seconde moitié de mars. Cette étude est brandie par les partisans du couvre-feu comme la preuve de son efficacité, mais elle ne démontre pourtant rien du tout, car la conclusion était déjà contenue dans les hypothèses du modèle.

Pour comprendre ce point, il convient d’expliquer rapidement comment cette étude a conclu à l’efficacité du couvre-feu. Le modèle suppose d’abord que B.1.1.7 est 59 % plus transmissible que la souche historique. Cette estimation vient d’une étude de l’Institut Pasteur qui a estimé la surtransmissibilité de ce variant à partir de sa progression d’après les deux enquêtes flash réalisées par Santé publique France en janvier.

 Le problème est que cette estimation est extrêmement sensible aux hypothèses faites sur divers paramètres épidémiques, notamment sur le temps de génération (c’est-à-dire le temps qui s’écoule entre le moment où quelqu’un est infecté et le moment où il infecte quelqu’un d’autre), sur lesquels il existe une grande incertitude qui n’a pas été correctement prise en compte par cette étude. On obtiendrait donc une surtransmissibilité très différente en faisant des hypothèses différentes mais tout aussi voire plus plausibles.

 

Mais ce qui est plus problématique encore, c’est que les données de Santé publique France montrent très clairement que, depuis le début de l’année (quand les données utilisées pour conclure à une surtransmissibilité de 59 % ont été collectées), l’avantage de transmissibilité de B.1.1.7 s’est complètement effondré et, d’après les données les plus récentes, le variant croît désormais à peine plus vite que la souche historique.

L’hypothèse qui est faite dans l’étude de l’Inserm sur l’impact du couvre-feu est donc complètement fausse pour l’essentiel de la période couverte par l’étude. Or, si cette étude a conclu que le couvre-feu avait eu un effet très important, c’est précisément parce que le modèle partait du principe que B.1.1.7 a un avantage de transmissibilité constant de 59 %, alors qu’en réalité cet avantage s’est effondré et il est désormais à peine supérieur à 10 %.

En effet, la méthodologie de l’étude consiste en gros à dire au modèle qu’un variant 59 % plus transmissible que la souche historique avait été introduit dans la population, que seuls l’avancement du couvre-feu à 18 heures en janvier et les vacances scolaires en février avaient eu un effet sur la transmission, puis à lui demander d’estimer cet effet sous ces hypothèses.

Comme l’hypothèse selon laquelle B.1.1.7 plus transmissible implique que, à moins que quelque chose ne réduise la transmission pour compenser l’effet de l’expansion du variant, le nombre de reproduction (aussi connu sous le nom de R) et donc le nombre de cas va exploser et que ce n’est pas arrivé, le modèle va mécaniquement attribuer un effet très important au couvre-feu et aux vacances scolaires pour coller aux données.

Mais ça ne prouve rien du tout puisque le modèle est ainsi fait qu’il ne pouvait attribuer cet effet à rien d’autre qu’au couvre-feu et aux vacances scolaires et que, dès lors qu’on fait l’hypothèse que B.1.1.7 est 59 % plus transmissible, il était inévitable que sa conclusion soit que le couvre-feu et les vacances scolaires ont eu un effet très important sur la transmission.

Les chercheurs de l’Inserm qui ont publié cette étude nous présentent comme un résultat empirique quelque chose qui n’est en réalité rien d’autre qu’une pétition de principe, puisque compte tenu de la trajectoire de l’épidémie leur conclusion n’est que la conséquence logique de l’hypothèse qu’ils ont faite sur la surtransmissibilité de B.1.1.7. Encore une fois, ce postulat repose sur des données de janvier et il est clairement infirmé par les données les plus récentes.

Mais plutôt que de reconnaître que cette hypothèse ne tient plus debout et revoir leur modèle, ils prétendent que l’augmentation du nombre de cas en mars leur a donné raison, alors qu’ils savent pertinemment que, si leur modèle était correct, l’incidence aurait augmenté beaucoup plus fortement. En effet, leur modèle prédisait qu’il y aurait plus de 20.000 nouvelles hospitalisations en semaine 13, alors qu’en réalité il y en a eu moins de 14.000. En semaine 14, le modèle prédisait près de 30.000 nouvelles hospitalisations, il y en a eu environ 14.000, comme la semaine précédente.

Bien sûr, les auteurs de cette étude pourront toujours dire que, si leurs prédictions ne se sont pas réalisées, c’est grâce aux mesures entrées en vigueur d’abord à Paris et dans 15 autres départements le 20 mars, puis au confinement étendu à l’ensemble du pays en avril. Ils pourront même «démontrer» cela de la même façon qu’ils ont «démontré» l’efficacité du couvre-feu : il suffira de dire à un modèle que B.1.1.7 est extrêmement transmissible et de supposer que seules ces mesures ont pu avoir un effet sur la transmission.

Ainsi, ils pourront continuer à entretenir la fiction que leurs modèles décrivaient correctement ce qui se serait passé si le gouvernement n’avait rien fait, mais que fort heureusement celui-ci avait écouté leurs conseils et pris des mesures qui nous ont permis d’éviter un désastre.

C’est la vision héroïque du rôle des épidémiologistes dans la gestion de la pandémie. En réalité, leurs modèles reposent sur des hypothèses fausses et leurs conclusions ne sont que des conséquences logiques de ces hypothèses, qui aboutissent à une surestimation systématique de la croissance de l’épidémie qui met le gouvernement sous pression pour prendre des mesures qui ont un coût économique et humain gigantesque, alors que rien ne démontre leur efficacité et certainement pas ce genre d’études semi-tautologiques.

Avec ce genre de travaux, les épidémiologistes donnent une fausse caution scientifique à des mesures auxquelles ils sont favorables pour des raisons qui n’ont rien de scientifique mais tiennent à leurs convictions personnelles. Elles seraient parfaitement légitimes s’ils n’essayaient pas de les faire passer pour des résultats scientifiques et d’influencer la politique du gouvernement. Rappelons-le: ils n’ont aucune légitimité démocratique.

«La régulation des données doit être mondiale» (Apple)

 «La régulation des données doit être mondiale» (Apple)

Dans un entretien au Figaro, le PDG d’Apple milite pour le respect de la vie privée. En effet le croisement logarithmique des données permet d’identifier les profils intimes des internautes et d’adapter en conséquence la politique commerciale qui leur est destinée et même les messages politiques et psychologiques qui peuvent les influencer. «Nous voulons redonner le pouvoir aux internautes. Nous allons leur offrir un outil pour leur permettre de faire un choix» assure le patron d’Apple,Tim Cook. 

Apple ouvre les hostilités contre les dérives du ciblage publicitaire sur internet. À l’occasion, jeudi, de la Journée de la protection des données personnelles, la société américaine a publié une démonstration présentant toutes les données personnelles captées par les applications du smartphone d’un père de famille: géolocalisation, visite de tel commerce, accès aux photos et à leurs métadonnées, historique de navigation…

Selon Apple, les applications mobiles comprennent en moyenne six trackeurs. Les données captées, revendues à des tiers, nourrissent des fichiers marketing très précis, qui permettent d’afficher les publicités correspondant au mieux au profil sociodémographique de l’internaute ciblé. C’est ainsi que des femmes enceintes peuvent être exposées à des publicités pour des produits de puériculture avant même qu’elles aient annoncé leur grossesse à leur entourage.

Pour Tim Cook, le dirigeant d’Apple, cette aspiration des données personnelles «est allée beaucoup trop loin.

 

Reste à savoir si les Gafa  seront  d’accord entrer dans une discussion forcément l’échelle mondiale pour une régulation des informations qu’elles possèdent; en effet ,il s’agit de leur cœur de métier avec lequel il réalise pour beaucoup l’essentiel de leur chiffre d’affaires et de leurs profits. Moins peut-être Apple que d’autres comme Facebook qui ne vit que des données des utilisateurs. Tandis qu’Apple fournit surtout du matériel et des logiciels.

Réseaux de données européens en danger ?

  • Réseaux de données européens en danger ?

Gérard Vespierre, Président de Strategic Conseils , s’inquiète du manque de stratégie protégée les réseaux de données au plan européen dans une chronique à laTribune

 

Chronique

 

Le Portugal a préparé un plan visant à conforter et sécuriser les réseaux de câbles sous-marins reliant l’Europe au reste du monde. Lisbonne peut compter sur le soutien politique de plusieurs pays impliqués dans cette vision, la France devrait y jouer un rôle.

Mais en dehors de son tour de présidence à la tête du Conseil Européen, quelles sont les motivations portugaises à s’impliquer dans ce domaine ?

Tout d’abord, avant l’Histoire, il convient de considérer la géographie. Le positionnement du Portugal place ce pays à un absolu carrefour. Il occupe en effet une position privilégiée vis-à-vis de l’autre côté de la façade atlantique, tant de l’Amérique du nord que de l’Amérique du sud. De plus, il est l’ultime territoire pour les pays du nord de l’Europe, vers le continent africain. Enfin, sans être sur la façade méditerranéenne, il en est néanmoins très proche.

En conséquence, cette position carrefour va très tôt donner au Portugal une place privilégiée dans l’organisation des réseaux de câblage sous-marin. Dès 1870 ce pays a été relié au Royaume-Uni, par un premier câble télégraphique.

L’Histoire et la technologie ont poursuivi leurs chemins, et à ce jour le Portugal dispose de 10 amarres pour des systèmes optiques sous-marins. Il est ainsi le seul pays à disposer de connections directes avec tous les continents, à l’exception de l’Antarctique.

On comprend mieux dès lors les raisons qui motivent le Portugal à s’impliquer dans un tel projet.

Lisbonne considère les réseaux de câbles sous-marins comme le grand absent des préoccupations européennes dans le cadre d’une stratégie numérique globale. Ces réseaux constituent pourtant le lien essentiel des échanges internet dans le monde ! Le Portugal veut donc la mise en place d’un plan d’investissement pan-européen, afin que l’Europe installe ses propres câbles sous-marins, et améliore ses infrastructures numériques continentales.

Cette stratégie aboutirait alors à un vaste plan industriel visant à augmenter les réseaux de connections entre les pays européens, ainsi que les liaisons entre l’Europe et les autres continents. Un tel projet serait, à l’évidence, un accélérateur de croissance pour l’industrie européenne des télécoms.

Un 4ème pilier numérique verrait ainsi le jour, après celui du « Cloud » souverain, contenu dans le plan Gaia-X présenté en début d’année par le ministre allemand de l’Économie, et les 2ème et 3ème pilier que constituent « l’Acte pour les Services Numériques » et « l’Acte pour les Marchés Numériques » présentés par la Commission Européenne, le 15 décembre.

Grâce à l’apport de la vision Portugaise, l’Europe disposerait alors d’un dispositif stratégique global autour du numérique :

  • Sécurisation et développement des réseaux câblés ;
  • Mise en place d’un « Cloud » souverain ;
  • Modération des contenus web, de façon plus efficace ;
  • Freinage de la stratégie hégémonique des grands acteurs d’Outre-Atlantique.

Ces enjeux géopolitiques ont été présentés dans un précédent article.

Ainsi, s’il n’y a pas eu de vision globale au départ, au moins y-aurait-il la mise en place d’une stratégie globale à l’arrivée….

Avant les menaces sur les réseaux, il y a en effet une inconnue à prendre en compte : les conséquences du Brexit. Les volumes de données venant ou se dirigeant vers la Grande-Bretagne, pourraient éventuellement faire l’objet de la part des autorités Britanniques de nouvelles dispositions, à visée juridique ou sécuritaire….

Mais à côté de cette inconnue, il existe de réels risques et considérations stratégiques. Ainsi lors d’une réunion de l’OTAN, réunissant les ministres de la Défense des pays membres, au mois d’octobre, la protection des réseaux de câbles sous-marins a été un des sujets de l’ordre du jour. L’intérêt de la Russie dans le domaine cyber est connu, et ces réseaux représentent des points de passage à potentiel hautement disruptif.

Les Etats-Unis, principal membre de l’OTAN, ont ajouté sous l’autorité du Département d’Etat, les réseaux de câbles sous-marins, à leur liste d’infrastructures stratégiques pouvant être l’objet de visées chinoises… L’Europe doit également intégrer ce risque.

 

Mais pour les autorités européennes, il y a une autre considération, à savoir, la position croissante des géants américains du Web, Facebook, Amazon, dans le développement de leurs propres infrastructures. La maîtrise par l’Europe de ses infrastructures numériques apparaît comme une nécessité de long terme. Ces éléments stratégiques donnent un relief et une importance certaine aux tensions et combats qui se déroulent sur le flanc est de l’Europe, dans le Caucase-sud.

Cela peut sembler lointain, mais nous sommes aux portes de la Turquie, donc très proche de l’Europe. De plus à l’heure des méga-débits, ce ne sont plus les distances qui comptent, mais la connectivité et la vitesse. Une seule société géorgienne, Caucasus Online, détenait depuis 2008, la gestion du réseau de fibre venant d’Europe à travers la Mer Noire.

En 2018, le groupe azerbaïdjanais NEQSOL, établi aux Etats-Unis, en Ukraine, et également en Angleterre, prend la décision d’acquérir Caucasus Online.

Après avoir mené les contacts nécessaires avec les autorités gouvernementales géorgiennes des télécommunications, l’opération est finalisée en 2019. Mais depuis lors, le gouvernement géorgien, via l’autorité de tutelle, le GNCC, tente de revenir sur cette opération de nature privée, et préalablement acceptée. Au nom de quels intérêts… ? Gardons en mémoire que l’objectif de NEQSOL est de bâtir à partir des infrastructures de Caucasus Online un hub de communication vers l’Asie… sans passer par Moscou… !

Afin d’essayer de revenir à la situation antérieure, le gouvernement géorgien, sans base juridique valable, a fait introduire des amendements à la loi sur les Communications. Ces dispositions nouvelles lui ont permis, le 1er octobre, de faire nommer un « Special Manager » aux pleins pouvoirs, chez Caucasus Online. Fort de ses « pouvoirs spéciaux » il a déjà entrepris de s’opposer à la plainte déposée par la société auprès des tribunaux géorgiens… ! Cela s’apparente en réalité à une expropriation, puisque le propriétaire en titre, NEQSOL, ne peut plus exercer son autorité sur une structure lui appartenant juridiquement.

La société NEQSOL s’est donc résolue à porter le litige devant le CIRDI (Centre International pour le Règlement des Différents relatifs aux Investissements) basé à Washington, créé en 1965, et dépendant de la Banque Mondiale.

L’intensité d’un tel litige exprime naturellement la puissance des intérêts en jeu. Cela se passe aux portes de l’Europe. Les réseaux européens sont connectés avec le Caucase. Nous avons ici le signe de l’importance de ces enjeux, et donc l’absolue nécessité pour l’Europe d’établir clairement ses règles, et de mettre en place les moyens de les faire respecter.

Le Portugal a pleinement raison de vouloir faire ajouter un 4ème pilier aux dispositifs européens concernant le numérique et ses réseaux. La Géorgie illustre l’apprêtée des rivalités possibles dans le domaine des réseaux de fibre, internationaux. Le Portugal donne à l’Europe, avec ce projet, une impulsion stratégique de toute première importance pour le futur technologique européen, et sa nécessaire souveraineté.

___

Gérard Vespierre, diplômé de l’ISC Paris, Maîtrise de gestion, DEA de Finances, Paris Dauphine, géo politologue, Fondateur du site : www.le-monde-decrypte.com

Pour une régulation des données personnelles

Pour une régulation des données personnelles

L’analyse de Jean-Marie Cavada, Président de l’Institut pour les Droits Fondamentaux Numériques, après la publication de la note de la Fondation Digital New Deal, « Partage de données personnelles : changer la donne par la gouvernance ».( Chronique dans la tribune)

 

Les menaces que fait peser l’hégémonie des Big Tech sur la concurrence, l’innovation et la souveraineté européenne doivent être prises en compte. Alors que l’Europe tente d’agir avec le Digital Services Act, force est de constater que les velléités régulatoires européennes trouvent un écho outre-Atlantique – enfin ! La Chambre des représentants américaine a en effet récemment rendu un rapport sur les pratiques anticoncurrentielles des Big Tech.

Pourquoi les Big Tech dominent-elles ?

Les grandes plateformes numériques ont parfaitement su exploiter la puissance exponentielle des effets de réseau. Les modèles « winner takes all » propres aux marchés technologiques confèrent aux Big Tech, dès lors, une influence indéniable sur des pans entiers de l’économie internationale. A cela s’ajoute une taille de marché
presque sans limite puisque l’expansion de ces géants technologiques n’est pas freinée par des coûts marginaux élevés contrairement à des industries plus traditionnelles et des problématiques de transport par exemple. L’addition de ces deux facteurs – effets de réseau et taille potentielle de marché – a permis aux Big Tech de conquérir, petit à petit, la frange BtoC de l’économie européenne.

Lire aussi : Vers un « cyberscore » pour informer les internautes sur la sécurité de leurs données?

Au-delà des caractéristiques particulières de l’économie numérique sur lesquelles les Big Tech ont su s’appuyer, c’est également l’utilisation d’un modèle économique spécifique qui leur a permis d’asseoir leur domination. Elles ont concentré leurs efforts sur des marchés dits bifaces, où le service gratuit offert au plus grand nombre permet de fermer la porte aux nouveaux entrants, tandis que le modèle publicitaire permet
d’atteindre une rentabilité maximale.

Si l’intelligence artificielle et la science des données constituent autant d’outils utiles pour répondre aux défis de notre monde, force est néanmoins de constater que les meilleurs cerveaux de la planète sont recrutés pour parfaire un modèle publicitaire déjà effectif ! Le pouvoir accumulé par ces entreprises, de surcroît, aboutit aujourd’hui à un impact systémique sur l’ensemble de la société, et notamment sur le fonctionnement même de nos démocraties. Il s’agit désormais de redonner toute sa place au bien commun et à l’intérêt collectif.

Si les Big Tech ne considèrent les individus que comme des consommateurs, les porteurs du projet aNewGovernance souhaitent inverser ce paradigme.

Encourager un nouveau modèle pour la donnée

L’uniformisation des règles du jeu concernant le traitement et l’utilisation des données constitue un objectif primordial. Il semble ici nécessaire, comme le démontre le think tank Digital New Deal dans le rapport de Matthias de Bièvre et Olivier Dion Partage de données personnelles : changer la donne par la gouvernance, de repenser l’architecture de circulation des données pour que tous les acteurs, publics comme privés, associatifs
comme académiques, puissent en retirer les bénéfices.

L’article 20 du Règlement général sur la protection des données, qui consacre un droit à la portabilité des données, constitue une des clés pour mettre sur pied une architecture des données plus vertueuse que celle qu’ont mise en place les Big Tech. Là où le bât blesse, c’est que ce nouveau droit n’est pas incarné dans des procédures et des règles simples d’accès et d’utilisation par tous. A ce titre, des outils doivent être mis à
disposition des individus pour maîtriser leurs données, tout en s’assurant qu’ils soient indépendants des plateformes, par souci de séparation des pouvoirs. Également, la puissance publique doit intervenir, sur ce point, afin d’assurer que cette nouvelle catégorie d’outils se développe et prenne en compte l’intérêt public et l’intérêt de l’individu, à l’inverse des Big Tech qui font fi des deux.

Pour parvenir à créer cette nouvelle infrastructure de données, l’effort doit être partagé par le secteur public et le secteur privé. A cet égard, aNewGovernance et l’Institut des Droits Fondamentaux Numériques, appellent à la création d’un organe de gouvernance européen et international pour que les mondes du public et du privé pilotent ensemble l’écosystème de gestion des données et les services qui émettent et consomment des
données. Cette gouvernance mondiale permettrait, d’une part, de faciliter la circulation des données pour l’ensemble des acteurs de l’économie, et aurait, d’autre part, un effet de renversement de la relation asymétrique qui existe aujourd’hui entre une plateforme et un utilisateur.

Pour une plateforme financièrement puissante et dont les services sont quasi universels, il est aisé d’imposer une architecture et un modèle de partage de données. A l’inverse, proposer une architecture et un modèle différents qui profitent à des dizaines de millions d’acteurs requiert une importante coordination. Un organe de gouvernance doit être la clef de voûte d’une infrastructure mondiale de circulation de données centrée sur l’individu. Le numérique étant devenu un sujet éminemment politique – et non plus uniquement technique ou économique – cette infrastructure de circulation de données pourrait constituer la première pierre d’un numérique plus juste. Et cela n’aboutira pas sans gouvernance.

La scandaleuse exploitation des données

La scandaleuse exploitation des données

Professeure émérite à la Harvard Business School, l’Américaine a théorisé le concept et les dérives du «capitalisme de surveillance», pratiqué par Google, Facebook et depuis peu Amazon, dans un ouvrage qui paraît ce jeudi en France.

. - L’Âge du capitalisme de surveillance est sorti aux États-Unis en janvier 2019. Pensez-vous que votre message d’alerte a été entendu?

Shoshana ZUBOFF. - Lorsque mon ouvrage est sorti aux États-Unis, mon éditeur avait prévu une tournée promotionnelle de trois semaines. Au final, j’ai voyagé quatorze mois. L’intérêt pour le livre n’a pas baissé avec le temps, bien au contraire. Fin 2019, je remplissais des salles de mille personnes, plusieurs fois par semaine. À chaque rencontre, je demandais au public de noter en un mot pourquoi ils étaient venus. Les réponses ont toujours été les mêmes: anxiété, confusion, colère, méfiance, résistance, prise de conscience, peur, liberté, démocratie. Ce sont des mots de mobilisation d’une avant-garde de citoyens. Certains pensaient que le mouvement critique envers la tech s’éteindrait avec la pandémie, au vu des services que Facebook, Zoom, Amazon ou Google nous ont apportés. Je pense tout le contraire. Le confinement a mis crûment en lumière

Une urgence : développer des GAFA européens

Trois spécialistes du numérique plaident pour une stricte mise sous contrôle de ces plateformes et pour le développement de concurrents européens.

Jean-Marie Cavada est Président de l’institute for Digital Fundamental Rights.

Léonidas Kalogeropoulos est Délégué Général de l’Open Internet Project (OIP).

Benjamin Jayet est Président de GibMedia et membre de l’OIP, association européenne créée en 2014 pour combattre les abus de position dominante sur le marché numérique européen.


Depuis le début de la crise sanitaire, les pouvoirs publics ont perçu l’ampleur de notre vulnérabilité au regard des enjeux de souveraineté numérique. Confronté à la nécessité d’utiliser des plateformes collaboratives numériques pour les échanges confidentiels, le gouvernement a pris conscience des risques liés à l’utilisation des outils les plus populaires appartenant aux GAFA, dont les services sont pour la plupart hébergés aux États-Unis. Des solutions alternatives souveraines ont ainsi été choisies en urgence, et la prudence a conduit le gouvernement à décliner l’offre de Google et Apple pour le choix de l’application «StopCovid», préférant développer une solution souveraine.

Ce sursaut de patriotisme économique, rapide et salutaire, témoigne de la prise de conscience de notre dépendance technologique en utilisant des services développés par les GAFA, qui nous tracent et stockent nos données dans des serveurs soumis au Patriot Act. Cette dépendance ouvre surtout la voie à des abus de position dominante fragilisant des pans entiers de notre économie. Devenues des plateformes structurantes pour de très nombreux marchés, les GAFA sont en mesure de contourner les règles qui permettent d’assurer une concurrence loyale non seulement en France, en Europe, et partout dans le monde, y compris outre-Atlantique, où la Justice américaine a annoncé l’ouverture d’un procès contre Google pour ses pratiques anticoncurrentielles dans la publicité.

Google a additionné 1,5 milliard d’euros d’amende pour pratique abusive en matière de publicité en ligne.

Pourtant, à l’évidence, les enquêtes et les sanctions des autorités concurrentielles nationales ou européennes sont devenues un simple paramètre dans le business model de ces géants du numérique. Le cas de Google est édifiant. Il additionne 2,3 milliards d’euros d’amende dans le dossier «Shopping» infligé par la Commission européenne, 4,3 milliards d’euros dans le dossier Android, ou encore 1,5 milliard d’euros pour pratiques abusives en matière de publicité en ligne. En France, il faut rajouter 50 millions d’euros d’amende prononcée par la CNIL pour manquement aux règles des cookies, 150 millions d’euros infligés par l’Autorité de la concurrence dans le dossier GibMedia et, tout récemment, la décision de prononcer des mesures conservatoires pour forcer Google à négocier avec les éditeurs et agences de presse la rémunération qui leur est due au titre du respect des droits voisins, parce que Google refusait d’appliquer la loi! Généralement renvoyées en appel, ces décisions ne permettent pas encore, dans de nombreux cas, de réparer les dommages subis par les entreprises victimes, et par l’économie en général. Par exemple, 10 ans après l’ouverture par la Commission du dossier «Shopping» sur les comparateurs de prix en ligne, le marché reste toujours soumis aux abus de position dominante de Google.

Cet acteur, «délinquant» au regard du droit économique de la concurrence, est un multirécidiviste. Ses turpitudes ne s’arrêtent jamais, comme le démontre l’initiative prise par Google de rendre son serveur publicitaire gratuit durant la crise du Covid-19, véritable opération de dumping à grande échelle qui va lui permettre d’étendre encore son emprise sur les médias. Qu’importe les poursuites… Google a intégré dans son modèle économique l’opportunité de s’exposer à des procédures judiciaires interminables et à des amendes vertigineuses, parce que leur l’impact est marginal au regard du chiffre d’affaires réalisé et des positions économiques avantageuses conquises par ces pratiques déloyales.

Face au géant Google, tous les autres acteurs sont démunis et redoutent de se voir refuser l’utilisation de ses services s’ils ne se plient pas à ses règles.

Par ses agissements, Google est devenue une menace pour la libre-concurrence et pour la capacité à faire émerger un écosystème numérique souverain. Des appels au démantèlement se multiplient outre-Atlantique, afin de transformer Google en une plate-forme d’utilité publique qui n’aurait pas le droit de détenir des participations dans les sociétés utilisant ses services. Alors que le géant américain a racheté plus de 200 start-ups et concurrents depuis 2010, le débat se porte également sur la création d’organismes anti-trust dédiés pour surveiller toutes ces fusions.

En France, nous ne saurions attendre les décisions venues d’outre-Atlantique pour protéger les acteurs de la French Tech qui souffrent de ces abus à répétition. Face à ce géant, tous les autres acteurs semblent démunis et redoutent de se voir refuser l’utilisation de ses services s’ils ne se plient pas à ses règles.

La crise sanitaire conduit à une prise de conscience: dans le monde numérique, nous sommes totalement dépendants ; nous serons vassalisés, colonisés, par des groupes ultra-puissants qui se dressent face aux États et qui prendront possession des données, des contenus, des innovations, de pans entiers de notre économie, si nous restons désunis, désarmés, et que nous ne structurons pas notre propre industrie numérique.

Les plate-forme opérant sur notre territoire ne doivent plus être autorisées à racheter nos entreprises.

Pour y parvenir, il est indispensable que ces plate-forme structurantes et géantes trouvent en face d’elles des autorités de régulation aux pouvoirs spécifiques et adaptés à ces défis.

Pour la France, sans attendre, il est urgent de mettre sur pied une autorité publique indépendante (API), dotée d’une personnalité juridique et administrative propre, capable d’ester directement en justice. Les plate-forme opérant sur notre territoire ne doivent plus être autorisées à racheter nos entreprises, à modifier unilatéralement leurs conditions générales d’utilisation, leurs algorithmes ou leurs pratiques commerciales sans accord et donc le contrôle préalable de cette agence de régulation numérique.

La France peut avoir un rôle précurseur avant qu’une telle agence indépendante se mette en place au plus vite à l’échelle européenne.

L’Union doit bâtir d’urgence sa «troisième voie européenne», dont le but est au moins triple: développer des industries numériques continentales, faire cesser la loi du plus fort au profit d’une saine concurrence, et protéger contenus et investissements au profit de l’Europe d’abord.

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol