Archive pour la Catégorie 'nouvelles technologies'

Tech-Smartphones, tablettes : un chargeur unique ? Enfin !

Tech-Smartphones, tablettes : un chargeur unique ? Enfin !

Enfin ! Bruxelles a préparé proposition de directive imposant à Apple, Huawei, Nokia et autres  de doter leurs appareils vendus sur le Vieux Continent de chargeurs universels et interopérables.

Selon nos informations, le projet de directive, qui sera dévoilé dans les jours à venir et devra ensuite être examiné par le Parlement européen et le Conseil (qui regroupe les Etats), impose de doter les appareils d’au moins un port USB-C et de garantir que tous les chargeurs soient interchangeables. Les équipes du commissaire au Marché intérieur, Thierry Breton, aux manettes, visent large : le projet concernera aussi les tablettes, les casques audios, les caméras et les enceintes musicales (mais pas les liseuses).

Le processus d’émergence des nouvelles technologies

Le processus d’émergence des nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Automobile « Le logiciel va tout changer » !…..surtout le prix .

Automobile « Le logiciel va tout changer » !…..surtout le prix . 

Éric Kirstetter, associé senior chez Roland Berger et spécialiste de l’automobile explique que le logiciel va tout changer dans la voiture du futur. Une stratégie qui peut largement se discuter dans la mesure où l’automobile se bourre  surtout d’informatique pour justifier le maintien de prix à un très haut niveau. En effet nombre de ces éléments de l’architecture logicielle sont inutiles et poseront de graves difficultés d’entretien au garagiste du coin. D’où aussi l’accroissement des dépenses d’entretien.

 

Extrait de l’interview d’Éric Kirstetter à la Tribune

 

Depuis plusieurs mois, l’actualité automobile est émaillée d’annonces autour des logiciels. En début d’année, Volkswagen a annoncé un plan d’envergure pour reprendre la main sur cette technologie. On a du mal à imaginer l’ampleur de la thématique…

ÉRIC KIRSTETTER - Ce qui est en jeu, c’est l’architecture logicielle de la voiture du futur. C’est une fusée à quatre étages. Le premier étage, c’est ce qu’on appelle le hardware, également appelés les calculateurs. Ce sont eux qui font fonctionner les équipements de la voiture. Le deuxième étage, c’est le middleware, autrement intitulé operating system [le système d'exploitation, Ndlr]. Si on devait comparer une voiture à un ordinateur, c’est ce qui équivaudrait à Windows. Il est nécessaire pour faire fonctionner tous les équipements d’une voiture, du moteur au châssis, en passant par la partie digitale des commandes de bord, ou le GPS. Le troisième étage, ce sont les applications. Elles gèrent tous les équipements de la voiture pour la faire fonctionner et créer « l’expérience utilisateur » (donner une expérience de conduite propre à la marque, proposer une interface utilisateur intuitive et agréable à utiliser…). Enfin, le quatrième étage, c’est le cloud. Cette technologie va s’imposer demain lorsque tous les véhicules seront connectés.

Le cloud est une technologie récente. Que va-t-il changer dans le modèle de l’architecture logicielle d’un véhicule ?

Il va tout changer. Demain, les voitures connectées auront accès à des données qui seront extérieures à la voiture, laquelle pourra consolider ces données pour définir des fonctionnalités spécifiques, en fonction du profil du conducteur, ou des réglages particuliers d’un véhicule. Typiquement, si vous entrez l’adresse d’un restaurant sur votre GPS, la voiture sera capable de vérifier si le temps de trajet, mis à jour en temps réel via les données livrées par le cloud, vous permettra d’arriver à l’heure avant la fermeture du restaurant; dans le cas contraire, le système pourra alors vous proposer des solutions alternatives. L’autre rupture que va apporter le cloud, c’est qu’il va permettre d’externaliser la puissance de calcul nécessaire au fonctionnement de la voiture. Cela va totalement changer la place des calculateurs présents dans une voiture. Aujourd’hui, on compte, en fonction des modèles, entre 50 et 70 calculateurs. Chaque fonction est réalisée avec un calculateur spécifique, celui-ci est vendu par un tier-one [le plus souvent un équipementier, Ndlr] avec des capteurs et des actionneurs. Demain, les calculs seront davantage centralisés dans de plus gros calculateurs de plus haute performance, qui couvriront plusieurs fonctions. Ces calculateurs vont se répartir aux quatre coins de la voiture pour centraliser les fonctionnalités et réduire le câblage des voitures.

Tout sera donc géré de l’extérieur ?

Non. Le middleware restera un élément stratégique majeur pour l’automobile de demain. Là aussi, le secteur s’apprête à basculer dans une nouvelle ère. Pour schématiser le monde d’avant: il y avait autant d’operating system que de modèles disponibles sur le marché. Ainsi, un constructeur devait reconstruire un système d’exploitation depuis le début à chaque fois qu’il mettait sur le marché un nouveau modèle. Mais avec le cockpit de plus en plus digital, le cloud, les assistants de conduite de plus en plus gourmands en données, ces systèmes d’exploitation s’avèrent de plus en plus complexes et coûteux à mettre en œuvre, et il est très difficile de réutiliser les applications déjà développées pour la version antérieure du véhicule. La voie générale que semblent suivre les constructeurs, c’est donc de créer un système d’exploitation en propre qui va pouvoir être réutilisé d’un véhicule à l’autre et qui va permettre de réutiliser et d’améliorer facilement les applications qui avaient été développées pour le véhicule précédent. Si on veut une comparaison, on peut dire que les constructeurs développent leur propre système Windows qui leur permet d’améliorer facilement Word et Excel entre chaque véhicule.

Comment naissent et se développent les nouvelles technologies

  • Comment naissent et se développent les nouvelles technologies

 

    • Un article du Wall Street Journal (extrait)
    • Des recherches éécentes pourraient nous aider à comprendre à quel rythme les technologies existantes s’améliorent. S’ils s’avèrent efficaces, ces algorithmes de prédiction de l’innovation bénéficieront aux investisseurs, aux chefs d’entreprise et aux organes de planification des pouvoirs publics. L’objectif est de nous permettre de prendre des décisions plus éclairées quant aux domaines auxquels il est judicieux de consacrer des moyens financiers, du temps et de l’attention. Qu’il s’agisse de déterminer le contenu d’un portefeuille d’investissement ou de décider quelle voie il convient de suivre dans la recherche et développement (R&D) pour résoudre un problème urgent, ces systèmes peuvent être utiles, affirme Christopher Magee, professeur émérite d’ingénierie au Massachusetts Institute of Technology (MIT), et l’un des auteurs d’un article à paraître sur le sujet.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?” Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas »
    • Le professeur Magee, qui a passé 35 ans chez Ford Motor à travailler dans des domaines comme la stratégie technologique, explique que l’une des raisons qui l’ont conduit à se lancer dans ces recherches est qu’il avait toujours eu le sentiment, en tentant avec d’autres analystes de prédire ce dans quoi une entreprise devrait investir, d’en être réduit à deviner. Il avait également l’impression que ces suppositions étaient fortement influencées par des partis pris personnels.
    • Ancien chercheur du MIT dans la conception et la gestion de systèmes, Anuraag Singh, qui a dirigé les recherches dans le cadre du projet sur l’innovation, a gardé le même type de frustration de son expérience en tant qu’ingénieur travaillant sur des avancées censées produire une rupture technologique pour la division de R&D de Honda.
    • « Lorsque j’étais chez Honda, nous cherchions la réponse à la question, “sur quoi allons-nous travailler ensuite ?”, raconte M. Singh. Pour beaucoup, la robotique et l’intelligence artificielle allaient changer le monde, mais nous n’avions pas de moyen de savoir si la robotique progressait effectivement aussi vite qu’on le pensait – et il s’est avéré que ce n’était pas le cas. »
    • Aujourd’hui, MM. Singh et Magee peuvent indiquer en une fraction de seconde à quel rythme progresse une technologie donnée. Et tout le monde peut en faire autant en tapant le nom de la technologie en question dans un moteur de recherche que les chercheurs ont créé sur le modèle de Google. Ainsi, la robotique s’améliore au rythme de 18,5 % par an, ce qui paraît rapide, mais le taux moyen d’amélioration de plus de 1 700 technologies étudiées par les chercheurs s’établit à 19 % par an.
    • L’explication sous-jacente de cette progression tient au fait que toutes les technologies, y compris les logiciels, sont régies en définitive par les lois de la physique, qui, sur le long terme, déterminent jusqu’à quel point et à quelle vitesse ces technologies peuvent évoluer.
    • Les pourcentages d’amélioration technologique reposent sur de nombreux facteurs, dont l’analyse des brevets. La base de données mise à disposition par les chercheurs regroupe plus de 97 % des brevets américains déposés entre 1976 et 2015. Ils ont fondé leurs travaux sur des décennies de recherches antérieures concernant la manière dont certains aspects des brevets peuvent permettre de prédire le rythme auquel une technologie progresse.
    • Il en ressort que le nombre de brevets auquel un domaine technologique spécifique donne lieu n’est que faiblement corrélé au rythme de progression de ce domaine. Un bien meilleur instrument de prédiction réside dans un indicateur mesurant à quel point une technologie brevetée s’inspire d’autres technologies apparemment sans lien avec elle. Il s’avère que l’innovation peut éclore n’importe où, et que les avancées majeures sont liées à l’interpénétration des technologies.
    • En s’appuyant sur ces observations ainsi que sur un ensemble de données empiriques, minutieusement recueillies, concernant les taux d’amélioration de 30 des technologies figurant dans leur base de données, les chercheurs ont développé un algorithme de prédiction capable de déterminer le rythme de progression de l’ensemble des technologies actuellement recensées par le Bureau américain des brevets et des marques et ayant donné lieu à au moins 100 brevets.
    • « Ils ont vraiment fait du bon travail, leurs recherches comblent un vide dans la littérature », estime J. Doyne Farmer, professeur de mathématiques à l’Université d’Oxford sans lien avec les recherches.
    • Les travaux de l’équipe du MIT montrent que « ce qui compte réellement, c’est la physique de ces technologies », ajoute-t-il.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes. Il s’agit de miser sur le bon cheval, et de s’y tenir »
    • Ainsi, les chercheurs du MIT ont observé, en consultant la littérature sur les brevets, qu’un moteur essentiel de la réduction régulière des circuits de microprocesseurs était l’amélioration de la technologie du laser. Cette découverte répond d’une certaine manière à la question de savoir si la « Loi de Moore » constitue une prophétie autoréalisatrice énoncée par le cofondateur d’Intel, Gordon Moore, ou un phénomène qui se serait produit y compris en l’absence de sa fameuse prédiction, les lasers s’améliorant indépendamment de la production de microprocesseurs, note le professeur Magee.
    • Les travaux réalisés par l’équipe du professeur Farmer à Oxford étayent l’une des principales conclusions de ces recherches et d’études antérieures : lorsqu’on les considère sur le temps long, les technologies évoluent chacune à un rythme étonnamment régulier. Celui-ci est lié aux principes physiques sous-jacents à toute technologie, et n’est pas attribuable à un génie particulier ou à une avancée spécifique, comme nous pouvons avoir tendance à le penser avec les progrès technologiques.
    • « Il ne s’agit pas des compétences des dirigeants d’entreprise ou de la sagesse guidant les investissements des capitalistes, note M. Farmer. Il s’agit de miser sur le bon cheval, et de s’y tenir. »
    • Cette vision de l’innovation en tant que processus déterministe, quasiment mécanique, n’est probablement pas aussi romantique que les innombrables récits mettant en scène des inventeurs ou entrepreneurs héroïques, prenant des risques considérables pour nous faire bénéficier de progrès révolutionnaires, de l’ampoule à la fusée spatiale. C’est toutefois un moyen beaucoup plus fiable de parvenir aux résultats dont la plupart des gens ont besoin, et qu’ils attendent des investissements dans la technologie, avancent les chercheurs.
    • Bill Buxton, qui fait partie de l’équipe de recherche de Microsoft et a été l’un des créateurs de l’interface sur laquelle se fondent les écrans tactiles, a formulé en 2008 une théorie qui réunit dans un concept simple certaines des idées produites par ces recherches. Cette théorie, nommée par le chercheur le « long nez de l’innovation » (long nose of innovation), renvoie à un graphique illustrant le rythme d’amélioration, et souvent d’adoption, d’une technologie : une période de gains apparemment négligeables, suivie d’une croissance exponentielle.
    • « Ces travaux [du MIT] sont précieux parce qu’ils montrent que, si les éclairs de génie existent et que des modifications sont apportées progressivement, on ne fait généralement que s’appuyer sur quelque chose qui était là auparavant, observe M. Buxton. Si l’on abandonne l’idée du héros et que l’on examine le processus réel d’innovation, on s’aperçoit que celui-ci peut être appris, tout comme on peut apprendre à jouer du piano. »
    • Pour le professeur Magee, le principal mérite des travaux de son équipe est de permettre pour la première fois de poser la question du rythme d’amélioration d’une technologie, et d’obtenir une réponse, sans recourir à des anecdotes ou de grandes théories sur l’innovation.
    • C’est une bonne nouvelle si vous vous intéressez aux logiciels, ces derniers étant de loin la technologie progressant le plus vite parmi toutes celles analysées par l’équipe. C’est une mauvaise nouvelle en revanche si vous espérez une amélioration dans le domaine de l’épilation mécanique – le plus lent à progresser sur les 1 757 couverts par l’étude.
    • (Traduit à partir de la version originale en anglais par Anne Montanaro)
    • Traduit à partir de la version originale en anglais

Aménagement du territoire et Internet : La 5G fixe à la place de la fibre

Aménagement du territoire et Internet : La 5G fixe à la place de la fibre

 

il se pourrait bien que la 5G fixe sois une solution transitoire voire définitive à la place de la fibre dans certains territoires. La fibre atteint de manière privilégiée les zones agglomérées. Pour l’habitat plus diffus, la connexion prendra du retard. En attendant la 5G fixe pourrait être utilisé de manière temporaire voire définitive pour l’Internet. La 5G fixe, qui permet un accès Internet à très haut débit grâce à une box connectée au réseau mobile, concrétisera le premier vrai cas d’usage de la nouvelle génération de communication, estime une étude du cabinet BearingPoint. Cette technologie constitue une solution de qualité dans les territoires où la fibre ne sera pas – ou pas tout de suite – déployée. Notons d’ailleurs que le gouvernement lui-même avait averti que certaines zones pourraient n’être pas desservies par la fibre et que l’accès à l’Internet de Treo débit pourrait être assuré selon les cas par la fibre, la 5G ou le satellite.

C’est ce que souligne le cabinet de conseil BearingPoint dans une étude récente, à laquelle La Tribune a eu accès. Son intitulé : « Accès sans fil : la 5G va bouleverser le paradigme Internet fixe/mobile. » Selon les auteurs, cette 5G fixe pourrait avoir le vent en poupe ces prochaines années. Dans leurs travaux, les auteurs jugent que celle-ci sera « le premier usage réel et avéré de la 5G ». Celui-ci « va permettre le marché du haut débit fixe au niveau mondial, et de réduire la fracture numérique », ajoutent-ils.

« En termes techniques, la 5G fixe peut proposer des débits plus importants que l’ADSL et le VDSL [un ADSL boosté, Ndlr], voire même la fibre (au-delà de 80 Mbits) », note BearingPoint.

D’ici deux ans, cette technologie pourrait représenter 8% des connexions Internet fixe à haut débit. Enfin et surtout, les pays émergents ne seront pas les seuls intéressés : « 44% des connexions 5G fixe seront situées dans les pays développés, contre 52% dans les pays émergents. » 

Pour une convention internationale du cyberespace

Pour une convention internationale du cyberespace

 

Après le scandale « Pegasus », qui a mis en en évidence l’utilisation du sabotage informatique comme nouvelle arme diplomatique, le chercheur en cybersécurité Ivan Kwiatkowski estime, dans une tribune au « Monde », que l’heure d’une « convention de Genève du cyberespace » est venue.( exctrait)

 

Tribune.

 

La technologie ayant une place croissante dans nos sociétés, la cyberdéfense est devenue une question de souveraineté pour la plupart des Etats, comme l’a prouvé le récent scandale Pegasus. Ceux qui n’ont pas les moyens de rivaliser avec les nations les plus puissantes sur le plan militaire ou économique renforcent leurs capacités d’attaque informatique. Déjà, la plupart des tensions et des conflits internationaux se manifestent également dans le cyberespace. Et ce n’est que le début.

Cette montée en puissance ne date pas d’hier. De nombreux Etats ont tenté de soutirer des renseignements d’ordre technologique, militaire ou stratégique à un large éventail d’acteurs depuis les années 1990. Presque trente ans plus tard, plus d’une centaine de groupes se livrent à ces opérations, de plus en plus de logiciels d’intrusion sophistiqués étant mis gratuitement à disposition du grand public. Un marché florissant s’est développé autour de la lutte informatique offensive, certaines entreprises fournissant même des logiciels ou des services dignes du mercenariat.

Face à ces menaces, aucun Etat n’a la capacité d’empêcher les attaques cyber, qu’elles le visent directement ou non. Afin de limiter les risques de cyberespionnage, la communauté internationale doit se concerter pour élaborer les normes technologiques de demain. La concurrence qui fait rage entre les Etats pour accaparer les prochaines avancées technologiques pourrait entraîner un morcellement de l’espace numérique. Si les accords bilatéraux fonctionnent pour l’instant, il est impératif de former des spécialistes en nombre pour permettre au secteur privé de se défendre efficacement contre les mêmes menaces.

 

En outre, les entrepr Projet Pegasus » : révélations sur un système mondial d’espionnage de téléphonesises étrangères, en particulier celles qui développent les équipements réseau ou traitent de données sensibles, devront accepter de se soumettre à des contrôles rigoureux pour inspirer une totale confiance (libre accès au code source, audits menés par des tiers de confiance, preuves de certificats logiciels, etc.). Les entreprises qui postulent à des marchés publics dans le domaine numérique devront respecter des conditions encore plus strictes.

Car les conflits du monde virtuel ont des conséquences dans le monde réel. L’immense majorité de nos activités repose désormais sur les technologies de l’information. Citons l’exemple de Stuxnet ou encore celui de la vague d’attaques destructrices Shamoon, pour illustrer l’ampleur des dommages pouvant être occasionnés.

Smartphones, tablettes : un chargeur unique ? Enfin !

Smartphones, tablettes : un chargeur unique ? Enfin !

Enfin ! Bruxelles a préparé proposition de directive imposant à Apple, Huawei, Nokia et autres  de doter leurs appareils vendus sur le Vieux Continent de chargeurs universels et interopérables.

Selon nos informations, le projet de directive, qui sera dévoilé dans les jours à venir et devra ensuite être examiné par le Parlement européen et le Conseil (qui regroupe les Etats), impose de doter les appareils d’au moins un port USB-C et de garantir que tous les chargeurs soient interchangeables. Les équipes du commissaire au Marché intérieur, Thierry Breton, aux manettes, visent large : le projet concernera aussi les tablettes, les casques audios, les caméras et les enceintes musicales (mais pas les liseuses).

Risque de cyber catastrophe systémique ? (Guillaume Poupard, ANSSI)

Risque de  cyber catastrophe systémique ? (Guillaume Poupard, ANSSI)

 

Pierre angulaire de la révolution numérique, la cybersécurité est aussi l’une des clés de la souveraineté technologique européenne. Guillaume Poupard, (ANSSI, l’Agence nationale de la sécurité des systèmes d’information ),  appelle la France à ne pas oublier les acteurs européens du cloud au profit des Gafam américains . (dans la Tribune, extrait)

La crise du Covid-19 a mis en évidence la fragilité des systèmes informatiques. L’Anssi a alerté fin 2020 que le nombre de victimes des cyberattaques a quadruplé en un an en France. Comment la situation évolue-t-elle en 2021 ?

GUILLAUME POUPARD - Cela ne fait que s’aggraver car la cybercriminalité se professionnalise depuis quelques années, avec pour principal objectif l’appât du gain par des réseaux organisés qui agissent comme de véritables entreprises. De fait, les attaques sont de plus en plus nombreuses et bien ficelées. Les cybercriminels ont mis en place un modèle économique du « ransomware as a service » (RaaS) qui est redoutablement efficace. Avec le RaaS, n’importe quel escroc sans compétence informatique peut devenir un cybercriminel. Les logiciels de rançon sont commercialisés clé en main sur le darkweb. Il y a des personnes qui développent les attaques, d’autres qui les vendent et d’autres qui les exécutent.

La conséquence de cette industrialisation de la cybercriminalité est l’explosion du nombre d’attaques. Entre le premier semestre 2020 et le premier semestre 2021, l’Anssi évalue la progression à +60% ! C’est donc une véritable catastrophe économique. Si on est de nature optimiste, on peut remarquer que la progression ralentit car c’était pire l’an dernier à la même époque, mais objectivement la situation est mauvaise. D’autant plus que les autres menaces, celles qui ne sont pas visibles, continuent de se développer.

Quelles sont-elles ?

L’espionnage. En parallèle de la cybercriminalité « classique » qui touche les entreprises, les collectivités et le grand public, se développe une cybercriminalité « stratégique », menée par des grands Etats avec des groupes affiliés. Cette cyberguerre existe depuis longtemps mais elle se renforce. Ces hackers mènent des campagnes de plus en plus complexes et massives, ils ont des moyens quasi-illimités et agissent dans le cadre d’un affrontement géopolitique entre les grandes puissances de ce monde. C’est la nouvelle guerre froide, mais dans le cyberespace. L’Anssi trouve des traces de ces réseaux partout.

Peut-on enrayer cette augmentation rapide et spectaculaire des cyberattaques ?

Il faut distinguer la cybercriminalité « classique » de la cybercriminalité étatique, car nous avons beaucoup plus de marge de manœuvre pour faire reculer la première. Les cyberattaques contre les entreprises et les collectivités prospèrent car personne n’est vraiment prêt. Mais ce n’est pas une fatalité, on peut agir. Si chacun fait un véritable effort, si chaque patron de PME, de TPE ou d’hôpital comprend qu’il a une responsabilité et qu’il doit allouer à sa cybersécurité un budget non-négligeable et incompressible, alors on peut casser cette dynamique et se protéger collectivement.

Il ne faut pas tout attendre de l’Etat : la cybersécurité est une responsabilité individuelle. Les particuliers doivent adopter de bons réflexes sur leurs mots de passe ou la mise à jour de leurs logiciels pour éviter de se faire piéger. Les entreprises et les collectivités doivent intégrer la dimension cyber dans tous leurs projets et porter le sujet au niveau de la direction générale. La cybersécurité est une composante de la transformation numérique de l’économie et de la société. Je crois qu’on vit une vraie prise de conscience et que dans cinq ans la cybercriminalité classique aura baissé.

Mieux se protéger collectivement permettra-t-il aussi de faire reculer la cybercriminalité étatique ?

Oui et non. Oui car il y a forcément un effet ricochet : les entreprises et organisations les mieux protégées sont moins attaquées. Une entreprise dans la supply chain par exemple, peut devenir la cible d’une cyberattaque d’origine étatique si l’objectif est d’affaiblir son client final. C’est ce qui est arrivé aux Etats-Unis avec l’attaque SolarWinds, qui a traumatisé les autorités car c’était une attaque massive contre le gouvernement fédéral et les réseaux énergétiques américains via un logiciel tiers, Orion, fourni par l’entreprise SolarWinds. Il faut donc mieux protéger à la fois les grands groupes et leurs écosystèmes.

Ceci dit, il est beaucoup plus difficile de stopper la cybercriminalité étatique car le niveau des assaillants est encore plus élevé. Pour lutter contre eux, il faut utiliser tous les moyens de renseignement et de coopération internationale. L’enjeu est de détecter au plus tôt les agressions pour les éviter ou atténuer leur gravité, mais aussi être capable de faire de l’attribution de menace pour avoir une politique de sanctions et une diplomatie plus efficaces. Aujourd’hui il est très complexe de relier de manière incontestable un réseau cybercriminel à un Etat, ce qui permet aux Etats de nier. Les militaires parlent du cyberespace comme d’un nouvel espace de conflictualité. Les Etats y préparent les conflits du futur, des agents dormants sont placés dans des secteurs stratégiques comme les transports, l’énergie, les télécoms, pour agir le jour où ils en ont besoin.

Vous êtes optimiste sur la capacité de la France à inverser la courbe des cyberattaques, mais aujourd’hui les PME, les TPE et les collectivités restent globalement mal protégées. Même les grands groupes souffrent d’énormes failles de sécurité qui sont régulièrement exploitées par les cybercriminels…

C’est vrai, mais aujourd’hui plus aucune entreprise du CAC40 ne sous-estime la menace cyber et le sujet est passé au stade de la direction générale, ce qui signifie que les budgets suivent. De plus, il y a une prise de conscience globale, à commencer par l’Etat qui a lancé sa stratégie cybersécurité en début d’année et qui consacre 1,3 milliard d’euros pour rassembler l’écosystème français de la cyber et accélérer la protection de tout le monde.

La réalité est que les plus mal protégés -TPE, collectivités, hôpitaux…- ne pensaient pas être des cibles. Ils ne sont pas idiots ni négligents, mais ils se disaient : « pourquoi serais-je attaqué alors qu’il y a tellement plus d’argent à récolter ailleurs ? » Sauf que l’expérience montre que tout le monde est attaqué, même les petits. Les petits paient même plus facilement la rançon, car l’arrêt forcé de leur activité à cause d’un ransomware peut les conduire à mettre très vite la clé sous la porte. Du coup tout le monde est en train de se protéger, mais cela prendra encore quelques années pour se mettre à niveau. C’est une course contre la montre mais je suis confiant sur le fait qu’on y arrivera.

De nombreux hôpitaux ont été attaqués depuis la crise sanitaire, dont plusieurs centres hospitaliers en France, notamment à Rouen, Dax et Villefranche-sur-Saône. Ces attaques ont révélé l’ampleur de leur impréparation. Mais ont-ils les moyens financiers, techniques et humains de bien se protéger ?

Les hackers avaient coutume de vanter une sorte de code de bonne conduite qui épargnait les hôpitaux, mais ce code a volé en éclat avec la crise sanitaire. Je doute même qu’il ait vraiment existé. A mon avis les hôpitaux étaient moins pris pour cible avant le Covid parce que les hackers voulaient éviter de se retrouver dans le radar des autorités, et attaquer un lieu sacré c’est le meilleur moyen d’attirer l’attention. Mais la réalité est que les cybercriminels n’ont aucune éthique. Le Covid-19 l’a prouvé de manière très cynique : attaquer un hôpital en pleine crise sanitaire c’est multiplier les chances qu’ils paient la rançon.

Pour revenir à votre question, la cybersécurité coûte cher, oui. Et encore plus pour un hôpital qui a déjà un budget très serré et des missions importantes de service public à mener. L’objectif pour les centres hospitaliers est qu’ils sanctuarisent entre 5% et 10% de leur budget informatique pour la cybersécurité. Ce n’est clairement pas le cas aujourd’hui mais c’est indispensable. Je ne leur jette pas la pierre car je me mets à la place d’un directeur d’hôpital qui doit choisir entre acheter des lits et des scanners ou protéger ses systèmes d’information des menaces cyber. Honnêtement, je comprends qu’il choisisse d’acheter des lits et des scanners. Surtout quand il n’a pas déjà été confronté à une crise cyber, car la menace lui paraît lointaine. Mais désormais il faut changer cette manière de penser et considérer que protéger ses systèmes informatiques relève de l’importance vitale.

Les aidez-vous à se mettre à niveau ?

Oui. L’Etat a octroyé une enveloppe de 136 millions d’euros à l’Anssi dans le cadre de sa stratégie de cybersécurité. Dans cette enveloppe, 25 millions d’euros sont consacrés aux établissements de santé. Chaque hôpital peut bénéficier d’un audit de cybersécurité et d’un plan d’action à hauteur de 140.000 euros. L’idée est de leur mettre le pied à l’étrier : on arrive, on fait l’analyse des risques, on établit avec eux une stratégie cyber, on les met en relation avec des prestataires de confiance certifiés par l’Anssi, et la machine est lancée. Les établissements de santé peuvent aussi bénéficier d’autres aides. Dans le Ségur de la santé, l’Etat déploie une enveloppe de 350 millions d’euros pour la sécurité numérique.

Quand l’Anssi intervient-il auprès des entreprises et des collectivités ?

Nous intervenons avant tout auprès des acteurs régulés, c’est-à-dire les opérateurs d’importance vitale (OIV) et les opérateurs de services essentiels (OSE). D’un côté ils ont l’obligation de présenter un niveau de sécurité élevé, et en contrepartie ils bénéficient d’un accès prioritaire à la capacité de réponse de l’Anssi en cas d’incident cyber. Des cibles que je qualifie de « politiques » bénéficient aussi de notre aide, soit en réaction à une attaque soit en anticipation. Par exemple, nous sommes intervenus en amont sur l’application TousAntiCovid, car l’impact politique et médiatique d’une attaque serait dramatique.

Quelquefois, l’Anssi peut être amené à intervenir auprès d’acteurs non-régulés comme certains établissements hospitaliers, par exemple l’an dernier à Rouen, Dax et Villefranche-sur-Saône. Dans ces cas on les a aidés en réaction à la cyberattaque et on a fait de la reconstruction, ce qui est rare car ce n’est pas dans notre ADN, mais pour les hôpitaux on peut le faire.

Parfois, l’Anssi choisit aussi d’intervenir à des endroits atypiques mais intéressants pour comprendre l’évolution de la menace, comme certaines PME ou TPE. Par exemple, nous avons passé plusieurs mois dans un Ehpad, à la grande stupéfaction de la direction qui n’a pas vraiment compris les raisons de notre présence ! Il s’avère qu’un attaquant de nature étatique qui nous intéressait particulièrement s’était installé sur les serveurs de cet Ehpad. Il ne souhaitait pas attaquer l’Ehpad mais il se servait de ce rebond pour cibler des acteurs stratégiques français. Il se pensait à l’abri sur les serveurs de cet Ehpad mais on l’a observé pendant plusieurs mois et cela nous a aidés à reprendre l’avantage sur lui.

L’Etat prévoit d’injecter 1,3 milliard d’euros pour développer l’écosystème cyber en France. Ce plan est-il à la hauteur des enjeux ?

Le fait que le sujet de la cybersécurité soit porté par le président de la République est incontestablement une grande avancée. L’argent mis sur la table et la philosophie d’action qui consiste à renforcer tout l’écosystème de la cyber, de la R&D aux startups en passant par les grands groupes, me paraissent aller dans le bon sens. Le gouvernement a intégré la question de la sécurité dans le domaine du numérique et c’est courageux car ce sont deux communautés qui ont longtemps eu du mal à se rencontrer.

Après, il est compliqué de se prononcer sur les montants car la cybersécurité est un effort permanent qui doit faire partie des coûts fixes d’une entreprise ou d’une collectivité. Ce coût est très variable, il dépend de la taille de la structure, de son secteur d’activités et d’où on part, c’est-à-dire s’il faut carrément refaire tous les systèmes d’information ou s’il faut juste moderniser les équipements et s’équiper en logiciels. Mais il faudra quand même mobiliser ces 5% à 10% du budget informatique. Cette dépense devient incompressible car la menace s’est concrétisée.

L’un des piliers de la stratégie cyber de l’Etat est la notion d’écosystème, matérialisée par la création d’un immense Campus Cyber à La Défense, dans lequel sont amenés à collaborer centres de recherche privés et publics, Etat, startups, PME et grands groupes. Mais n’est-il pas idyllique de penser que des entreprises concurrentes vont collaborer entre elles pour le bien de l’écosystème?

L’idée derrière le Campus Cyber et ses futures déclinaisons en Région c’est d’aller explorer des manières de travailler qui n’ont pas encore été tentées. Cette méthode de l’écosystème fonctionne dans le numérique, il faut l’appliquer à la cybersécurité et je constate que tous les acteurs ont envie de travailler ensemble et ont les moyens de le faire.

Donc idyllique, ça l’est forcément un peu, mais je préfère parler de pari. Pour être honnête c’était la crainte initiale et c’est pour cela que je parle d’utopie quand je m’exprime sur le Campus Cyber. A priori, c’est contre-nature pour des entreprises concurrentes de travailler les unes avec les autres. Mais cela va fonctionner car grâce à cette collaboration ils vont obtenir un avantage concurrentiel pour attaquer le marché européen voire international. Dans d’autres domaines industriels, les Français ont choisi de se regarder en chien de faïence et cela ne leur a pas porté chance. Cette erreur peut être évitée dans la cybersécurité grâce au Campus Cyber.

La différence c’est aussi que les acteurs de la cybersécurité ont l’embarras du choix, ils ne peuvent pas répondre à tous les appels d’offres car le secteur souffre d’une grosse pénurie de talents. La guerre des talents est assumée mais le Campus Cyber peut justement créer une émulation et une régulation de ce phénomène avec un code de bonne conduite où les mercenaires qui changent d’emploi tous les ans pour prendre une augmentation de 20% de salaire sont neutralisés.

La crise des talents est le principal problème du secteur de la cybersécurité, et du numérique en général. A quel point est-il difficile de recruter pour l’Anssi ?

Le recrutement est une préoccupation constante, majeure, et on y met beaucoup d’énergie. L’équation n’est pas favorable : il y a beaucoup plus d’emplois à pourvoir que de personnes pour les occuper. Mais je ne me plains pas car ce n’est pas très difficile pour l’Anssi d’attirer les talents, y compris les très bons. L’Anssi reste une marque forte, notamment pour des jeunes qui sortent d’école, qui ont soif d’apprendre et qui veulent être utiles. Travailler à l’Anssi c’est se mettre au service de la nation, côtoyer des équipes de top niveau, et réaliser des missions intéressantes et diversifiées. On voit chez nous des choses qu’on ne trouve pas ailleurs.

Après, il ne faut pas se cacher que l’Anssi est très formateur donc c’est aussi une super ligne à avoir sur le CV quand on veut passer dans le privé. Certains le regrettent. Moi je dis : oui, et alors ? La mobilité dans une carrière, c’est normal. A chaque fois qu’un talent part de l’Anssi, je prends le parti de m’en réjouir car cela veut dire que j’aurais un allié naturel dans le privé, qui est bon et qui contribue à construire l’écosystème. Ils peuvent partir du jour au lendemain par contre, quand ils estiment au bout de quelques années qu’ils doivent passer à autre chose. Donc il faut les intéresser pour les garder, mais je peux vous assurer qu’on ne s’ennuie pas à l’Anssi.

L’enjeu pour les entreprises c’est de se mettre au niveau rapidement. Quelle est l’approche la plus efficace ?

La question qui m’agace prodigieusement à la fin d’un Comex c’est quand on me demande « si vous n’aviez qu’un seul conseil ce serait quoi ? » Hé bien mon conseil, ce serait de vous y mettre sérieusement ! Aujourd’hui le sujet cyber monte dans les directions générales dans le privé, car certains ont pris la foudre et d’autres ont vu la foudre tomber pas très loin, donc ils ont compris. Mais dans le public et dans les petites entreprises on n’y est pas encore, d’où un énorme enjeu de sensibilisation. Des plans sectoriels peuvent être de bonnes idées pour mobiliser toute une filière, mais globalement il faut faire partout la même chose : prendre en compte la cybersécurité dès la conception des systèmes informatiques, améliorer la détection des menaces, l’anticipation des crises, avoir des plans de réaction et des plans de reprise d’activité en cas d’attaque… C’est ce que l’on impose aux opérateurs régulés et que l’on retrouve dans les textes européens.

En parlant d’Europe, on parle souvent de la nécessité de construire une « Europe de la cyber ». Mais concrètement, c’est quoi une « Europe de la cyber » ?

C’est une très bonne question et c’est tout l’enjeu de la présidence française de l’UE au premier semestre 2022 de le définir. L’Europe de la cyber c’est d’abord une Europe réglementaire, ce que sait très bien faire l’Europe par ailleurs. N’y voyez pas une pique contre l’Europe : sans le Règlement sur la protection des données (RGPD), les entreprises n’auraient jamais fait monter ce sujet assez haut dans la hiérarchie pour passer l’étape des budgets. Dans le domaine de la cybersécurité, c’est pareil. Depuis 2016, la directive Network and Information System Security (NIS) a fait ses preuves. Son but est d’assurer un niveau de sécurité élevé et commun pour les réseaux et les systèmes d’information européens. En gros, la directive NIS étend à l’échelle européenne cette notion d’opérateur critique qu’on avait en France et en Allemagne. D’ailleurs, elle fonctionne tellement bien qu’on est en train de la réviser, et encore une fois, ce n’est pas ironique !

Que manque-t-il à la directive NIS dans sa version actuelle ?

Rien, justement, elle fonctionne très bien et c’est pour cela qu’il faut étendre son périmètre, passer à l’échelle pour réglementer davantage de secteurs afin de généraliser la montée en compétence cyber. La directive NIS se concentre sur la sécurité des cibles finales des cyberattaques mais il faut aussi protéger les cibles intermédiaires et les prestataires de services numériques (ESN), qui ne sont actuellement pas régulés et c’est bien dommage, à la fois pour eux-mêmes et pour leurs clients. Il faut aussi étendre NIS dans le domaine des hôpitaux : en France une centaine d’établissements hospitaliers sont concernés par NIS, dont 13 CHU, mais il faut aller plus loin car il y a 4.000 établissements hospitaliers dans le pays. On ne peut pas tout faire d’un coup car le secteur privé n’arriverait pas à suivre la demande, mais il faut étendre les obligations petit à petit car c’est en relevant le niveau de sécurité de tout le monde qu’on fera reculer la cybercriminalité.

Quels autres sujets la France devrait-elle pousser pendant sa présidence du Conseil de l’UE, au premier semestre 2022 ?

Il faut mettre en place une vraie coopération opérationnelle à l’échelle européenne. Mettre en réseau notre capacité de réponse à une cyberattaque, à un niveau technologique, stratégique et politique. Il faut une vraie solidarité européenne dans la cybersécurité car aujourd’hui, si un Etat membre demande de l’aide, on ne sait pas l’aider.

Comment ça ?

Concrètement, si un Etat membre demande de l’aide pour gérer une cyberattaque, les CERT de chaque pays [Centre gouvernemental de veille, d'alerte et de réponse aux attaques informatiques, Ndlr] vont échanger des informations mais ils ne sauront pas mettre en place une aide opérationnelle. Lors des incendies de l’été en Grèce, l’UE a été capable de mobiliser très vite des pompiers européens pour venir en renfort sur place. Mais dans le cas d’une crise cyber, on ne sait pas faire.

Il faut donc anticiper les crises, créer des règles et des mécanismes de solidarité qui n’existent pas encore. A l’heure actuelle si l’Anssi envoyait des renforts français pour gérer une crise cyber en Grèce par exemple, elle le ferait au détriment d’une urgence nationale. La France pousse donc l’idée de ne pas seulement faire appel à des forces publiques comme les Anssi de chaque pays, mais de mobiliser aussi le secteur privé. Des entreprises certifiées pourraient aller faire des audits, répondre à des incidents, faire de la reconstruction. Mais il faut créer le cadre réglementaire pour le rendre possible.

La cybersécurité fait partie des outils pour gagner une souveraineté technologique européenne. Construire un cloud européen indépendant des Gafam est-il indispensable ?

La souveraineté technologique est un sujet très complexe qui demande beaucoup de courage politique. Le cloud est l’un des piliers de la sécurité numérique européenne car il renferme toutes nos données et fait fonctionner nos infrastructures. La question est donc : est-on capables d’avoir à l’échelle européenne un cloud certifié complètement imperméable au droit extraterritorial étranger, notamment américain et chinois ? Si on n’est pas capables de dire clairement qu’on ne veut pas que des pays non-européens puissent accéder à nos systèmes cloud, alors je ne veux plus entendre parler de souveraineté européenne.

La France a lancé une stratégie « cloud de confiance » qui propose un entre-deux en autorisant des technologies étrangères mais uniquement sous licence et commercialisées par des entreprises européennes. Le secteur du cloud français est vent debout contre cette initiative. Est-on vraiment souverain quand on utilise sous licence des technologies de Microsoft ?

Je peux comprendre le scepticisme. Cette stratégie ne peut pas être le fossoyeur des acteurs français ou européens du cloud, car les OVH, Scaleway, Outscale et autres sont très bons. Il faut continuer à mettre la lumière sur eux avant tout.

Mais on ne peut pas non plus interdire la technologie américaine. Il y a un principe de réalité à avoir. Le fait de repositionner les acteurs américains dans leur rôle de fournisseur de technologies me paraît un compromis acceptable. Microsoft semble embrasser ce rôle, Amazon et Google c’est plus compliqué car ce n’est pas dans leur ADN. Mais il est essentiel d’imposer nos règles de manière pragmatique. Rendre ces technologies immunes au Cloud Act et à la loi FISA c’est une manière d’être souverain. Les technologies de Microsoft seront dans la coentreprise française Bleu, issue de Orange et de Capgemini, et Bleu ne mettra jamais un orteil aux Etats-Unis donc sera imperméable au droit extraterritorial américain.

L’élection présidentielle de 2022 arrive. Cela vous inquiète-t-il ?

Non. On sera attaqués, il y aura certainement des tentatives de manipulation. Il faut donc faire beaucoup de sensibilisation auprès des partis politiques et des équipes de campagne et s’assurer que les systèmes d’information soient au bon niveau. Et quand on sera attaqués il faudra bien réagir mais je suis relativement plus serein qu’il y a cinq ans.

On dit souvent que la prochaine grande crise mondiale sera une crise cyber. Partagez-vous cette crainte ?

Je pense que les menaces s’additionnent : le terrorisme, le Covid, la cyber… Du coup on réfléchit beaucoup au sein de l’Etat à la notion de multi-crise. Notre organisation est conçue pour gérer une crise à la fois, pas plusieurs. Il faut donc s’adapter à cette nouvelle donne. Une crise cyber majeure cela peut être par exemple un effondrement sectoriel lié à une vague de cyberattaques sur des infrastructures énergétiques. Cela peut être Microsoft ou Amazon qui s’éteint et cela déclenche une crise mondiale car les conséquences en cascade seraient monstrueuses. Quand on parle de « Pearl Harbor cyber » c’est en réalité très en-deçà de la réalité de la menace car Pearl Harbor était une tragédie localisée alors qu’une grande crise cyber serait systémique.

Instagram :Une application dangereuse pour la jeunesse

 Instagram :Une application dangereuse pour la jeunesse

D’après un article du Wall Street Journal (extrait )

 

Les travaux menés par Facebook ces trois dernières années ont montré que l’application était particulièrement dangereuse pour certaines adolescentes. D’après une diapositive de 2019 que le Wall Street Journal a pu consulter, les chercheurs estimaient en effet que, chez un tiers des adolescentes, Instagram amplifiait les complexes physiques. Les jeunes interrogés estimaient également que l’application provoquait une augmentation des cas d’anxiété et de dépression, selon ces travaux.

En public, en revanche, les dirigeants de Facebook minimisaient régulièrement les effets négatifs d’Instagram et n’ont jamais communiqué les conclusions des recherches. En mars dernier, Mark Zuckerberg a annoncé que son groupe « commençait d’envisager » une version d’Instagram adaptée aux moins de 13 ans.

« L’article paru ce jour dans le WSJ et consacré aux recherches que nous menons pour comprendre l’expérience des jeunes sur [Instagram] donne une image négative de nos conclusions, mais soulève des questions importantes, a tweeté mardi Adam Mosseri, le directeur général d’Instagram. Nous ne renions pas ce travail et pensons que les entreprises devraient être plus nombreuses à le mener. »

Le réseau social a également publié un post expliquant que ses travaux internes étaient cohérents avec des études externes estimant que les réseaux sociaux ont des conséquences « en demi-teinte » sur le bien-être. Facebook n’a pas souhaité réagir aux déclarations des parlementaires.

En avril, des élus démocrates avaient écrit à Mark Zuckerberg, critiquant la volonté du groupe de lancer un Instagram pour enfants. En mai, les procureurs généraux de 44 Etats et territoires lui avaient demandé de renoncer à son projet.

En août, Richard Blumenthal et Marsha Blackburn avaient demandé à Mark Zuckerberg de publier les études internes consacrées à l’impact des applications du groupe sur la santé mentale des jeunes. Tous deux avaient déjà critiqué Facebook par le passé. Le groupe leur avait répondu dans un courrier de six pages… qui ne comportait pas une ligne des conclusions des travaux.

« Une chose est sûre : Facebook est incapable d’être à la hauteur de ses responsabilités, ont déploré l’élu du Connecticut et la sénatrice du Tennessee dans leur communiqué commun. L’enquête du Wall Street Journal montre que la direction de Facebook n’a qu’un seul but, la croissance à tout prix, et fait passer le profit avant la santé et la vie des enfants et des jeunes. »

« Quand on lui a donné l’occasion de dire en toute transparence ce qu’il savait de l’impact d’Instagram sur les jeunes, Facebook a fourni des réponses évasives et trompeuses, dissimulant les preuves de nocivité », ajoutent-ils.

Le sous-comité chargé de la protection des consommateurs est une émanation de la commission du commerce du Sénat.

L’enquête du Wall Street Journal s’appuie sur de nombreux documents internes. Une partie de ces documents a été transmise à la SEC, le gendarme de la bourse américaine, et au Congrès par une personne qui souhaite bénéficier de la protection fédérale accordée aux lanceurs d’alerte, avait déjà relaté le Wall Street Journal.

« Ces documents montrent clairement que Facebook a pris, en toute connaissance de cause, des décisions qui ont permis la diffusion de fausses informations et de contenus nocifs. Les informations anonymes transmises en toute légalité, à l’instar de celles dont nous parlons aujourd’hui, sont indispensables aux autorités et au Congrès », souligne John Tye, avocat de Whistleblower Aid qui a transmis les documents à la SEC.

Facebook n’a pas immédiatement répondu à la demande de commentaire sur le communiqué des sénateurs.

Mardi, après la parution de l’article du Wall Street Journal, les parlementaires des deux côtés de l’Atlantique ont dit leur inquiétude.

« C’est épouvantable, a déploré Ed Markey, sénateur démocrate du Massachusetts, sur Twitter. J’exige des réponses de Mark Zuckerberg. »

Damian Collins, parlementaire britannique qui milite pour une loi sur la sécurité en ligne, a également fustigé le réseau social, soulignant dans un communiqué que l’article du Wall Street Journal « démontrait que l’entreprise, une fois encore, vise le profit, quitte à faire du mal ».

« Les recherches [de Facebook] révèlent qu’une grande partie des jeunes utilisateurs d’Instagram disent que l’application dégrade l’image qu’ils ont d’eux, mais tout ce que veut l’entreprise, c’est qu’ils s’y connectent encore et encore. »

(Traduit à partir de la version originale en anglais par Marion Issard)

Traduit à partir de la version originale en anglais

L’enjeu de l’hébergement des données

 L’enjeu de l’hébergement des données

La tribune de Me Laurent Marville (dans l’Opinion, extrait)

Laurent Marville est avocat-associé du cabinet Reinhart Marville Torre

 

Sur ce nouveau terrain de l’affrontement entre les Etats, s’opposent principalement une approche inscrite dans une tradition humaniste héritée des Lumières estimant que le droit sur ses données constitue un droit personnel, fondamental et inaliénable et une autre approche privilégiant la défense des intérêts stratégiques des Etats et ignorant largement le droit des personnes.

Surveillance. A la suite de la France, qui, dès 1978, consacrait la notion d’un droit des personnes sur leurs données personnelles, cette vision fut consacrée par l’Union Européenne en 2016 avec le RGPD. Ce droit personnel ne peut faire l’objet d’une cession ou d’une patrimonialisation. Pour simplifier, une personne doit pouvoir être en mesure de contrôler l’utilisation qu’un tiers peut faire de ses données.

Cette vision est loin d’être dominante dans le monde. La plupart des grandes puissances consacrent, à l’inverse, un droit stratégique des Etats à disposer des données personnelles, de leurs concitoyens en Chine, et sur les citoyens du monde pour les Etats Unis. Les droits des individus sur leurs données personnelles constituent désormais un indicateur des libertés individuelles.

En Chine, l’objectif de la réglementation (loi de 2020) consiste « à sauvegarder la souveraineté du cyberespace à garantir la sécurité nationale ». Ce pays vient en 2021 d’adopter une réglementation qui, en apparence, reprend certains des principes fondamentaux du RGPD mais dont la finalité essentielle consiste à assurer à l’Etat chinois un contrôle des sociétés technologiques qui devront gérer les données personnelles en fonction de « leur pertinence pour la sécurité nationale ». Pékin exerce une surveillance d’Etat sans cesse renforcée, organisant notamment une notation du comportement de ses citoyens.

Si les Etats Unis partagent avec la Chine une vision utilitariste et une volonté de surveillance, ils sont aussi soucieux d’assurer la prospérité de leurs champions économiques. Or les GAFAM ont assis leur prospérité sur un modèle économique permettant une exploitation sans freins des données personnelles. Aussi, les Etats Unis se sont délibérément dotés de réglementations (Patriot Act et Cloud Act) permettant un contrôle important des personnes et particulièrement de celles qui ne bénéficient pas de droits de résidence dans ce pays. Ces réglementations à vocation extraterritoriale leur permettent donc, en toute légalité, de pouvoir appréhender des données et informations personnelles en violation totale du RGPD.

Face à ces attitudes ou réglementations ouvertement hostiles, est-il possible pour l’Union Européenne de ne pas réagir ? Dans cette « guerre » pour le contrôle des données, nous n’avons que trop tardé, aveuglés par nos préjugés candides et le nécessaire respect des droits des personnes.

Cette candeur de nos gouvernants, voire cette pusillanimité à répliquer, est particulièrement alarmante

A ce jour, la seule riposte mise en place l’a été sur le plan juridique et dans un registre strictement défensif. Ainsi l’arrêt de la Cour de Justice de l’Union Européenne du 16 juillet 2020 a estimé que, du fait de ces réglementations, les opérateurs américains n’assuraient pas un niveau de protection suffisant des données personnelles des Européens. Pour autant, le législateur, communautaire et national, demeure sans aucune réaction et il n’est nullement même envisagé la mise en place de dispositions offensives symétriquement équivalentes à celle des Etats Unis.

Cette candeur de nos gouvernants, voire cette pusillanimité à répliquer, est particulièrement alarmante sur le terrain économique. En effet, la principale des ripostes consisterait à avoir les moyens de son indépendance et donc de pouvoir héberger des données. A ce jour il n’existe aucun acteur significatif susceptible d’offrir une alternative réelle aux géants américains.

La France prétend devenir un Eldorado en la matière mais croit-elle vraiment en sa politique alors que certaines administrations, et symboliquement le health data hub, choisissent Microsoft comme hébergeur ? Il est évident que l’Etat ne peut sérieusement et sans incohérence encourager un hébergement des données à des opérateurs français alors que lui-même ne dispose pas d’autre choix que de devoir recourir au GAFAM.

Croire à des projets simplement hexagonaux est sur ce point particulièrement naïf. Il est évident qu’un opérateur majeur devrait par essence avoir une taille et une vocation communautaire. Cette absence de vision ne peut que réjouir nos concurrents chinois et américains qui, à l’évidence, ont de beaux jours devant eux et pourront sereinement se partager le trésor de nos données personnelles.

Sans pour autant passer dans le temps des cyniques, l’Union Européenne doit entrer dans le camp des réalistes.

Laurent Marville est avocat-associé du cabinet Reinhart Marville Torre.

Vers une cyber catastrophe systémique ? (Guillaume Poupard, ANSSI)

Vers  une cyber catastrophe systémique ? (Guillaume Poupard, ANSSI)

Pierre angulaire de la révolution numérique, la cybersécurité est aussi l’une des clés de la souveraineté technologique européenne. Guillaume Poupard, (ANSSI, l’Agence nationale de la sécurité des systèmes d’information ),  appelle la France à ne pas oublier les acteurs européens du cloud au profit des Gafam américains . (dans la Tribune, extrait)

La crise du Covid-19 a mis en évidence la fragilité des systèmes informatiques. L’Anssi a alerté fin 2020 que le nombre de victimes des cyberattaques a quadruplé en un an en France. Comment la situation évolue-t-elle en 2021 ?

GUILLAUME POUPARD - Cela ne fait que s’aggraver car la cybercriminalité se professionnalise depuis quelques années, avec pour principal objectif l’appât du gain par des réseaux organisés qui agissent comme de véritables entreprises. De fait, les attaques sont de plus en plus nombreuses et bien ficelées. Les cybercriminels ont mis en place un modèle économique du « ransomware as a service » (RaaS) qui est redoutablement efficace. Avec le RaaS, n’importe quel escroc sans compétence informatique peut devenir un cybercriminel. Les logiciels de rançon sont commercialisés clé en main sur le darkweb. Il y a des personnes qui développent les attaques, d’autres qui les vendent et d’autres qui les exécutent.

La conséquence de cette industrialisation de la cybercriminalité est l’explosion du nombre d’attaques. Entre le premier semestre 2020 et le premier semestre 2021, l’Anssi évalue la progression à +60% ! C’est donc une véritable catastrophe économique. Si on est de nature optimiste, on peut remarquer que la progression ralentit car c’était pire l’an dernier à la même époque, mais objectivement la situation est mauvaise. D’autant plus que les autres menaces, celles qui ne sont pas visibles, continuent de se développer.

Quelles sont-elles ?

L’espionnage. En parallèle de la cybercriminalité « classique » qui touche les entreprises, les collectivités et le grand public, se développe une cybercriminalité « stratégique », menée par des grands Etats avec des groupes affiliés. Cette cyberguerre existe depuis longtemps mais elle se renforce. Ces hackers mènent des campagnes de plus en plus complexes et massives, ils ont des moyens quasi-illimités et agissent dans le cadre d’un affrontement géopolitique entre les grandes puissances de ce monde. C’est la nouvelle guerre froide, mais dans le cyberespace. L’Anssi trouve des traces de ces réseaux partout.

Peut-on enrayer cette augmentation rapide et spectaculaire des cyberattaques ?

Il faut distinguer la cybercriminalité « classique » de la cybercriminalité étatique, car nous avons beaucoup plus de marge de manœuvre pour faire reculer la première. Les cyberattaques contre les entreprises et les collectivités prospèrent car personne n’est vraiment prêt. Mais ce n’est pas une fatalité, on peut agir. Si chacun fait un véritable effort, si chaque patron de PME, de TPE ou d’hôpital comprend qu’il a une responsabilité et qu’il doit allouer à sa cybersécurité un budget non-négligeable et incompressible, alors on peut casser cette dynamique et se protéger collectivement.

Il ne faut pas tout attendre de l’Etat : la cybersécurité est une responsabilité individuelle. Les particuliers doivent adopter de bons réflexes sur leurs mots de passe ou la mise à jour de leurs logiciels pour éviter de se faire piéger. Les entreprises et les collectivités doivent intégrer la dimension cyber dans tous leurs projets et porter le sujet au niveau de la direction générale. La cybersécurité est une composante de la transformation numérique de l’économie et de la société. Je crois qu’on vit une vraie prise de conscience et que dans cinq ans la cybercriminalité classique aura baissé.

Mieux se protéger collectivement permettra-t-il aussi de faire reculer la cybercriminalité étatique ?

Oui et non. Oui car il y a forcément un effet ricochet : les entreprises et organisations les mieux protégées sont moins attaquées. Une entreprise dans la supply chain par exemple, peut devenir la cible d’une cyberattaque d’origine étatique si l’objectif est d’affaiblir son client final. C’est ce qui est arrivé aux Etats-Unis avec l’attaque SolarWinds, qui a traumatisé les autorités car c’était une attaque massive contre le gouvernement fédéral et les réseaux énergétiques américains via un logiciel tiers, Orion, fourni par l’entreprise SolarWinds. Il faut donc mieux protéger à la fois les grands groupes et leurs écosystèmes.

Ceci dit, il est beaucoup plus difficile de stopper la cybercriminalité étatique car le niveau des assaillants est encore plus élevé. Pour lutter contre eux, il faut utiliser tous les moyens de renseignement et de coopération internationale. L’enjeu est de détecter au plus tôt les agressions pour les éviter ou atténuer leur gravité, mais aussi être capable de faire de l’attribution de menace pour avoir une politique de sanctions et une diplomatie plus efficaces. Aujourd’hui il est très complexe de relier de manière incontestable un réseau cybercriminel à un Etat, ce qui permet aux Etats de nier. Les militaires parlent du cyberespace comme d’un nouvel espace de conflictualité. Les Etats y préparent les conflits du futur, des agents dormants sont placés dans des secteurs stratégiques comme les transports, l’énergie, les télécoms, pour agir le jour où ils en ont besoin.

Vous êtes optimiste sur la capacité de la France à inverser la courbe des cyberattaques, mais aujourd’hui les PME, les TPE et les collectivités restent globalement mal protégées. Même les grands groupes souffrent d’énormes failles de sécurité qui sont régulièrement exploitées par les cybercriminels…

C’est vrai, mais aujourd’hui plus aucune entreprise du CAC40 ne sous-estime la menace cyber et le sujet est passé au stade de la direction générale, ce qui signifie que les budgets suivent. De plus, il y a une prise de conscience globale, à commencer par l’Etat qui a lancé sa stratégie cybersécurité en début d’année et qui consacre 1,3 milliard d’euros pour rassembler l’écosystème français de la cyber et accélérer la protection de tout le monde.

La réalité est que les plus mal protégés -TPE, collectivités, hôpitaux…- ne pensaient pas être des cibles. Ils ne sont pas idiots ni négligents, mais ils se disaient : « pourquoi serais-je attaqué alors qu’il y a tellement plus d’argent à récolter ailleurs ? » Sauf que l’expérience montre que tout le monde est attaqué, même les petits. Les petits paient même plus facilement la rançon, car l’arrêt forcé de leur activité à cause d’un ransomware peut les conduire à mettre très vite la clé sous la porte. Du coup tout le monde est en train de se protéger, mais cela prendra encore quelques années pour se mettre à niveau. C’est une course contre la montre mais je suis confiant sur le fait qu’on y arrivera.

De nombreux hôpitaux ont été attaqués depuis la crise sanitaire, dont plusieurs centres hospitaliers en France, notamment à Rouen, Dax et Villefranche-sur-Saône. Ces attaques ont révélé l’ampleur de leur impréparation. Mais ont-ils les moyens financiers, techniques et humains de bien se protéger ?

Les hackers avaient coutume de vanter une sorte de code de bonne conduite qui épargnait les hôpitaux, mais ce code a volé en éclat avec la crise sanitaire. Je doute même qu’il ait vraiment existé. A mon avis les hôpitaux étaient moins pris pour cible avant le Covid parce que les hackers voulaient éviter de se retrouver dans le radar des autorités, et attaquer un lieu sacré c’est le meilleur moyen d’attirer l’attention. Mais la réalité est que les cybercriminels n’ont aucune éthique. Le Covid-19 l’a prouvé de manière très cynique : attaquer un hôpital en pleine crise sanitaire c’est multiplier les chances qu’ils paient la rançon.

Pour revenir à votre question, la cybersécurité coûte cher, oui. Et encore plus pour un hôpital qui a déjà un budget très serré et des missions importantes de service public à mener. L’objectif pour les centres hospitaliers est qu’ils sanctuarisent entre 5% et 10% de leur budget informatique pour la cybersécurité. Ce n’est clairement pas le cas aujourd’hui mais c’est indispensable. Je ne leur jette pas la pierre car je me mets à la place d’un directeur d’hôpital qui doit choisir entre acheter des lits et des scanners ou protéger ses systèmes d’information des menaces cyber. Honnêtement, je comprends qu’il choisisse d’acheter des lits et des scanners. Surtout quand il n’a pas déjà été confronté à une crise cyber, car la menace lui paraît lointaine. Mais désormais il faut changer cette manière de penser et considérer que protéger ses systèmes informatiques relève de l’importance vitale.

Les aidez-vous à se mettre à niveau ?

Oui. L’Etat a octroyé une enveloppe de 136 millions d’euros à l’Anssi dans le cadre de sa stratégie de cybersécurité. Dans cette enveloppe, 25 millions d’euros sont consacrés aux établissements de santé. Chaque hôpital peut bénéficier d’un audit de cybersécurité et d’un plan d’action à hauteur de 140.000 euros. L’idée est de leur mettre le pied à l’étrier : on arrive, on fait l’analyse des risques, on établit avec eux une stratégie cyber, on les met en relation avec des prestataires de confiance certifiés par l’Anssi, et la machine est lancée. Les établissements de santé peuvent aussi bénéficier d’autres aides. Dans le Ségur de la santé, l’Etat déploie une enveloppe de 350 millions d’euros pour la sécurité numérique.

Quand l’Anssi intervient-il auprès des entreprises et des collectivités ?

Nous intervenons avant tout auprès des acteurs régulés, c’est-à-dire les opérateurs d’importance vitale (OIV) et les opérateurs de services essentiels (OSE). D’un côté ils ont l’obligation de présenter un niveau de sécurité élevé, et en contrepartie ils bénéficient d’un accès prioritaire à la capacité de réponse de l’Anssi en cas d’incident cyber. Des cibles que je qualifie de « politiques » bénéficient aussi de notre aide, soit en réaction à une attaque soit en anticipation. Par exemple, nous sommes intervenus en amont sur l’application TousAntiCovid, car l’impact politique et médiatique d’une attaque serait dramatique.

Quelquefois, l’Anssi peut être amené à intervenir auprès d’acteurs non-régulés comme certains établissements hospitaliers, par exemple l’an dernier à Rouen, Dax et Villefranche-sur-Saône. Dans ces cas on les a aidés en réaction à la cyberattaque et on a fait de la reconstruction, ce qui est rare car ce n’est pas dans notre ADN, mais pour les hôpitaux on peut le faire.

Parfois, l’Anssi choisit aussi d’intervenir à des endroits atypiques mais intéressants pour comprendre l’évolution de la menace, comme certaines PME ou TPE. Par exemple, nous avons passé plusieurs mois dans un Ehpad, à la grande stupéfaction de la direction qui n’a pas vraiment compris les raisons de notre présence ! Il s’avère qu’un attaquant de nature étatique qui nous intéressait particulièrement s’était installé sur les serveurs de cet Ehpad. Il ne souhaitait pas attaquer l’Ehpad mais il se servait de ce rebond pour cibler des acteurs stratégiques français. Il se pensait à l’abri sur les serveurs de cet Ehpad mais on l’a observé pendant plusieurs mois et cela nous a aidés à reprendre l’avantage sur lui.

L’Etat prévoit d’injecter 1,3 milliard d’euros pour développer l’écosystème cyber en France. Ce plan est-il à la hauteur des enjeux ?

Le fait que le sujet de la cybersécurité soit porté par le président de la République est incontestablement une grande avancée. L’argent mis sur la table et la philosophie d’action qui consiste à renforcer tout l’écosystème de la cyber, de la R&D aux startups en passant par les grands groupes, me paraissent aller dans le bon sens. Le gouvernement a intégré la question de la sécurité dans le domaine du numérique et c’est courageux car ce sont deux communautés qui ont longtemps eu du mal à se rencontrer.

Après, il est compliqué de se prononcer sur les montants car la cybersécurité est un effort permanent qui doit faire partie des coûts fixes d’une entreprise ou d’une collectivité. Ce coût est très variable, il dépend de la taille de la structure, de son secteur d’activités et d’où on part, c’est-à-dire s’il faut carrément refaire tous les systèmes d’information ou s’il faut juste moderniser les équipements et s’équiper en logiciels. Mais il faudra quand même mobiliser ces 5% à 10% du budget informatique. Cette dépense devient incompressible car la menace s’est concrétisée.

L’un des piliers de la stratégie cyber de l’Etat est la notion d’écosystème, matérialisée par la création d’un immense Campus Cyber à La Défense, dans lequel sont amenés à collaborer centres de recherche privés et publics, Etat, startups, PME et grands groupes. Mais n’est-il pas idyllique de penser que des entreprises concurrentes vont collaborer entre elles pour le bien de l’écosystème?

L’idée derrière le Campus Cyber et ses futures déclinaisons en Région c’est d’aller explorer des manières de travailler qui n’ont pas encore été tentées. Cette méthode de l’écosystème fonctionne dans le numérique, il faut l’appliquer à la cybersécurité et je constate que tous les acteurs ont envie de travailler ensemble et ont les moyens de le faire.

Donc idyllique, ça l’est forcément un peu, mais je préfère parler de pari. Pour être honnête c’était la crainte initiale et c’est pour cela que je parle d’utopie quand je m’exprime sur le Campus Cyber. A priori, c’est contre-nature pour des entreprises concurrentes de travailler les unes avec les autres. Mais cela va fonctionner car grâce à cette collaboration ils vont obtenir un avantage concurrentiel pour attaquer le marché européen voire international. Dans d’autres domaines industriels, les Français ont choisi de se regarder en chien de faïence et cela ne leur a pas porté chance. Cette erreur peut être évitée dans la cybersécurité grâce au Campus Cyber.

La différence c’est aussi que les acteurs de la cybersécurité ont l’embarras du choix, ils ne peuvent pas répondre à tous les appels d’offres car le secteur souffre d’une grosse pénurie de talents. La guerre des talents est assumée mais le Campus Cyber peut justement créer une émulation et une régulation de ce phénomène avec un code de bonne conduite où les mercenaires qui changent d’emploi tous les ans pour prendre une augmentation de 20% de salaire sont neutralisés.

La crise des talents est le principal problème du secteur de la cybersécurité, et du numérique en général. A quel point est-il difficile de recruter pour l’Anssi ?

Le recrutement est une préoccupation constante, majeure, et on y met beaucoup d’énergie. L’équation n’est pas favorable : il y a beaucoup plus d’emplois à pourvoir que de personnes pour les occuper. Mais je ne me plains pas car ce n’est pas très difficile pour l’Anssi d’attirer les talents, y compris les très bons. L’Anssi reste une marque forte, notamment pour des jeunes qui sortent d’école, qui ont soif d’apprendre et qui veulent être utiles. Travailler à l’Anssi c’est se mettre au service de la nation, côtoyer des équipes de top niveau, et réaliser des missions intéressantes et diversifiées. On voit chez nous des choses qu’on ne trouve pas ailleurs.

Après, il ne faut pas se cacher que l’Anssi est très formateur donc c’est aussi une super ligne à avoir sur le CV quand on veut passer dans le privé. Certains le regrettent. Moi je dis : oui, et alors ? La mobilité dans une carrière, c’est normal. A chaque fois qu’un talent part de l’Anssi, je prends le parti de m’en réjouir car cela veut dire que j’aurais un allié naturel dans le privé, qui est bon et qui contribue à construire l’écosystème. Ils peuvent partir du jour au lendemain par contre, quand ils estiment au bout de quelques années qu’ils doivent passer à autre chose. Donc il faut les intéresser pour les garder, mais je peux vous assurer qu’on ne s’ennuie pas à l’Anssi.

L’enjeu pour les entreprises c’est de se mettre au niveau rapidement. Quelle est l’approche la plus efficace ?

La question qui m’agace prodigieusement à la fin d’un Comex c’est quand on me demande « si vous n’aviez qu’un seul conseil ce serait quoi ? » Hé bien mon conseil, ce serait de vous y mettre sérieusement ! Aujourd’hui le sujet cyber monte dans les directions générales dans le privé, car certains ont pris la foudre et d’autres ont vu la foudre tomber pas très loin, donc ils ont compris. Mais dans le public et dans les petites entreprises on n’y est pas encore, d’où un énorme enjeu de sensibilisation. Des plans sectoriels peuvent être de bonnes idées pour mobiliser toute une filière, mais globalement il faut faire partout la même chose : prendre en compte la cybersécurité dès la conception des systèmes informatiques, améliorer la détection des menaces, l’anticipation des crises, avoir des plans de réaction et des plans de reprise d’activité en cas d’attaque… C’est ce que l’on impose aux opérateurs régulés et que l’on retrouve dans les textes européens.

En parlant d’Europe, on parle souvent de la nécessité de construire une « Europe de la cyber ». Mais concrètement, c’est quoi une « Europe de la cyber » ?

C’est une très bonne question et c’est tout l’enjeu de la présidence française de l’UE au premier semestre 2022 de le définir. L’Europe de la cyber c’est d’abord une Europe réglementaire, ce que sait très bien faire l’Europe par ailleurs. N’y voyez pas une pique contre l’Europe : sans le Règlement sur la protection des données (RGPD), les entreprises n’auraient jamais fait monter ce sujet assez haut dans la hiérarchie pour passer l’étape des budgets. Dans le domaine de la cybersécurité, c’est pareil. Depuis 2016, la directive Network and Information System Security (NIS) a fait ses preuves. Son but est d’assurer un niveau de sécurité élevé et commun pour les réseaux et les systèmes d’information européens. En gros, la directive NIS étend à l’échelle européenne cette notion d’opérateur critique qu’on avait en France et en Allemagne. D’ailleurs, elle fonctionne tellement bien qu’on est en train de la réviser, et encore une fois, ce n’est pas ironique !

Que manque-t-il à la directive NIS dans sa version actuelle ?

Rien, justement, elle fonctionne très bien et c’est pour cela qu’il faut étendre son périmètre, passer à l’échelle pour réglementer davantage de secteurs afin de généraliser la montée en compétence cyber. La directive NIS se concentre sur la sécurité des cibles finales des cyberattaques mais il faut aussi protéger les cibles intermédiaires et les prestataires de services numériques (ESN), qui ne sont actuellement pas régulés et c’est bien dommage, à la fois pour eux-mêmes et pour leurs clients. Il faut aussi étendre NIS dans le domaine des hôpitaux : en France une centaine d’établissements hospitaliers sont concernés par NIS, dont 13 CHU, mais il faut aller plus loin car il y a 4.000 établissements hospitaliers dans le pays. On ne peut pas tout faire d’un coup car le secteur privé n’arriverait pas à suivre la demande, mais il faut étendre les obligations petit à petit car c’est en relevant le niveau de sécurité de tout le monde qu’on fera reculer la cybercriminalité.

Quels autres sujets la France devrait-elle pousser pendant sa présidence du Conseil de l’UE, au premier semestre 2022 ?

Il faut mettre en place une vraie coopération opérationnelle à l’échelle européenne. Mettre en réseau notre capacité de réponse à une cyberattaque, à un niveau technologique, stratégique et politique. Il faut une vraie solidarité européenne dans la cybersécurité car aujourd’hui, si un Etat membre demande de l’aide, on ne sait pas l’aider.

Comment ça ?

Concrètement, si un Etat membre demande de l’aide pour gérer une cyberattaque, les CERT de chaque pays [Centre gouvernemental de veille, d'alerte et de réponse aux attaques informatiques, Ndlr] vont échanger des informations mais ils ne sauront pas mettre en place une aide opérationnelle. Lors des incendies de l’été en Grèce, l’UE a été capable de mobiliser très vite des pompiers européens pour venir en renfort sur place. Mais dans le cas d’une crise cyber, on ne sait pas faire.

Il faut donc anticiper les crises, créer des règles et des mécanismes de solidarité qui n’existent pas encore. A l’heure actuelle si l’Anssi envoyait des renforts français pour gérer une crise cyber en Grèce par exemple, elle le ferait au détriment d’une urgence nationale. La France pousse donc l’idée de ne pas seulement faire appel à des forces publiques comme les Anssi de chaque pays, mais de mobiliser aussi le secteur privé. Des entreprises certifiées pourraient aller faire des audits, répondre à des incidents, faire de la reconstruction. Mais il faut créer le cadre réglementaire pour le rendre possible.

La cybersécurité fait partie des outils pour gagner une souveraineté technologique européenne. Construire un cloud européen indépendant des Gafam est-il indispensable ?

La souveraineté technologique est un sujet très complexe qui demande beaucoup de courage politique. Le cloud est l’un des piliers de la sécurité numérique européenne car il renferme toutes nos données et fait fonctionner nos infrastructures. La question est donc : est-on capables d’avoir à l’échelle européenne un cloud certifié complètement imperméable au droit extraterritorial étranger, notamment américain et chinois ? Si on n’est pas capables de dire clairement qu’on ne veut pas que des pays non-européens puissent accéder à nos systèmes cloud, alors je ne veux plus entendre parler de souveraineté européenne.

La France a lancé une stratégie « cloud de confiance » qui propose un entre-deux en autorisant des technologies étrangères mais uniquement sous licence et commercialisées par des entreprises européennes. Le secteur du cloud français est vent debout contre cette initiative. Est-on vraiment souverain quand on utilise sous licence des technologies de Microsoft ?

Je peux comprendre le scepticisme. Cette stratégie ne peut pas être le fossoyeur des acteurs français ou européens du cloud, car les OVH, Scaleway, Outscale et autres sont très bons. Il faut continuer à mettre la lumière sur eux avant tout.

Mais on ne peut pas non plus interdire la technologie américaine. Il y a un principe de réalité à avoir. Le fait de repositionner les acteurs américains dans leur rôle de fournisseur de technologies me paraît un compromis acceptable. Microsoft semble embrasser ce rôle, Amazon et Google c’est plus compliqué car ce n’est pas dans leur ADN. Mais il est essentiel d’imposer nos règles de manière pragmatique. Rendre ces technologies immunes au Cloud Act et à la loi FISA c’est une manière d’être souverain. Les technologies de Microsoft seront dans la coentreprise française Bleu, issue de Orange et de Capgemini, et Bleu ne mettra jamais un orteil aux Etats-Unis donc sera imperméable au droit extraterritorial américain.

L’élection présidentielle de 2022 arrive. Cela vous inquiète-t-il ?

Non. On sera attaqués, il y aura certainement des tentatives de manipulation. Il faut donc faire beaucoup de sensibilisation auprès des partis politiques et des équipes de campagne et s’assurer que les systèmes d’information soient au bon niveau. Et quand on sera attaqués il faudra bien réagir mais je suis relativement plus serein qu’il y a cinq ans.

On dit souvent que la prochaine grande crise mondiale sera une crise cyber. Partagez-vous cette crainte ?

Je pense que les menaces s’additionnent : le terrorisme, le Covid, la cyber… Du coup on réfléchit beaucoup au sein de l’Etat à la notion de multi-crise. Notre organisation est conçue pour gérer une crise à la fois, pas plusieurs. Il faut donc s’adapter à cette nouvelle donne. Une crise cyber majeure cela peut être par exemple un effondrement sectoriel lié à une vague de cyberattaques sur des infrastructures énergétiques. Cela peut être Microsoft ou Amazon qui s’éteint et cela déclenche une crise mondiale car les conséquences en cascade seraient monstrueuses. Quand on parle de « Pearl Harbor cyber » c’est en réalité très en-deçà de la réalité de la menace car Pearl Harbor était une tragédie localisée alors qu’une grande crise cyber serait systémique.

Cryptomonnaie : Prochaine génération de monnaie ?

Cryptomonnaie : Prochaine génération de monnaie ?

Les banques centrales doivent dès aujourd’hui réfléchir à la manière d’assurer un équilibre juste entre concurrence, innovation et stabilité financière pour la prochaine génération de monnaie, prévient l’économiste Benoît Cœuré dans une tribune au « Monde ».(Extrait)

 

Tribune.

Les paiements mobiles et sans contact font partie intégrante de notre vie quotidienne, mais le Covid-19 a donné un coup d’accélérateur à la numérisation. Les QR codes et les options de paiement en différé gagnent en popularité, et, pour les Jeux olympiques d’hiver à Pékin, en février 2022, des uniformes et autres accessoires seront dotés de fonctions de paiement. De leur côté, les banques centrales préparent la prochaine génération de monnaie : la monnaie numérique de banque centrale (MNBC).

Aujourd’hui, la plupart des paiements sont réglés à partir d’un compte bancaire – on parle de « monnaie commerciale ». La monnaie de banque centrale est constituée des billets que manipulent les commerçants et les particuliers et des comptes que les banques commerciales ouvrent directement auprès de la banque centrale. Cette monnaie est au cœur de tout système financier et présente des avantages uniques : sécurité (la banque centrale ne peut pas faire faillite), liquidité (la monnaie qu’elle émet est acceptée partout), neutralité (la banque centrale est une institution publique, sans intérêt commercial) et finalité (un virement entre deux comptes auprès de la banque centrale est irrévocable).

 

Pour que l’économie numérique puisse bénéficier de ces atouts essentiels, la monnaie de banque centrale doit évoluer. Comme l’a dit l’ancien secrétaire général des Nations unies Dag Hammarskjöld (1905-1961), « on ne trouve la bonne route que les yeux fixés sur l’horizon lointain ». Pourquoi fixer l’horizon ? Parce que le système financier est en pleine mutation. Les géants du numérique investissent le monde des paiements. De nouveaux instruments de paiement, les « cryptomonnaies stables » (stablecoins), frappent à la porte. Les plates-formes de finance décentralisée bousculent l’intermédiation financière traditionnelle. Autant de nouvelles questions pour les régulateurs, qui appellent des réponses rapides, claires et cohérentes.

Les banques s’inquiètent de l’impact des MNBC sur les dépôts des particuliers et sur leur modèle de financement. Les banquiers centraux sont conscients de ces craintes et ne doutent pas que les banques feront partie intégrante des futurs systèmes de MNBC. Ne nous leurrons pas : pour les banques, les cryptomonnaies stables, la finance décentralisée et les géants du numérique sont une menace bien plus réelle ! Les cryptomonnaies stables risquent d’émerger sous forme d’écosystèmes fermés, de jardins clos, qui contrôleront l’accès aux paiements et à la liquidité. L’emprise croissante des géants du numérique dans les services financiers pose des questions de pouvoir de marché et de respect de la vie privée et remet en question les approches réglementaires actuelles.

Téléphonie mobile : toujours des zones blanches

Téléphonie mobile : toujours des zones blanches

Pendant que la 5G opèrent son développement, nombre de zones rurales un peu isolées  doivent se contenter de la 3G est souvent de rien du tout . La  Fédération française des télécoms (FFT), reconnaît elle-même que les déploiements d’antennes 4G dans les villages et territoires isolés sont insuffisants même si ils progressent.

Le retard. sera sans doute de même pour la technologie de la fibre qui au mieux desservira le centre des villages. Notons par ailleurs l’état lamentable des lignes de téléphone fixe dans les mêmes zones.

Climat : Quelle civilisation techniquement soutenable ?

Climat : Quelle civilisation techniquement soutenable ?

Dans l’industrie, sur la question du réchauffement climatique, le professeur d’économie Christian Le Bas démontre, dans une tribune au « Monde », qu’il est vain de vouloir opposer les low-tech aux high-tech, car il faut conjuguer les deux.

 

Christian Le Bas,Professeur d’économie à Esdes Institute of Sustainable Business and Organizations Lyon Business School et UR Confluence, Sciences & Humanités – Université catholique de Lyon

Tribune

Dans l’industrie, sur la question du réchauffement climatique, le professeur d’économie Christian Le Bas démontre, dans une tribune au « Monde », qu’il est vain de vouloir opposer les low-tech aux high-tech, car il faut conjuguer les deux.

Les travaux sur les types de technologies permettant d’affronter en particulier l’impérieuse question du réchauffement climatique et de créer les bases d’une (nouvelle) économie soutenable d’après-crise ont fait resurgir une polarisation des débats sur des positions extrêmes entre les partisans du tout low-tech et les tenants de toujours plus de high-tech. Dans son livre L’Age des low tech (Seuil 2014), Philippe Bihouix défend l’idée d’une civilisation techniquement soutenable.

La thèse centrale est que les solutions à la crise environnementale et sociale ne doivent pas être recherchées « dans toujours plus d’innovations, de hautes technologies, de métiers à valeur ajoutée, de numérique… » On doit « au contraire nous orienter, au plus vite et à marche forcée, vers une société essentiellement basée sur des basses technologies, nettement plus économes en ressources et maîtrisables localement ».

 

L’économie circulaire n’aurait pas plus de valeur écologique aux yeux de l’auteur. Le livre se caractérise également par une forte critique de l’innovation. Or, les secteurs de basses technologies peuvent être extrêmement innovants, contrairement à ce que le livre laisse supposer. Et toute innovation n’est pas (loin de là) high-tech !

Une autre attitude extrême est celle qui consiste à refuser, en quelque sorte par principe, les solutions low-tech. Un bon exemple de ce point de vue a été récemment fourni par Les Sept Ecologies, de Luc Ferry (L’Observatoire. 2021). L’auteur parle du « retour au low-tech », du « retour au terroir et au low-tech » , « du retour en arrière aux low-tech ». Celles-ci sont irrémédiablement associées au passé, or, rien n’est plus faux. Les low-tech nous sont contemporaines.

Des secteurs industriels entiers sont low-tech tels que le textile et l’habillement, et l’agroalimentaire. Luc Ferry voit dans les technologies low-tech des secteurs peu innovants alors que l’innovation technologique y est présente et rapide. Elle est ainsi associée à la production pour de nouveaux marchés, à l’amélioration de la qualité des biens, à l’adaptation aux nouveaux goûts.

Un internet sans cookies c’est possible ?

Un internet  sans cookies c’est possible ?

Arnaud Monnier, directeur des partenariats chez Google France, explique qu’un Internet s’ans cookies c’est possible ( dans l’Opinion)

 

 

Qui n’a pas fait la même expérience relevée récemment par une humoriste dans un de ses spectacles : rechercher une paire de baskets sur internet, et ensuite, d’où qu’on se connecte, être poursuivi sans cesse par des offres pour ces mêmes chaussures, qu’on a entre-temps achetées dans un magasin ? Les coupables sont désignés par la comédienne : « Les cookies, ce ne sont pas des gâteaux mais des petites pastilles invisibles qui enregistrent tout ce qu’on fait sur internet. »

Cette pratique, celle des cookies tiers déposés par les sites pour suivre les internautes sur le Web, a été pendant des années le carburant du web ouvert et gratuit. Pourtant, la cause est largement entendue désormais : il y a de moins en moins d’acceptabilité sociale pour le suivi des internautes à travers le web. Alors que le règlement européen sur la protection des données (RGPD) fête ses trois ans, un sondage Euroconsumers montre que 69% des internautes pensent que leurs données personnelles sont insuffisamment protégées en ligne.

Face à ces attentes sociétales, nos équipes ont annoncé en janvier 2020 que le navigateur Chrome n’accepterait plus les cookies tiers à compter de 2022. En juin, nous avons informé le marché que l’échéance serait repoussée à fin 2023 pour donner plus de temps aux discussions publiques sur les solutions adéquates de remplacement des cookies tiers – avec les régulateurs, les éditeurs et l’industrie de la publicité. Si nous reconnaissons la nécessité de progresser à une allure raisonnable avec cette nouvelle échéance, nous réaffirmons néanmoins notre ferme conviction sur la direction à prendre.

En effet, cette décision aura un impact sur le modèle d’internet de demain et doit donc se faire de manière progressive. Un arrêt brutal comme l’ont fait d’autres plateformes pourrait déstabiliser le modèle économique de nombre d’entreprises, en particulier les petits éditeurs indépendants qui s’appuient sur des technologies disponibles sur le web comme les cookies, pour générer des revenus publicitaires finançant la gratuité de l’accès à leurs contenus. Sans alternative viable en place, cela inciterait aussi certains acteurs à s’engager dans des techniques de suivi dissimulées – telles que le fingerprinting – qui ne peuvent pas du tout être contrôlées.

L’équation, apparemment contradictoire, peut être résolue. C’est le sens de l’initiative « Privacy sandbox » qui permet à la communauté web de réfléchir à des alternatives aux cookies tiers pour les principaux cas d’usage de la sécurité et de la publicité en ligne : la proposition de publicités pertinentes, la mesure de l’efficacité des campagnes et la lutte contre la fraude.

La mise au point de ces nouveaux outils – de manière collaborative et ouverte, avec le Consortium world wide web (w3c) – est d’abord un défi technologique : elle nous invite à innover toujours plus, alors que les progrès en machine learning et les dernières techniques de modélisation et d’anonymisation sont en passe de remplacer l’identification individuelle.

C’est aussi un défi économique. Il s’agit d’une des refontes du web les plus importantes de ces vingt dernières années. Son succès dépendra de sa capacité à faire prospérer les entreprises et éditeurs en ligne.

Partage de valeurs. C’est enfin un défi en matière de réputation pour l’écosystème : pour restaurer la confiance des internautes, il faudra expliquer ce qu’apportent concrètement toutes ces avancées en termes de confidentialité, tout en rappelant le rôle majeur que la publicité joue dans la préservation et le financement d’un Internet ouvert. C’est en montrant comment chacun trouve son compte dans ce partage de valeur entre internautes, annonceurs et éditeurs, que l’industrie publicitaire numérique pourra retrouver l’adhésion du grand public.

Nous assistons à un nouveau tournant de l’innovation technologique dans le secteur de la publicité en ligne, qui n’est pas sans rappeler par son ampleur le défi de l’avènement du mobile que l’industrie a su relever il y a dix ans. Et comme pour chaque transformation majeure, il ne sera pas possible d’y arriver seuls. C’est en continuant d’innover ensemble sur des solutions « cookieless » que nous pourrons tous construire la publicité de demain : plus respectueuse de la vie privée des internautes, plus efficace pour les annonceurs et les éditeurs.

Arnaud Monnier est directeur des partenariats chez Google France.

Voiture à Hydrogène : quelles perspectives ?

Voiture à  Hydrogène : quelles perspectives ?

Le handicap des voitures électriques c’est évidemment l’énorme poids mort des batteries aussi la question de la performance sans parler  de la problématique écologique.( Extraction des métaux et Recyclage). D’où l’idée d’utiliser l’hydrogène via des piles à combustible. Un article des Échos rappelle la problématique.

La pile à combustible va désormais concurrencer les batteries dans les véhicules électriques. Reste à faire baisser les coûts, produire de l’hydrogène propre et mailler le territoire de stations.

Le véhicule électrique à batteries rechargeables pourrait-il être envoyé à la retraite de façon prématurée ? Certes, il s’en est vendu quelque 2,2 millions l’an dernier, mais malgré les énormes investissements des constructeurs, les ventes ne décollent pas vraiment et les batteries sont toujours pointées du doigt : coût environnemental élevé, autonomie trop limitée et temps de recharge trop long. En face, le véhicule fonctionnant avec une pile à combustible alimentée en hydrogène sort à peine des limbes mais présente de sérieux atouts. L’Agence internationale de l’énergie (AIE), longtemps réservée sur l’hydrogène, a publié en juin dernier un rapport qui lui est très favorable, notamment dans le domaine des transports : « Le moment est venu d’exploiter le potentiel de l’hydrogène pour jouer un rôle clef dans un environnement énergétique propre, sûr et sécurisé. »

La Californie vise un million de véhicules électriques à hydrogène à l’horizon 2030. Même objectif pour la Chine, qui possède pourtant la moitié du parc mondial de véhicules électriques mais met désormais le cap sur l’hydrogène. C’est aussi une priorité nationale au Japon et en Corée. Car après une vingtaine d’années pour mettre au point la technologie, les premiers véhicules commerciaux, ceux de Toyota et de Hyundai, ont été lancés en 2014. Aujourd’hui la réglementation s’est adaptée et les arguments écologiques de la pile à combustible font mouche. Elle produit de l’électricité à partir de l’hydrogène embarqué dans un réservoir et de l’oxygène de l’air. Si bien que le véhicule ne produit ni gaz à effet de serre ni particule et ne rejette que de l’eau. En outre, faire un plein d’hydrogène prend 3 minutes au plus.

Encore faut-il avoir une station sous la main. C’est le point crucial. Le Japon et l’Allemagne ont déjà installé plusieurs dizaines de stations, tout comme la Californie et la Chine, qui prévoient d’en avoir un millier à l’horizon 2030. La France est plus timide et ne voit aujourd’hui circuler que 400 véhicules. Lancé par Nicolas Hulot, le plan national de déploiement de l’hydrogène pour la transition écologique privilégie les projets de transports en commun et de flotte captive. A l’image de Versailles, des Hauts-de-France ou de Pau où des bus fonctionnant à hydrogène entrent en service. « L’usage du véhicule hydrogène par les particuliers n’est pas prioritaire à cause du maillage de stations qu’il exige. Mieux vaut se concentrer sur les applications spécifiques comme les flottes, les professionnels ou les bus », justifie Maxime Pasquier, spécialiste du sujet à l’Ademe. Une approche trop timide pour les partisans de l’hydrogène au premier rang desquels l’Association française pour l’hydrogène et les piles à combustible (Afhypac). « L’hydrogène règle le problème de la voiture électrique et des problèmes posés par les batteries. Avec 2 milliards d’euros, soit le tiers du coût d’une ligne TGV, on construit un réseau d’un millier de stations. C’est d’abord un choix politique », s’agace Pierre-Etienne Franc, vice-président hydrogène énergie chez Air Liquide.

 Pas si simple, réplique Maxime Pasquier : « Les énergéticiens ont évidemment intérêt à distribuer de l’hydrogène. Encore faut-il le faire dans de bonnes conditions environnementales. Il faut avoir une vision globale depuis la production de l’énergie primaire jusqu’à la consommation. » En effet l’hydrogène, essentiellement produit à partir de gaz naturel, ne constitue pas encore la panacée écologique. Sans parler du rendement de la pile à combustible qui est inférieur à celui d’une batterie. Conséquence, en intégrant les émissions liées à la production d’hydrogène, une voiture à pile à combustible dégage autant de CO2 qu’une automobile à moteur thermique.

Cependant, les choses pourraient évoluer très vite puisque l’on sait produire un hydrogène « vert », certes plus cher, grâce à l’électrolyse. « Il n’y a pas de verrou technologique et les coûts vont baisser avec le passage à l’échelle industrielle », assure Florence Lambert, directrice du CEA-Liten. D’autant que les scientifiques travaillent déjà sur la technologie suivante, l’électrolyse à haute température. Dans son projet Zero Emission Valley, qui porte sur 20 stations et un millier de véhicules, la région Auvergne-Rhône-Alpes prévoit ainsi de produire l’hydrogène grâce à 15 électrolyseurs répartis sur le territoire.

L’autre atout majeur de la voiture à hydrogène, c’est l’absence de particules. « Cela permet de résoudre immédiatement un gros problème de santé publique dans une ville comme Paris », insiste Mathieu Gardies, cofondateur de Hype. La jeune entreprise, soutenue par Air Liquide et qui a passé un partenariat avec Toyota, possède une flotte de 120 taxis à hydrogène Mirai et devrait en faire rouler 600 dès l’année prochaine . « L’hydrogène, c’est le pétrole de demain sans l’inconvénient de la géopolitique. La France a un véritable savoir-faire industriel avec beaucoup de brevets au CEA mais aussi au CNRS. Il faut y aller car le monde ne va pas attendre », analyse Florence Lambert.

L’hydrogène vert pourrait aussi devenir plus abondant et moins cher de 30 % d’ici à 2030 grâce aux énergies renouvelables, estime l’AIE. « Les prix de l’électricité solaire ou éolienne ont tellement baissé que des pays pourraient en consacrer une partie à produire de l’hydrogène », prédit Paul Lucchese, pionnier du secteur au sein du CEA et président de l’Hydrogen Implementing Agreement (HIA) au sein de l’Agence internationale de l’énergie (AIE) : « Le Japon passe déjà des accords avec la Nouvelle-Zélande, le Chili ou Brunei. »

L’intérêt des pays émergents

Quant à la pile à combustible, elle devrait aussi voir ses coûts baisser, estime Pierre Forté, fondateur de la société Pragma Industries, spécialiste du vélo à hydrogène (voir ci-dessous) : « Le coût d’une batterie est lié pour 70 % au prix de ses matériaux quand celui d’une pile à combustible dépend pour 90 % de son processus de fabrication. Sous réserve qu’une rupture intervienne dans le monde des batteries, je suis donc persuadé que les piles à combustible seront à terme beaucoup moins chères. »

L’avenir de l’hydrogène dans la mobilité dépendra pourtant d’abord des infrastructures. « Je ne crois pas à un développement massif dans le véhicule léger à un horizon visible, en raison des coûts de déploiement pour assurer un réseau dense de stations de recharge. Il faudrait pour cela des volontés politiques coordonnées à un niveau international », estime Patrice Geoffron, professeur au Laboratoire d’économie de Dauphine et spécialiste de l’énergie. On pourrait voir une répartition des rôles : au véhicule à batterie la mobilité urbaine et à celui à hydrogène les trajets longue distance.

A moins que les réseaux électriques finissent par jouer les arbitres. « Dans bien des pays émergents on pousse l’hydrogène en avant car les réseaux électriques ne sont pas suffisamment stables pour assurer la recharge des batteries », observe Fabio Ferrari, président de Symbio, un fabricant de piles à combustible créé à partir de recherches menées aux CEA, filiale de Michelin et dont Faurecia devrait devenir coactionnaire d’ici la fin de l’année. Un problème qui pourrait à long terme s’étendre aux pays européens, estime Paul Lucchese : « C’est un aspect qu’on oublie, mais qu’adviendra-t-il lorsque des millions de véhicules électriques auront besoin d’une recharge rapide ? »

Il fut l’une des vedettes du G7 de Biarritz au mois d’août dernier. Développé et fabriqué parPragma Industries, une jeune entreprise locale, Alpha est le premier vélo fonctionnant grâce à l’hydrogène. Le système est logé dans le cadre. La bonbonne de gaz alimente la pile à combustible qui fournit l’électricité au petit moteur placé au niveau du moyeu, comme sur n’importe quel vélo électrique. Pragma,mis en avant par la région Nouvelle-Aquitaine, a profité de l’événement pour mettre 200 vélos à disposition des participants. Un succès puisqu’ils ont parcouru près de 4.500 kilomètres en quatre jours. Avec une autonomie de 150 kilomètres et bientôt 200 kilomètres pour un prix de 7.000 euros, qui va descendre à 4.000 euros l’an prochain, ils ne sont pas destinés aux particuliers. « Nous ne vendons pas seulement un vélo mais un écosystème complet de mobilité durable », résume Pierre Forté, le fondateur de l’entreprise. Pragma Industries a ainsi déjà vendu une centaine de vélos et des bornes de rechargement à plusieurs municipalités comme Bayonne, Saint-Lô, Cherbourg ou Chambéry. Quant aux 200 vélos présentés à Biarritz, ils ont été acquis par le groupe Engie Cofely. « Grâce au coup de projecteur du G7, nous avons beaucoup de contacts provenant du Kazakhstan, d’Inde, de Chine ou du Mexique, dans lesquels le réseau est insuffisant pour recharger les vélos électriques classiques », assure Pierre Forté.

Samsung : un investissement massif 175 milliards d’euros en trois ans

Samsung : un investissement massif 175 milliards d’euros en trois ans

 

Samsung dévoile  son plan d’investissement 2021-2023 d’un tiers, à 205 milliards de dollars -175 milliards d’euros. L’objectif : rester dans la course dans cette industrie stratégique tout investissant massivement dans les technologies, des biotech à la robotique en passant par l’intelligence artificielle, pour tenir la dragée haute aux géants du Net américains et chinois.

Traduction : Samsung veut conforter sa position dans le secteur hautement stratégique des semi-conducteurs, déjà la spécialité de son vaisseau amiral Samsung Electronics, et se positionner sur des marchés stratégiques déjà attaqués par les géants du Net américains et chinois, notamment l’intelligence artificielle et la robotique.

Voitures autonomes : C’est pas pour demain !

Voitures autonomes : C’est pas pour demain !

 

Les experts ne savent pas quand, si toutefois cela arrive un jour, nous aurons des véhicules véritablement autonomes, capables de se déplacer partout sans aide. Avant cela, l’IA devra déjà commencer par devenir… beaucoup plus intelligente !

 

 

En 2015, Elon Musk avait annoncé que les véhicules autonomes pouvant rouler « n’importe où » seraient disponibles d’ici deux ou trois ans.

En 2016, le directeur général de Lyft, John Zimmer, avait prédit qu’elles allaient « pratiquement mettre fin » à la possession de voiture particulière d’ici à 2025.

En 2018, le CEO de Waymo, John Krafcik, avait prévenu que la mise au point des robocars autonomes prendrait finalement plus de temps que prévu.

En 2021, certains experts ne savent pas quand, si cela se produit un jour, les particuliers pourront acheter des voitures sans volant se conduisant toutes seules.

Contrairement aux investisseurs et aux dirigeants d’entreprise, les universitaires qui étudient l’intelligence artificielle, l’ingénierie des systèmes et les technologies autonomes soulignent depuis longtemps que la conception d’une automobile entièrement autonome prendrait de nombreuses années, voire des décennies. Aujourd’hui, certains vont même plus loin et affirment que, malgré des investissements qui dépassent déjà les 80 milliards de dollars, nous ne disposerons peut-être jamais des voitures autonomes promises. Du moins, pas sans avancées majeures dans le domaine de l’intelligence artificielle, que personne ne prévoit de sitôt, ni sans un réaménagement intégral de nos villes.

Même les plus fervents promoteurs de cette technologie — en 2019, M. Musk était revenu sur ses prévisions précédentes et déclarait que les robots-taxis autonomes Tesla feraient leur apparition en 2020 — commencent à admettre publiquement que les experts qui se montrent sceptiques ont peut-être raison.

Dans les véhicules que vous pouvez aujourd’hui acheter, la conduite autonome n’a pas réussi à se matérialiser autrement que par un régulateur de vitesse amélioré, comme le Super Cruise de GM ou l’Autopilot de Tesla, au nom très optimiste

« Une grande partie de l’IA appliquée au monde réel doit être pensée pour permettre une conduite autonome totale, généralisée et sans assistance puisse fonctionner », a récemment tweeté M. Musk lui-même. Autrement dit, pour qu’une voiture puisse conduire comme un être humain, les chercheurs doivent créer une IA à sa hauteur. Les chercheurs et les universitaires spécialisés dans ce domaine vous diront que nous n’avons pas la moindre idée de la manière d’y parvenir. M. Musk, en revanche, semble être convaincu que c’est exactement ce que Tesla va réussir. Il ne cesse de vanter les mérites de la prochaine génération de la technologie « Full Self Driving » de l’entreprise, actuellement en phase de test bêta — qui n’est en réalité qu’un système d’aide à la conduite au nom trompeur.

Un article récemment publié, intitulé Why AI is Harder Than We Think, résume fort bien la situation. Melanie Mitchell, informaticienne et enseignante en systèmes complexes à l’Institut Santa Fe, y note qu’à mesure que s’éloigne l’horizon de la commercialisation des véhicules autonomes, les acteurs du secteur redéfinissent le terme. Comme ces véhicules nécessitent des zones test géographiquement limitées et des conditions météorologiques idéales — sans évoquer les conducteurs à bord pour assurer la sécurité ou, au moins, des contrôleurs à distance — les constructeurs et les partisans de ces véhicules ont intégré toutes ces restrictions dans leur définition de l’autonomie.

Même avec tous ces astérisques, écrit la docteure Mitchell, « aucune de leurs prédictions ne s’est réalisée ».

Dans les véhicules que vous pouvez aujourd’hui acheter, la conduite autonome n’a pas réussi à se matérialiser autrement que par un régulateur de vitesse amélioré, comme le Super Cruise de GM ou l’Autopilot de Tesla, au nom très optimiste. A San Francisco, Cruise, filiale de GM, teste des véhicules autonomes sans conducteur au volant, mais avec un humain qui surveille les performances du véhicule depuis le siège arrière. Par ailleurs, il n’existe pour l’heure qu’un seul service commercial de robot-taxi fonctionnant aux Etats-Unis sans conducteur humain. L’opération, conduite par Waymo, une filiale d’Alphabet, se limite à des zones à faible densité de la métropole de Phoenix.

Même dans ces conditions, les véhicules de Waymo se sont retrouvés impliqués dans des accidents mineurs au cours desquels ils ont été percutés par-derrière. Leur comportement déroutant (pour les humains) a été cité comme une cause possible de ces accidents. Récemment, l’un d’eux a été perturbé par des cônes de signalisation sur un chantier.

« Je ne suis pas convaincu que nous soyons davantage percutés ou accrochés par l’arrière qu’un véhicule conduit par un humain », assure Nathaniel Fairfield, ingénieur logiciel et responsable de l’équipe « comportement » chez Waymo. Les véhicules autonomes de l’entreprise ont été programmés pour être prudents — « à l’inverse du jeune conducteur classique », insiste-t-il.

Chris Urmson dirige la start-up de véhicules autonomes Aurora, qui a récemment acquis la division de conduite autonome d’Uber — qui a également investi 400 millions de dollars dans Aurora. « Nous verrons des véhicules à conduite autonome sur la route faire des choses utiles dans les deux prochaines années, mais il faudra du temps pour qu’ils se généralisent », admet-il.

Des décennies d’avancées dans la partie de l’intelligence artificielle appelée apprentissage automatique n’ont débouché que sur les formes très rudimentaires d’« intelligence »

La caractéristique essentielle du déploiement initial que réalisera Aurora sera de ne faire rouler ces véhicules que sur des autoroutes dont l’entreprise aura développé des carte 3D haute résolution, précise M. Urmson. L’objectif final de l’entreprise est de faire en sorte que les camions et les voitures utilisant ses systèmes se déplacent au-delà des autoroutes sur lesquelles ils seront d’abord lancés. M. Urmson refuse toutefois de dire quand cela pourrait avoir lieu.

Le lent déploiement de véhicules « autonomes » aux capacités limitées et constamment surveillés par l’homme était prévisible, et même annoncé il y a des années. Mais certains PDG et ingénieurs ont soutenu que de nouvelles fonctionnalités de conduite autonome naîtraient si ces systèmes étaient simplement en mesure de consigner assez de kilomètres sur les routes. Aujourd’hui, certains considèrent que toutes les données d’essai au monde ne peuvent pas compenser les lacunes fondamentales de l’IA.

Des décennies d’avancées dans la partie de l’intelligence artificielle appelée apprentissage automatique n’ont débouché que sur les formes très rudimentaires d’« intelligence », rappelle Mary Cummings, professeure d’informatique et directrice du Humans and Autonomy Lab à l’université Duke, qui conseille le département de la Défense en matière d’IA.

Pour évaluer les systèmes d’apprentissage automatique actuels, elle a mis au point une échelle classant l’IA selon quatre niveaux de sophistication. Selon cette approche ascendante, le premier niveau repose sur l’application d’une base de données descriptive. Les IA d’aujourd’hui sont assez développées pour apprendre, par exemple, à rester dans des files sur une autoroute. L’étape suivante est l’apprentissage et le raisonnement intégrant des règles (par exemple, ce qu’il faut faire à un panneau stop). Ensuite, il y a le raisonnement basé sur la connaissance (un panneau stop est-il toujours reconnu comme tel si une branche d’arbre le couvre de moitié ?). Au sommet, on trouve le raisonnement expert : la compétence spécifique aux humains qui consiste à pouvoir être plongé dans un environnement totalement nouveau et à utiliser nos connaissances, notre expérience et nos compétences pour nous en sortir sans dommage.

Les problèmes des voitures sans conducteur se manifestent réellement à partir du troisième niveau. Selon Mme Cummings, les algorithmes actuels de deep learning, le nec plus ultra de l’apprentissage automatique, ne sont pas en mesure de fournir une représentation du monde basée sur la connaissance. Et les tentatives des ingénieurs humains pour combler cette lacune — comme la création de cartes ultra-détaillées pour compenser les failles des données des capteurs — ne sont pas mises à jour assez fréquemment pour guider un véhicule dans toutes les situations possibles, par exemple lorsqu’il se retrouve confronté à des travaux non cartographiés.

De plus en plus d’experts estiment que le chemin vers l’autonomie complète ne sera, en fin de compte, pas principalement basé sur l’IA

Les systèmes d’apprentissage automatique, qui sont excellents pour comparer des modèles, ne sont pas doués pour l’extrapolation, c’est-à-dire pour se servir de ce qu’ils ont appris dans un domaine afin de l’appliquer à un autre. Par exemple, ils peuvent identifier un bonhomme de neige sur le bord de la route comme étant un piéton potentiel, mais ne peuvent pas dire qu’il s’agit en fait d’un objet inanimé qui a très peu de chances de traverser la voie.

« Quand vous êtes un enfant en bas âge, on vous apprend qu’on peut se brûler avec une cuisinière », rappelle la docteure Cummings. Mais l’IA n’est pas très douée pour transposer ce qu’il sait d’une casserole à une autre, ajoute-t-elle. « Vous devez lui enseigner cela pour chaque ustensile qui existe. »

Des chercheurs du MIT tentent de combler cette lacune en revenant à l’essentiel. Ils ont lancé une vaste étude pour comprendre comment les bébés apprennent, en termes techniques, afin de retranscrire cela dans les futurs systèmes d’IA.

« Des milliards de dollars ont été dépensés dans le secteur de la conduite autonome, mais les résultats ne vont pas être à la hauteur de leurs attentes », prévient la docteure Cummings. Cela ne signifie pas que nous n’aurons pas un jour une sorte de voiture « autonome », dit-elle. Mais « ce ne sera pas ce que tout le monde a promis ».

En revanche, ajoute-t-elle, de petites navettes circulant à faible vitesse dans des zones bien cartographiées et équipées de capteurs, par exemple à télédétection par laser, pourraient permettre aux ingénieurs de limiter le degré de sécurité à un niveau acceptable pour les régulateurs et le public. (Imaginez, par exemple, des navettes à destination et en provenance d’un aéroport, circulant sur des voies spécialement aménagées).

M. Fairfield, de Waymo, affirme que son équipe ne voit pas d’obstacles technologiques fondamentaux à la généralisation des services de robots-taxis autonomes comme ceux de son entreprise. « Si vous êtes trop conservateur et que vous ignorez la réalité, vous dites que cela va prendre trente ans — mais ce n’est tout simplement pas vrai », assure-t-il.

De plus en plus d’experts estiment que le chemin vers l’autonomie complète ne sera, en fin de compte, pas principalement basé sur l’IA. Les ingénieurs ont résolu nombre d’autres problèmes complexes — comme l’atterrissage de vaisseaux spatiaux sur Mars — en les divisant en petits morceaux, afin que de brillants esprits soient en mesure de concevoir des systèmes capables de gérer chaque étape. Raj Rajkumar, professeur d’ingénierie à l’université Carnegie Mellon, qui travaille depuis longtemps sur les voitures autonomes, est optimiste concernant cette approche. « Cela ne se fera pas du jour au lendemain, mais j’entrevois la lumière au bout du tunnel », dit-il.

C’est la principale stratégie adoptée par Waymo pour faire circuler ses navettes autonomes. « Nous ne pensons pas qu’il faille une IA complète pour résoudre le problème de la conduite », estime d’ailleurs M. Fairfield.

De son côté, M. Urmson, d’Aurora, explique que son entreprise combine l’IA avec d’autres technologies pour créer des systèmes capables d’appliquer des règles générales à des situations nouvelles, comme le ferait un humain.

Pour arriver à des véhicules autonomes conçus via des méthodes « traditionnelles », avec une « ingénierie des systèmes » éprouvée, il faudrait encore dépenser des sommes énormes pour équiper nos routes de transpondeurs et de capteurs afin de guider et corriger les voitures robots, explique Mme Mitchell. Et leur déploiement resterait limité à certaines zones et dans certaines conditions météorologiques, avec des téléopérateurs humains sur le qui-vive au cas où les choses tournent mal, ajoute-t-elle.

Cette version animatronique à la Disney de notre avenir en matière de conduite autonome serait à mille lieues de la création d’une intelligence artificielle susceptible d’être installée dans n’importe quel véhicule et de remplacer immédiatement un conducteur humain. Cela pourrait aboutir à des voitures plus sûres conduites par des humains, et des véhicules entièrement autonomes dans une poignée de zones soigneusement contrôlées. Mais ce ne serait pas la fin de la possession de voiture individuelle, qui n’est, elle, pas pour si tôt.

(Traduit à partir de la version originale par Grégoire Arnould)

Traduit à partir de la version originale en anglais

Tech : La régulation incontournable pour les plates-formes

Tech : La régulation  incontournable pour les plates-formes

 

Sheryl Sandberg, directrice des opérations de Facebook, et Jack Dorsey, PDG de Twitter expliquent  que la régulation est devenue incontournable pour les plates-formes dans le Wall Street Journal (extrait)

 

 

 

 

Apparemment, tout le monde dans la tech – et bien d’autres au-delà – veut avoir une activité de plateforme. Uber a utilisé ce terme à 747 reprises dans son prospectus d’introduction en Bourse en mai. We Co., la maison-mère du loueur de bureaux en difficultés WeWork, se targuait d’avoir une plateforme mondiale dans les documents de son introduction en Bourse qui n’a finalement pas eu lieu. Peloton Interactive, qui fabrique des équipements sportifs connectés, se désigne comme « la plus grande plateforme fitness interactive au monde ». Même Beyond Meat aime parler de ses « plateformes de produits à bases de plantes ».

Derrière l’engouement pour un terme en apparence anodin se cache un concept économique qui, dans ses diverses incarnations sur Internet, est devenu un tremplin pour une croissance et une richesse immenses. Les entreprises construites sur ce concept – de Facebook, YouTube et Twitter à Amazon, Uber et Airbnb – ont collectivement réuni des milliards d’utilisateurs et créé des centaines de milliards de dollars de valeur marchande en déployant des systèmes logiciels pour mettre en relation les créateurs de contenu avec une audience, les vendeurs avec les acheteurs, les chauffeurs avec les passagers, les hôtes avec les invités. Ces entreprises exercent un pouvoir sans précédent sur la façon dont les gens communiquent, sur ce qu’ils savent et regardent, et sur la façon dont ils font leurs achats et se déplacent.

Aidées par une approche non interventionniste du régulateur aux États-Unis, ces entreprises ont donné la priorité au recrutement, le plus rapide possible, de prestataires et d’utilisateur – et ont souvent balayé d’un revers de main les contraintes, contrôles et coûts supportés par les entreprises plus traditionnelles dans les secteurs qu’elles cherchaient à réinventer. « Nous sommes une plateforme », est répété à l’envi – pas un média, un commerçant, un fournisseur de services ou un exploitant de services automobiles.

Ce cadrage est désormais remis en cause de toutes parts. Utilisateurs, élus et régulateurs aux États-Unis et en Europe ont attaqué Facebook, YouTube et d’autres plateformes de réseaux sociaux pour en avoir fait trop peu alors que bigots, brutes et propagandistes étrangers inondaient leurs plateformes d’insultes et de désinformation. Amazon est sous le feu des critiques pour son contrôle laxiste de son marketplace, et Uber se bat contre une loi californienne qui pourrait obliger les entreprises de l’économie « collaborative » à traiter les chauffeurs comme des employés.

Le degré de responsabilité des entreprises technologiques à l’égard de leurs plateformes est devenu l’un des enjeux clés de notre époque. La façon dont cette question sera résolue aura des ramifications dans les décennies avenir pour le monde des affaires, l’intérêt des consommateurs et le discours social.

Pendant la plus grande partie de leur histoire, les entreprises tech ont été tellement concentrées sur les défis d’une croissance rapide que s’inquiéter de ce qui se passait sur leurs plateformes a été relégué au second plan, dit Geoffrey Parker, professeur d’ingénierie au Dartmouth College et co-auteur d’un livre sur l’essor de ces entreprises, titré Platform Revolution.

« Aujourd’hui, dit-il, cela leur pète à la figure. »

Les plateformes telles qu’on les connaît n’existeraient pas sans un texte de loi de 1996, l’article 230 230 du Communications Decency Act, qui exempte largement les services en ligne de responsabilités pour les contenus de tiers.

Ironie du sort, l’article 230 était au départ un projet visant à faciliter la modération de contenus. Il est arrivé après deux procès en diffamation avec des résultats contradictoires au début des années 1990 contre deux des entreprises qu’on appelait alors « portails Internet », hébergeurs de newsletters, forums et chat rooms où l’on trouvait des contributions d’utilisateurs.

Dans le premier cas, un tribunal fédéral a estimé que CompuServe n’était pas responsable pour les propos présumés diffamatoires à l’encontre d’un concurrent dans une newsletter de sa plateforme. CompuServe était considéré comme un distributeur : à l’instar d’une bibliothèque ou d’une librairie, il ne pouvait être tenu pour responsable pour chaque contenu qu’il véhiculait, a estimé la cour.

Quelques années plus tard, une publication anonyme sur un BBS (bulletin board system) du portail Prodigy évoquait une fraude chez le courtier Stratton Oakmont, à Long Island (N.Y.), qui sera plus tard au cœur du film de Martin Scorsese Le loup de Wall Street. Prodigy fonctionnait différemment de CompuServe, avec des directives de contenu et des modérateurs qui supprimaient parfois des messages. Stratton Oakmont a poursuivi Prodigy en justice, arguant que ces caractéristiques signifiaient qu’il était responsable de l’allégation de fraude faite sur sa plateforme. En 1995, un tribunal de l’État de New York a donné raison à Prodigy.

Cela a inquiété certains élus, qui ont eu peur que punir les entreprises tech qui modéraient certains, mais pas tous les contenus qu’elles hébergeaient, comportait le risque d’entraver le développement d’internet. Deux d’entre eux, le sénateur Ron Wyden, un démocrate de l’Orégon, et Chris Cox, alors élu républicain de Californie, ont déposé un projet de loi qui est devenu l’article 230, comportant la clause suivante : « Aucun fournisseur ou utilisateur d’un service informatique interactif ne doit être considéré comme l’éditeur ou le locuteur d’une information fournie par un autre fournisseur de contenu d’information. »

A l’époque, personne n’imaginait ce qu’internet allait devenir. Amazon n’avait pas deux ans, et Yahoo et eBay étaient également des enfants en bas âge. Google ne serait enregistré comme entreprise que deux ans plus tard, Facebook six ans plus tard, quant à Uber et Airbnb, ils n’ont vu le jour que plus d’une décennie après le vote de cette loi.

Mais cette série de mots a eu pour résultat d’offrir aux entreprises tech « une immunité incroyablement large » qui a été essentielle au développement des plateformes que nous utilisons aujourd’hui, note Jeff Kosseff, auteur d’un ouvrage sur la Section 230, intitulé, The Twenty-Six Words That Created the Internet. (« Les vingt-six mots fatidiques qui ont créé Internet »)

Get big fast

Cette loi a accompagné des évolutions technologiques et stratégiques. Le développement de connexions réseau plus rapides et d’une puissance de calcul accrue – en particulier après l’avènement du smartphone – a attiré plus de monde sur un internet toujours plus omniprésent.

En tirant parti de ce pouvoir, les entrepreneurs se sont emparés de modèles économiques qui devenaient plus intéressants pour les utilisateurs à mesure que plus de gens les utilisaient, dit le professeur Parker de Dartmouth – plus de contenu attirait plus d’utilisateurs, ce qui rendait la plateforme plus attrayante pour les créateurs de contenu, qui attiraient plus d’utilisateurs.

Ces facteurs sont liés à une autre caractéristique clé : la croissance rapide des plateformes a souvent nécessité relativement peu de coûts supplémentaires, surtout avec le bouclier juridique fourni par l’article 230. Elles étaient, comme on dit dans la Silicon Valley, hautement « scalable ».

Ces qualités – qui ont marché aussi bien pour les amis sur les réseaux sociaux que pour les vendeurs et les acheteurs, les chauffeurs et les passagers, et ainsi de suite – ont alimenté la croissance rapide des entreprises. Et les investisseurs en capital-risque et les entrepreneurs considéraient que beaucoup de ces marchés étaient des marchés où le gagnant rafle tout, d’où l’importance de grossir plus vite que la concurrence.

« Vous êtes en fait en mode survie », dit Tim Kendall, qui était directeur de la monétisation de Facebook de 2006 à 2010 ; il a plus tard été président de la société de partage d’images en ligne Pinterest. Il dit que lorsqu’il a rejoint Facebook, le site était loin derrière Myspace en nombre d’utilisateurs et qu’il n’était pas certain qu’il y arriverait. « Quand vous êtes en mode survie, vous n’êtes pas incités à prendre un peu de recul et réfléchir à la société et penser aux implications d’ordre supérieur, parce que vous voulez juste vivre et vous battre un jour de plus. »

Les dirigeants ont conservé cet état d’esprit même après que leurs entreprises sont devenues titanesques. Facebook a pris pour habitude au cours de la dernière décennie – bien après avoir conquis l’univers des réseaux sociaux – de lancer un nouveau produit ou une fonctionnalité quelconque pour mieux s’excuser après avoir été confronté à une volée de bois vert concernant les contenus, la vie privée et d’autres problèmes. Uber, aux prises avec son rival Lyft, s’est rué sur une ville après l’autre plus rapidement que les régulateurs ne pouvaient s’adapter.

« Chaque partie de votre corps vous dit que vous êtes David », indique M. Kendall, désormais à la tête d’une start-up appelée Moment qui aide les gens à diminuer le temps passé sur leurs smartphones. « Et aucune de ces entreprises ne sait quand elle devient Goliath. Elles sont pratiquement incapables de savoir qu’elles sont devenues Goliath, tant qu’elles n’ont pas été sanctionnées violemment par un régulateur ou un gouvernement ou une amende. »

Le retour de bâton

Les coups pleuvent de toutes parts ces derniers temps, et les entreprises plateformes répondent avec un mélange de défiance et d’efforts de conciliation.

Le flot de désinformation pendant la campagne présidentielle américaine en 2016 a suscité une attention sans précédent sur les responsabilités que Facebook, Twitter, YouTube et d’autres plateformes de réseau sociaux devraient assumer pour le contenu qu’elles diffusent. Le PDG de Facebook, Mark Zuckerberg, le DG de Twitter, Jack Dorsey, et d’autres dirigeants, convoqués à des audiences du Congrès, se sont engagés à faire plus. Facebook affirme avoir embauché des milliers de nouveaux travailleurs pour renforcer la surveillance et la sécurité sur sa plateforme – un effort rendu plus complexe et plus coûteux par la nécessité d’adapter ses mesures à la myriade de marchés où le réseau est implanté à travers le monde.

Amazon dit avoir dépensé 400 millions de dollars l’année dernière pour adresser le problème de la contrefaçon et des produits qui ne sont pas aux normes, et est prêt à dépenser des milliards encore dans les prochaines années, après qu’une croissance rapide de vendeurs extérieurs sur sa marketplace a déclenché un afflux de produits de cette nature.

Utilisateurs et investisseurs aussi se méfient davantage des lignes de défense de ces plateformes.

En mars, le Wall Street Journal a révélé que Care.com, le numéro un américain de la mise en relation avec des baby-sitters et aides soignants par Internet, procédait seulement à une vérification très limitée du personnel aidant, parfois avec des conséquences dramatiques. L’entreprise a répondu qu’elle était une plateforme, et que, comme d’autres plateformes, elle ne vérifiait en général pas les informations publiées par les utilisateurs. L’action Care.com a plongé en Bourse dans le sillage de ces révélations, son DG a démissionné et, en décembre, a accepté de se vendre à IAC/InterActive Corp. pour environ 60 % de sa dernière valorisation.

En parallèle, tribunaux et élus sont en train de fixer de nouvelles limites aux libertés offertes par l’article 230. L’année dernière, le Congrès a adopté à une écrasante majorité une loi supprimant l’immunité des entreprises en ligne qui facilitent le commerce du sexe en ligne. Cette loi, qui répondait à l’explosion de la prostitution en ligne sur des sites comme Backpage.com, maintenant fermé, a été fortement contestée par les entreprises du Web, qui ont alerté sur le fait qu’elle était susceptible d’éroder les protections offertes par l’article 230.

En mars, une cour d’appel fédérale en Californie a rejeté une tentative d’Airbnb et de son concurrent HomeAway, une unité du Groupe Expedia d’invoquer l’article 230 comme défense contre une ordonnance de la ville californienne de Santa Monica les obligeant à s’assurer que les annonces locales sur leurs plateformes étaient conformes aux règles de la ville.

Airbnb est aussi en train de renforcer les mesures de sécurité sur sa plateforme après plusieurs incidents, dont une fusillade mortelle pendant une soirée qui a dégénéré dans une propriété louée via Airbnb. L’entreprise devait « assumer davantage de responsabilité pour les choses sur notre plateforme », a déclaré son patron, Brian Chesky, à propos des changements en novembre. « Notre secteur connaît une transition progressive, peut-être trop progressive. »

La bataille sur la responsabilité des plateformes dépasse les contenus. La Californie a adopté une loi qui entre en application le 1er janvier qui pourrait contraindre Uber et ses concurrents à traiter leurs chauffeurs comme des employés, susceptible de prétendre au salaire minimum et à des congés maladie payés. Uber a déclaré qu’il n’a pas à changer ses pratiques en raison de cette loi, et que ce n’est pas une entreprise de VTC mais « une plateforme technologique pour plusieurs types de places de marché numériques. »

Les entreprises plateformes ne vont pas disparaître. Elles ont amassé des millions et des millions d’utilisateurs avec des services qui mettent les gens en relation de manières utiles et nouvelles. Malgré le retour de bâton, nombre d’entre elles continuent de croître.

Mais le modèle est clairement en train de changer. La responsabilité de ce qui se passe sur les plateformes n’est plus une réflexion de second plan. Se déployer rapidement à grande échelle et moindre coût n’est pas sans contraintes. C’est ce que dit le professeur Parker : « L’ère de la régulation des plateformes est arrivée. »

Première expérience de la 6G, 100 fois plus rapide que la 5G

Première expérience de la 6G, 100 fois plus rapide que la 5G

 

 

.Le sud-coréen LG vient de réussir un test en extérieur d’une transmission 6G en utilisant des ondes térahertz (THz). Une technologie qui, en théorie, peut permettre à la 6G d’être cent fois plus rapide que la 5G est aussi rapide que la fibre.

.

LG n’est pas le premier à y parvenir. Samsung a dévoilé récemment avoir procédé à un test réussi avec cette technologie. Mais sur une distance très courte (15 m) et en laboratoire. Cette fois-ci, LG y est non seulement parvenu en extérieur mais surtout sur une distance six fois plus longue, de 100 m .

Pour y parvenir, l’entreprise sud-coréenne a mis les bouchées doubles en la matière. Elle a par exemple créé dès 2019 un centre de recherche dédié à la 6G, et a travaillé à Berlin en collaboration avec le Fraunhofer-Gesellschaft, un institut spécialisé dans la recherche en sciences appliquées et en pointe sur la technologie liée aux térahertz. Les deux partenaires ont, pour l’occasion, développé un nouvel amplificateur de puissance qui leur a permis d’émettre des signaux stables dans le spectre 6G térahertz.

Reste qu’il faudra être un peu patient. lma  6G devrait devenir une norme mondiale en 2025. Et la commercialisation de cette technologie ne devrait intervenir qu’entre cette date et 2029.

De son côté, Samsung est à peu près sur le même calendrier. Et vise à fournir la 6G en 2028, avec une vitesse maximale de 1 Gbit/s, égale aux performances de la fibre fixe.

12345...27



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol