Archive pour la Catégorie 'nouvelles technologies'

Page 7 sur 34

Nouvelles technologies– Les dangers de la digitalisation et du cloud

Nouvelles technologies– Les dangers  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Technologie 5G: Les problèmes que cela pose

Technologie 5G: Les problèmes que cela pose 

 

Si la 5G devrait apporter des avantages et améliorer la vitesse de nos communications, il ne faut pas oublier de penser à toutes les problématiques que pose cette nouvelle technologie. Par Serge Abiteboul, Inria et Gérard Berry, Collège de France ( La tribune, extrait)

 

Le numérique, de manière générale, questionne les défenseurs de l’environnement. Par plein de côtés, il a des effets positifs sur l’environnement. Par exemple, il permet des études fines du climat, la gestion intelligente de l’énergie dans des smart grids, celle des moteurs de tous types, de l’automobile à l’aviation, des économies de transports avec le travail à distance. Par contre, il participe à la course en avant vers toujours plus de productivité et de consommation. Cet aspect très général du débat sera ignoré ici, où nous nous focaliserons sur la 5G.

Du côté positif, la 5G a été conçue dès le départ pour être énergétiquement sobre. Sachant que les chiffres ne sont pas stabilisés, elle devrait diviser fortement la consommation d’électricité pour le transport d’un Gigaoctet de données ; on parle de division par 10 et à terme par 20 par rapport à la 4G. Même si ces prévisions sont peut-être trop optimistes, il faut noter qu’elles vont dans le sens de l’histoire, qui a effectivement vu de pareilles améliorations de la 2G à la 3G à la 4G. Et on pourrait citer aussi les économies du passage du fil de cuivre à la fibre, ou des « vieux » data centers aux plus modernes. Le numérique sait aussi aller vers plus de sobriété, ce qui lui a permis d’absorber une grande partie de l’explosion des données transférées sur le réseau depuis vingt ans.

Une partie de cette explosion, oui, mais une partie seulement, car il faut tenir compte de l’effet rebond. D’une manière très générale, l’effet rebond, encore appelé paradoxe de Jevons, observe que des économies (monétaire ou autres) prévues du fait d’une amélioration de la technologie peuvent être perdues à la suite d’une adaptation du comportement de la société. Avec les améliorations des techniques qui ont permis le transport de plus en plus de données, on a vu cette quantité de données transportées augmenter violemment, en gros, doubler tous les dix-huit mois. Si les récents confinements dus à la pandémie n’ont pas mis à genoux la 4G, c’est grâce à l’année d’avance que sont obligés de prendre les opérateurs pour absorber cette croissance, entièrement due aux utilisateurs d’ailleurs.

L’introduction de la 5G va permettre que cet accroissement se poursuive, ce qui résulterait selon certains en une augmentation de l’impact négatif des réseaux sur l’environnement.

Bien sûr, on doit s’interroger pour savoir si cela aurait été mieux en refusant la 5G. Sans 5G, les réseaux télécoms de centre-ville auraient vite été saturés ce qui aurait conduit à densifier le réseaux de stations 4G. On aurait sans doute assisté à un même impact négatif pour un réseau qui aurait alors fini massivement par dysfonctionner, car la 4G supporte mal la saturation pour des raisons intrinsèques à sa technologie. Ne pas déployer la 5G n’aurait réglé aucun problème, le vrai sujet est celui de la sobriété.

Dans le cadre du déploiement en cours, une vraie question est celle des coûts environnementaux de fabrication des éléments de réseaux comme les stations radio, et surtout des téléphones. Il faut savoir que la fabrication d’un téléphone portable émet beaucoup plus de gaz à effet de serre (GES) que son utilisation. Si tous les Français se précipitent et changent leur téléphone pour avoir accès à la 5G, on arrive à un coût énorme en émission de GES. Il faudrait les convaincre que ça ne sert à rien et qu’on peut se contenter du renouvellement « normal » des téléphones. Il est important d’insister ici sur « normal » : les Français changent de téléphone tous les 18 mois, ce qui n’est pas normal du tout. Même si ça a été effectivement nécessaire quand les téléphones étaient loin de leur puissance de calcul actuelle, ça ne l’est plus maintenant. Et produire tous ces téléphones engendre une gabegie de ressources, d’énergie et d’émission de GES. Au-delà du sujet de la 5G, que faisons-nous pour ralentir ces remplacements ? Que faisons-nous pour qu’ils ne s’accélèrent pas à l’appel des sirènes de l’industrie des smartphones ?

Il faudrait aussi questionner les usages. Le visionnage d’une vidéo sur un smartphone consomme plusieurs fois l’électricité nécessaire au visionnage de la même vidéo après téléchargement par la fibre. Mais la situation est tout sauf simple. Comment comparer le visionnage d’un cours en 4G par un élève ne disposant pas d’autre connexion Internet au visionnage d’une vidéo (qu’on aurait pu télécharger à l’avance) dans le métro parisien ? Il ne s’agit pas ici de décider pour le citoyen ce qu’il peut visionner suivant le contexte, mais juste de le sensibiliser à la question du coût environnemental de ses choix numériques et de lui donner les moyens, s’il le souhaite, d’avoir des comportements plus sobres.

Dans ces dimensions, les effets sont contrastés.

Pour la cybersécurité, la 5G procure des moyens d’être plus exigeants, par exemple, en chiffrant les échanges de bout en bout. Par contre, en augmentant la surface des points névralgiques, on accroît les risques en matière de sécurité. En particulier, la virtualisation des réseaux qu’elle introduit ouvre la porte à des attaques logicielles. L’internet des objets, potentiellement boosté par la 5G, questionne également quand on voit la faiblesse de la sécurité des objets connectés, des plus simples comme les capteurs à basse énergie jusqu’aux plus critiques comme les pacemakers. Le risque lié à la cybersécurité venant de l’internet des objets est accru par la fragmentation de ce marché qui rend difficile de converger sur un cadre et des exigences communes.

Pour ce qui est de la surveillance, les effets sont également contrastés. Les pouvoirs publics s’inquiètent de ne pouvoir que plus difficilement intercepter les communications des escrocs, des terroristes, etc. Des citoyens s’inquiètent de la mise en place de surveillance vidéo massive. La 4G permet déjà une telle surveillance, mais la 5G, en augmentant les débits disponibles la facilite. On peut réaliser les rêves des dictateurs en couvrant le pays de caméra dont les flux sont analysés par des logiciels d’intelligence artificielle. Le cauchemar. Mais la 5G ne peut être tenue seule pour responsable ; si cela arrive, cela tiendra aussi du manque de vigilance des citoyens et de leurs élus.

C’est un vieux sujet. Comme ces ondes sont très utilisées (télécoms, wifi, four à micro-ondes, radars, etc.) et qu’elles sont invisibles, elles inquiètent depuis longtemps. Leurs effets sur la santé ont été intensément étudiés sans véritablement permettre de conclure à une quelconque nocivité dans un usage raisonné. Une grande majorité des spécialistes pensent qu’il n’y a pas de risque sanitaire à condition de bien suivre les seuils de recommandation de l’OMS, qui ajoute déjà des marges importantes au-delà des seuils où on pense qu’il existe un risque. On notera que certains pays comme la France vont encore au-delà des recommandations de l’OMS.

Pourtant, d’autres spécialistes pensent que des risques sanitaires existent. Et on s’accorde généralement pour poursuivre les études pour toujours mieux comprendre les effets biologiques des ondes, en fonction des fréquences utilisées, de la puissance et de la durée d’exposition. Avec le temps, on soulève de nouvelles questions comme l’accumulation des effets de différentes ondes, et après avoir focalisé sur les énergies absorbées et les effets thermiques, on s’attaque aux effets non thermiques.

La controverse se cristallise autour de « l’hypersensibilité aux ondes électromagnétiques ». C’est une pathologie reconnue dans de nombreux pays, qui se manifeste par des maux de tête, des douleurs musculaires, des troubles du sommeil, etc. Malgré son nom, les recherches médicales n’ont montré aucun lien avec l’exposition aux ondes. Ses causes restent mystérieuses.

Venons-en à la question plus spécifique de la 5G. La 5G mobilise différentes nouvelles gammes de fréquences, autour de 3,5 GHz et autour de 26 GHz. Avec la 3.5 GHz, on est très proche de fréquences déjà utilisées, par exemple par le wifi, et de fréquences dont les effets ont été très étudiés. Pour la 26 GHz, si l’utilisation dans un cadre grand public de telles ondes est nouvelle, on dispose déjà d’études sur de telles fréquences élevées. Pourtant, l’utilisation nouvelle de ces fréquences spécifiques légitime le fait que de nouvelles études soient entreprises pour elles, ce qui est déjà le cas.

Un aspect de la 5G conduit naturellement aussi à de nouvelles études : les antennes MIMO dont nous avons parlé. Elles permettent de focaliser l’émission sur l’utilisateur. Cela évite de balancer des ondes dans tout l’espace. Par contre, l’utilisateur sera potentiellement exposé à moins d’ondes au total, mais à des puissances plus importantes. Le contexte de l’exposition changeant aussi radicalement conduit à redéfinir la notion d’exposition aux ondes, et peut-être à de nouvelles normes d’exposition. Cela conduit donc à repenser même les notions de mesure.

Nous concluons cette section en mentionnant un autre effet sur la santé qui va bien au-delà de la 5G pour interpeller tout le numérique : la vitesse de développement de ces technologies. Le numérique met au service des personnes des moyens pour améliorer leurs vies. C’est souvent le cas et, en tant qu’informaticiens, nous aimons souligner cette dimension. Mais, le numérique impose aussi son rythme et son instantanéité à des individus, quelquefois (souvent ?) à leur détriment. C’est particulièrement vrai dans un contexte professionnel. Dans le même temps où il nous décharge de tâches pénibles, il peut imposer des cadences inhumaines. Voici évidemment des usages qu’il faut repousser. Il faut notamment être vigilant pour éviter que la 5G ne participe à une déshumanisation du travail.

On peut difficilement évaluer les retombées économiques de la 5G, mais les analystes avancent qu’elle va bouleverser de nombreux secteurs, par exemple, la fabrication en usine et les entrepôts. On s’attend à ce qu’elle conduise aussi à de nouvelles gammes de services grand public et à la transformation des services de l’État. On entend donc : Le monde de demain sera différent avec la 5G, et ceux qui n’auront pas pris le tournant 5G seront dépassés. C’est une des réponses avancées aux détracteurs de la 5G, la raison économique. On rejouerait un peu ce qui s’est passé avec les plates-formes d’internet : on est parti trop tard et du coup on rame à rattraper ce retard. Sans la 5G, l’économie nationale perdrait en compétitivité et nous basculerions dans le tiers monde.

Il est difficile de valider ou réfuter une telle affirmation. N’abandonnerions-nous la 5G que pour un temps ou indéfiniment ? Est-ce que ce serait pour adopter une autre technologie ? Nous pouvons poser par contre la question de notre place dans cette technique particulière, celle de la France et celle de l’Europe.

Pour ce qui est du développement de la technologie, contrairement à d’autres domaines, l’Europe est bien placée avec deux entreprises européennes sur les trois qui dominent le marché, Nokia et Ericsson. On peut même dire que Nokia est « un peu » française puisqu’elle inclut Alcatel. La dernière entreprise dominante est chinoise, Huawei, que les États-Unis et d’autres essaient de tenir à l’écart parce qu’elle est plus ou moins sous le contrôle du parti communiste chinois. La France essaie d’éviter que des communications d’acteurs sensibles ne puissent passer par les matériels Huawei ce qui revient de fait à l’exclure en grande partie du réseau français.

Pour ce qui est des usages, les industriels français semblent s’y intéresser enfin. Les milieux scientifiques européens et les entreprises technologiques européennes ne sont pas (trop) à la traîne même si on peut s’inquiéter des dominations américaines et chinoises dans des secteurs comme les composants électroniques ou les logiciels, et des investissements véritablement massif des États-Unis et de la Chine dans les technologies numériques bien plus grands qu’en Europe. On peut donc s’inquiéter de voir l’économie et l’industrie européenne prendre du retard. Il est vrai que la 5G ne sera pleinement présente que dans deux ou trois ans. On peut espérer que ce délai sera utilisé pour mieux nous lancer peut-être quand on aura mieux compris les enjeux, en espérant que ce ne sera pas trop tard, qu’en arrivant avec un temps de retard, on n’aura pas laissé les premiers arrivants rafler la mise (« winner-take-all »).

Comme nous l’avons vu, certains questionnements sur la 5G méritent qu’on s’y arrête, qu’on poursuive des recherches, qu’on infléchisse nos usages des technologies cellulaires. La 5G est au tout début de son déploiement. Les sujets traversés interpellent le citoyen. Nous voulons mettre cette technologie à notre service, par exemple, éviter qu’elle ne conduise à de la surveillance de masse ou imposer des rythmes de travail inhumains. Nous avons l’obligation de la mettre au service de l’écologie par exemple en évitant des changements de smartphones trop fréquents ou des téléchargements intempestifs de vidéos en mobilité. C’est bien pourquoi les citoyens doivent se familiariser avec ces sujets pour choisir ce qu’ils veulent que la 5G soit. Décider sans comprendre est rarement la bonne solution.

__________

Par Serge Abiteboul, Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry, Professeur émérite en informatique, Collège de France.

Pour aller plus loin: « La 5G et les réseaux de communications mobiles », rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

Attention au mythe du Big data

Attention au mythe du Big data

 

L’éditeur de logiciels Kilian Bazin met en garde, dans une tribune au « Monde », contre le mythe de la Big Data comme solution à tous les problèmes, tant l’usage des données reste une activité obscure réservée aux experts.

 

Tribune.

Mesurer pour mieux manager : c’est le paradigme qui domine les sciences de gestion aujourd’hui. Depuis l’explosion d’Internet, l’espoir le plus partagé est que les informations accumulées grâce aux outils numériques aident les Etats, les entreprises, les organisations à être plus efficaces, à mieux se structurer, à moins gaspiller.

On en veut pour preuve le succès des géants de la technologie. Le triomphe d’Amazon fait figure d’exemple : si l’entreprise américaine domine son marché, c’est qu’elle collecterait plus de données que les autres. Elle connaîtrait mieux ses clients, leurs comportements, leurs préférences. Il lui serait donc facile de mieux leur parler, de leur proposer les produits les plus adéquats, de calibrer ses campagnes promotionnelles.


Pour répliquer le cas Amazon, les entreprises se sont mises en ordre de marche. Le but ? Devenir data-driven, c’est-à-dire prendre de meilleures décisions grâce à la donnée. Y arrivent-elles ? Rien n’est moins sûr : malgré des investissements faramineux dans l’analyse de données (274 milliards de dollars en 2020), seules 24 % des entreprises interrogées par la Harvard Business Review disent utiliser la data efficacement (« Embracing Data Analytics for More Strategic Value », 2021). Que s’est-il passé ?

Loin des grands discours sur le pouvoir révolutionnaire de la data, les manageurs et chefs d’entreprise ont encore du mal à accéder aux données. Vous en avez peut-être déjà fait l’expérience. Vous devez vous plier à un processus plus ou moins long afin d’obtenir l’information dont vous avez besoin : chiffres de ventes, taux d’incidents sur une chaîne logistique ou impact carbone d’un produit. Quand vous les recevez, les données sont incompréhensibles : elles ne sont ni mises en forme ni expliquées. Tous ces obstacles sont autant de frictions qui vous dissuadent d’utiliser la donnée au quotidien.

Vous vous accommodez de cet état de fait en vous disant que la data sert d’abord aux experts. Seuls eux savent faire parler les chiffres et utiliser leurs algorithmes pour faire des études et des prédictions. Les autres n’ont pas besoin d’accès direct à la data. Mais on aurait tort de considérer les algorithmes comme des oracles. Les données ne servent vraiment que lorsqu’elles sont comprises par tous et qu’elles permettent à chacun de prendre des décisions plus éclairées.

 

C’est cela, la fameuse « culture de la donnée » que les départements des ressources humaines des grandes entreprises s’efforcent de construire. Mais comment y arriver sans accès simple à la donnée ? « Si les gens ne trouvent pas les mathématiques simples, c’est uniquement parce qu’ils ne réalisent pas à quel point la vie est compliquée. » John Von Neumann, considéré comme l’un des pères de l’informatique moderne, avait raison de penser qu’il faut des systèmes complexes pour comprendre un monde complexe.

Risques et excès de la digitalisation et du cloud

Risques et excès  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

0 Réponses à “Nouvelles t

5G: Les problèmes posés par la technologie

5G: Les problèmes posés par la technologie

 

Si la 5G devrait apporter des avantages et améliorer la vitesse de nos communications, il ne faut pas oublier de penser à toutes les problématiques que pose cette nouvelle technologie. Par Serge Abiteboul, Inria et Gérard Berry, Collège de France ( La tribune, extrait)

 

Le numérique, de manière générale, questionne les défenseurs de l’environnement. Par plein de côtés, il a des effets positifs sur l’environnement. Par exemple, il permet des études fines du climat, la gestion intelligente de l’énergie dans des smart grids, celle des moteurs de tous types, de l’automobile à l’aviation, des économies de transports avec le travail à distance. Par contre, il participe à la course en avant vers toujours plus de productivité et de consommation. Cet aspect très général du débat sera ignoré ici, où nous nous focaliserons sur la 5G.

Du côté positif, la 5G a été conçue dès le départ pour être énergétiquement sobre. Sachant que les chiffres ne sont pas stabilisés, elle devrait diviser fortement la consommation d’électricité pour le transport d’un Gigaoctet de données ; on parle de division par 10 et à terme par 20 par rapport à la 4G. Même si ces prévisions sont peut-être trop optimistes, il faut noter qu’elles vont dans le sens de l’histoire, qui a effectivement vu de pareilles améliorations de la 2G à la 3G à la 4G. Et on pourrait citer aussi les économies du passage du fil de cuivre à la fibre, ou des « vieux » data centers aux plus modernes. Le numérique sait aussi aller vers plus de sobriété, ce qui lui a permis d’absorber une grande partie de l’explosion des données transférées sur le réseau depuis vingt ans.

Une partie de cette explosion, oui, mais une partie seulement, car il faut tenir compte de l’effet rebond. D’une manière très générale, l’effet rebond, encore appelé paradoxe de Jevons, observe que des économies (monétaire ou autres) prévues du fait d’une amélioration de la technologie peuvent être perdues à la suite d’une adaptation du comportement de la société. Avec les améliorations des techniques qui ont permis le transport de plus en plus de données, on a vu cette quantité de données transportées augmenter violemment, en gros, doubler tous les dix-huit mois. Si les récents confinements dus à la pandémie n’ont pas mis à genoux la 4G, c’est grâce à l’année d’avance que sont obligés de prendre les opérateurs pour absorber cette croissance, entièrement due aux utilisateurs d’ailleurs.

L’introduction de la 5G va permettre que cet accroissement se poursuive, ce qui résulterait selon certains en une augmentation de l’impact négatif des réseaux sur l’environnement.

Bien sûr, on doit s’interroger pour savoir si cela aurait été mieux en refusant la 5G. Sans 5G, les réseaux télécoms de centre-ville auraient vite été saturés ce qui aurait conduit à densifier le réseaux de stations 4G. On aurait sans doute assisté à un même impact négatif pour un réseau qui aurait alors fini massivement par dysfonctionner, car la 4G supporte mal la saturation pour des raisons intrinsèques à sa technologie. Ne pas déployer la 5G n’aurait réglé aucun problème, le vrai sujet est celui de la sobriété.

Dans le cadre du déploiement en cours, une vraie question est celle des coûts environnementaux de fabrication des éléments de réseaux comme les stations radio, et surtout des téléphones. Il faut savoir que la fabrication d’un téléphone portable émet beaucoup plus de gaz à effet de serre (GES) que son utilisation. Si tous les Français se précipitent et changent leur téléphone pour avoir accès à la 5G, on arrive à un coût énorme en émission de GES. Il faudrait les convaincre que ça ne sert à rien et qu’on peut se contenter du renouvellement « normal » des téléphones. Il est important d’insister ici sur « normal » : les Français changent de téléphone tous les 18 mois, ce qui n’est pas normal du tout. Même si ça a été effectivement nécessaire quand les téléphones étaient loin de leur puissance de calcul actuelle, ça ne l’est plus maintenant. Et produire tous ces téléphones engendre une gabegie de ressources, d’énergie et d’émission de GES. Au-delà du sujet de la 5G, que faisons-nous pour ralentir ces remplacements ? Que faisons-nous pour qu’ils ne s’accélèrent pas à l’appel des sirènes de l’industrie des smartphones ?

Il faudrait aussi questionner les usages. Le visionnage d’une vidéo sur un smartphone consomme plusieurs fois l’électricité nécessaire au visionnage de la même vidéo après téléchargement par la fibre. Mais la situation est tout sauf simple. Comment comparer le visionnage d’un cours en 4G par un élève ne disposant pas d’autre connexion Internet au visionnage d’une vidéo (qu’on aurait pu télécharger à l’avance) dans le métro parisien ? Il ne s’agit pas ici de décider pour le citoyen ce qu’il peut visionner suivant le contexte, mais juste de le sensibiliser à la question du coût environnemental de ses choix numériques et de lui donner les moyens, s’il le souhaite, d’avoir des comportements plus sobres.

Dans ces dimensions, les effets sont contrastés.

Pour la cybersécurité, la 5G procure des moyens d’être plus exigeants, par exemple, en chiffrant les échanges de bout en bout. Par contre, en augmentant la surface des points névralgiques, on accroît les risques en matière de sécurité. En particulier, la virtualisation des réseaux qu’elle introduit ouvre la porte à des attaques logicielles. L’internet des objets, potentiellement boosté par la 5G, questionne également quand on voit la faiblesse de la sécurité des objets connectés, des plus simples comme les capteurs à basse énergie jusqu’aux plus critiques comme les pacemakers. Le risque lié à la cybersécurité venant de l’internet des objets est accru par la fragmentation de ce marché qui rend difficile de converger sur un cadre et des exigences communes.

Pour ce qui est de la surveillance, les effets sont également contrastés. Les pouvoirs publics s’inquiètent de ne pouvoir que plus difficilement intercepter les communications des escrocs, des terroristes, etc. Des citoyens s’inquiètent de la mise en place de surveillance vidéo massive. La 4G permet déjà une telle surveillance, mais la 5G, en augmentant les débits disponibles la facilite. On peut réaliser les rêves des dictateurs en couvrant le pays de caméra dont les flux sont analysés par des logiciels d’intelligence artificielle. Le cauchemar. Mais la 5G ne peut être tenue seule pour responsable ; si cela arrive, cela tiendra aussi du manque de vigilance des citoyens et de leurs élus.

C’est un vieux sujet. Comme ces ondes sont très utilisées (télécoms, wifi, four à micro-ondes, radars, etc.) et qu’elles sont invisibles, elles inquiètent depuis longtemps. Leurs effets sur la santé ont été intensément étudiés sans véritablement permettre de conclure à une quelconque nocivité dans un usage raisonné. Une grande majorité des spécialistes pensent qu’il n’y a pas de risque sanitaire à condition de bien suivre les seuils de recommandation de l’OMS, qui ajoute déjà des marges importantes au-delà des seuils où on pense qu’il existe un risque. On notera que certains pays comme la France vont encore au-delà des recommandations de l’OMS.

Pourtant, d’autres spécialistes pensent que des risques sanitaires existent. Et on s’accorde généralement pour poursuivre les études pour toujours mieux comprendre les effets biologiques des ondes, en fonction des fréquences utilisées, de la puissance et de la durée d’exposition. Avec le temps, on soulève de nouvelles questions comme l’accumulation des effets de différentes ondes, et après avoir focalisé sur les énergies absorbées et les effets thermiques, on s’attaque aux effets non thermiques.

La controverse se cristallise autour de « l’hypersensibilité aux ondes électromagnétiques ». C’est une pathologie reconnue dans de nombreux pays, qui se manifeste par des maux de tête, des douleurs musculaires, des troubles du sommeil, etc. Malgré son nom, les recherches médicales n’ont montré aucun lien avec l’exposition aux ondes. Ses causes restent mystérieuses.

Venons-en à la question plus spécifique de la 5G. La 5G mobilise différentes nouvelles gammes de fréquences, autour de 3,5 GHz et autour de 26 GHz. Avec la 3.5 GHz, on est très proche de fréquences déjà utilisées, par exemple par le wifi, et de fréquences dont les effets ont été très étudiés. Pour la 26 GHz, si l’utilisation dans un cadre grand public de telles ondes est nouvelle, on dispose déjà d’études sur de telles fréquences élevées. Pourtant, l’utilisation nouvelle de ces fréquences spécifiques légitime le fait que de nouvelles études soient entreprises pour elles, ce qui est déjà le cas.

Un aspect de la 5G conduit naturellement aussi à de nouvelles études : les antennes MIMO dont nous avons parlé. Elles permettent de focaliser l’émission sur l’utilisateur. Cela évite de balancer des ondes dans tout l’espace. Par contre, l’utilisateur sera potentiellement exposé à moins d’ondes au total, mais à des puissances plus importantes. Le contexte de l’exposition changeant aussi radicalement conduit à redéfinir la notion d’exposition aux ondes, et peut-être à de nouvelles normes d’exposition. Cela conduit donc à repenser même les notions de mesure.

Nous concluons cette section en mentionnant un autre effet sur la santé qui va bien au-delà de la 5G pour interpeller tout le numérique : la vitesse de développement de ces technologies. Le numérique met au service des personnes des moyens pour améliorer leurs vies. C’est souvent le cas et, en tant qu’informaticiens, nous aimons souligner cette dimension. Mais, le numérique impose aussi son rythme et son instantanéité à des individus, quelquefois (souvent ?) à leur détriment. C’est particulièrement vrai dans un contexte professionnel. Dans le même temps où il nous décharge de tâches pénibles, il peut imposer des cadences inhumaines. Voici évidemment des usages qu’il faut repousser. Il faut notamment être vigilant pour éviter que la 5G ne participe à une déshumanisation du travail.

On peut difficilement évaluer les retombées économiques de la 5G, mais les analystes avancent qu’elle va bouleverser de nombreux secteurs, par exemple, la fabrication en usine et les entrepôts. On s’attend à ce qu’elle conduise aussi à de nouvelles gammes de services grand public et à la transformation des services de l’État. On entend donc : Le monde de demain sera différent avec la 5G, et ceux qui n’auront pas pris le tournant 5G seront dépassés. C’est une des réponses avancées aux détracteurs de la 5G, la raison économique. On rejouerait un peu ce qui s’est passé avec les plates-formes d’internet : on est parti trop tard et du coup on rame à rattraper ce retard. Sans la 5G, l’économie nationale perdrait en compétitivité et nous basculerions dans le tiers monde.

Il est difficile de valider ou réfuter une telle affirmation. N’abandonnerions-nous la 5G que pour un temps ou indéfiniment ? Est-ce que ce serait pour adopter une autre technologie ? Nous pouvons poser par contre la question de notre place dans cette technique particulière, celle de la France et celle de l’Europe.

Pour ce qui est du développement de la technologie, contrairement à d’autres domaines, l’Europe est bien placée avec deux entreprises européennes sur les trois qui dominent le marché, Nokia et Ericsson. On peut même dire que Nokia est « un peu » française puisqu’elle inclut Alcatel. La dernière entreprise dominante est chinoise, Huawei, que les États-Unis et d’autres essaient de tenir à l’écart parce qu’elle est plus ou moins sous le contrôle du parti communiste chinois. La France essaie d’éviter que des communications d’acteurs sensibles ne puissent passer par les matériels Huawei ce qui revient de fait à l’exclure en grande partie du réseau français.

Pour ce qui est des usages, les industriels français semblent s’y intéresser enfin. Les milieux scientifiques européens et les entreprises technologiques européennes ne sont pas (trop) à la traîne même si on peut s’inquiéter des dominations américaines et chinoises dans des secteurs comme les composants électroniques ou les logiciels, et des investissements véritablement massif des États-Unis et de la Chine dans les technologies numériques bien plus grands qu’en Europe. On peut donc s’inquiéter de voir l’économie et l’industrie européenne prendre du retard. Il est vrai que la 5G ne sera pleinement présente que dans deux ou trois ans. On peut espérer que ce délai sera utilisé pour mieux nous lancer peut-être quand on aura mieux compris les enjeux, en espérant que ce ne sera pas trop tard, qu’en arrivant avec un temps de retard, on n’aura pas laissé les premiers arrivants rafler la mise (« winner-take-all »).

Comme nous l’avons vu, certains questionnements sur la 5G méritent qu’on s’y arrête, qu’on poursuive des recherches, qu’on infléchisse nos usages des technologies cellulaires. La 5G est au tout début de son déploiement. Les sujets traversés interpellent le citoyen. Nous voulons mettre cette technologie à notre service, par exemple, éviter qu’elle ne conduise à de la surveillance de masse ou imposer des rythmes de travail inhumains. Nous avons l’obligation de la mettre au service de l’écologie par exemple en évitant des changements de smartphones trop fréquents ou des téléchargements intempestifs de vidéos en mobilité. C’est bien pourquoi les citoyens doivent se familiariser avec ces sujets pour choisir ce qu’ils veulent que la 5G soit. Décider sans comprendre est rarement la bonne solution.

__________

Par Serge Abiteboul, Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry, Professeur émérite en informatique, Collège de France.

Pour aller plus loin: « La 5G et les réseaux de communications mobiles », rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

Futur- automobile « Le logiciel va tout changer » !!! (Roland Berger)

Futur-  automobile « Le logiciel va tout changer » !!!  (Roland Berger)

Éric Kirstetter, associé senior chez Roland Berger et spécialiste de l’automobile explique que le logiciel va tout changer dans la voiture du futur. Une stratégie qui peut largement se discuter dans la mesure où l’automobile se bourre  surtout d’informatique pour justifier le maintien de prix à un très haut niveau. En effet ,nombre de ces éléments de l’architecture logicielle sont inutiles et poseront de graves difficultés d’entretien au garagiste du coin. D’où aussi l’accroissement des dépenses d’entretien.En outre l’objectif devrait être de déshabiller l’automobile de tous les gadgets inutiles qui alourdit son poids et son prix et contribuent un bilan carbone encore plus négatif.

 

Extrait de l’interview d’Éric Kirstetter à la Tribune

 

Depuis plusieurs mois, l’actualité automobile est émaillée d’annonces autour des logiciels. En début d’année, Volkswagen a annoncé un plan d’envergure pour reprendre la main sur cette technologie. On a du mal à imaginer l’ampleur de la thématique…

ÉRIC KIRSTETTER - Ce qui est en jeu, c’est l’architecture logicielle de la voiture du futur. C’est une fusée à quatre étages. Le premier étage, c’est ce qu’on appelle le hardware, également appelés les calculateurs. Ce sont eux qui font fonctionner les équipements de la voiture. Le deuxième étage, c’est le middleware, autrement intitulé operating system [le système d'exploitation, Ndlr]. Si on devait comparer une voiture à un ordinateur, c’est ce qui équivaudrait à Windows. Il est nécessaire pour faire fonctionner tous les équipements d’une voiture, du moteur au châssis, en passant par la partie digitale des commandes de bord, ou le GPS. Le troisième étage, ce sont les applications. Elles gèrent tous les équipements de la voiture pour la faire fonctionner et créer « l’expérience utilisateur » (donner une expérience de conduite propre à la marque, proposer une interface utilisateur intuitive et agréable à utiliser…). Enfin, le quatrième étage, c’est le cloud. Cette technologie va s’imposer demain lorsque tous les véhicules seront connectés.

Le cloud est une technologie récente. Que va-t-il changer dans le modèle de l’architecture logicielle d’un véhicule ?

Il va tout changer. Demain, les voitures connectées auront accès à des données qui seront extérieures à la voiture, laquelle pourra consolider ces données pour définir des fonctionnalités spécifiques, en fonction du profil du conducteur, ou des réglages particuliers d’un véhicule. Typiquement, si vous entrez l’adresse d’un restaurant sur votre GPS, la voiture sera capable de vérifier si le temps de trajet, mis à jour en temps réel via les données livrées par le cloud, vous permettra d’arriver à l’heure avant la fermeture du restaurant; dans le cas contraire, le système pourra alors vous proposer des solutions alternatives. L’autre rupture que va apporter le cloud, c’est qu’il va permettre d’externaliser la puissance de calcul nécessaire au fonctionnement de la voiture. Cela va totalement changer la place des calculateurs présents dans une voiture. Aujourd’hui, on compte, en fonction des modèles, entre 50 et 70 calculateurs. Chaque fonction est réalisée avec un calculateur spécifique, celui-ci est vendu par un tier-one [le plus souvent un équipementier, Ndlr] avec des capteurs et des actionneurs. Demain, les calculs seront davantage centralisés dans de plus gros calculateurs de plus haute performance, qui couvriront plusieurs fonctions. Ces calculateurs vont se répartir aux quatre coins de la voiture pour centraliser les fonctionnalités et réduire le câblage des voitures.

Tout sera donc géré de l’extérieur ?

Non. Le middleware restera un élément stratégique majeur pour l’automobile de demain. Là aussi, le secteur s’apprête à basculer dans une nouvelle ère. Pour schématiser le monde d’avant: il y avait autant d’operating system que de modèles disponibles sur le marché. Ainsi, un constructeur devait reconstruire un système d’exploitation depuis le début à chaque fois qu’il mettait sur le marché un nouveau modèle. Mais avec le cockpit de plus en plus digital, le cloud, les assistants de conduite de plus en plus gourmands en données, ces systèmes d’exploitation s’avèrent de plus en plus complexes et coûteux à mettre en œuvre, et il est très difficile de réutiliser les applications déjà développées pour la version antérieure du véhicule. La voie générale que semblent suivre les constructeurs, c’est donc de créer un système d’exploitation en propre qui va pouvoir être réutilisé d’un véhicule à l’autre et qui va permettre de réutiliser et d’améliorer facilement les applications qui avaient été développées pour le véhicule précédent. Si on veut une comparaison, on peut dire que les constructeurs développent leur propre système Windows qui leur permet d’améliorer facilement Word et Excel entre chaque véhicule.

Nouvelles technologies– risques et excès de la digitalisation et du cloud

Nouvelles technologies– risques et excès  de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

Nouvelles technologies– Les dangers de l’excès de la digitalisation et du cloud

 

Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Fibre hautdébit : grande vitesse en zone dense mais retard chez les bouseux !

  • Fibre haut débit : grande vitesse en zone dense mais retard chez les bouseux !
  • Il se confirme qu’il y a bien deux  France. Une France de plus en plus concentrée autour des métropoles et des grandes villes qui allient développement économique, emploi  et croissance des services. Ce qui est encore démontré avec le développement de la fibre à haut débit. Inversement le programme est très en retard sur les objectifs dans les zones peu denses. Une situation connue par les pouvoirs publics et par l’Arcep le régulateur des télécoms qui semblent tous les deux s’en accommoder. Curieux car on aurait pu penser qu’une technologie justement qui a pour but de contracter l’espace aurait pu au contraire être mis d’abord au service des zones éloignées de tout. Bref une curieuse conception de l’aménagement du territoire.  Ici on parle d’application des nouvelles technologies type fibre ou 5G quand dans d’autres régions très lointaines on est encore peu ou pas desservi par Internet ou la téléphonie mobile.Normalement l’autorité de régulation devrait sanctionner les opérateurs par rapport à leur retard sur les objectifs d’équipement. Dans les faits, les sanctions se limitent à quelques sermons faits régulièrement

Un cloud pas très souverain

Un cloud pas très souverain 

 

 

De très fortes critiques des professionnels vis-à-vis du caractère souverain du cloud . Le ministre a en effet annoncé à la filière 1,8 milliard d’euros d’investissements publics et privés, dont 667 millions d’euros de fonds piochés dans les enveloppes du Programme d’Investissement Avenir (PIA 4) et du plan France Relance. « Si le gouvernement fait ces investissements, c’est parce que nous croyons que la bataille du cloud n’est pas perdue« , a-t-il déclaré. Pourtant ce n’est pas ce que pensent des professionnels.

 

Les petits poucets français du logiciel d’entreprise Atolia, Jalios, Jamespot, Netframe, Talkspirit, Twake, Whaller et Wimi, se regroupent dans un collectif pour affirmer qu’il est possible, notamment pour les administrations, de créer un « cloud de confiance » tout en se passant d’acteurs américains, et notamment de la suite bureautique toute-puissante de Microsoft. L’objectif : casser la perception – largement entretenue par le lobbying des Gafam, mais aussi, indirectement, par le gouvernement – que l’écosystème français du cloud n’est pas à la hauteur des enjeux de numérisation de l’économie.

Concurrentes mais solidaires face à Microsoft, leader du marché des solutions bureautiques, ces huit pépites françaises du SaaS (software as a service, Ndlr) proposent des alternatives françaises dans les domaines de la messagerie, du traitement de texte, du tchat, de la visioconférence ou encore du stockage de documents. « Nous sommes en mesure de proposer dès aujourd’hui une alternative crédible à la suite logicielle Microsoft 365, anciennement Office 365 », revendiquent-elles dans un communiqué commun. De quoi contredire Emmanuel Macron, qui estimait lors de la présentation du plan France 2030, la semaine dernière, qu’il « est faux de se dire que nous aurons un cloud totalement souverain dans cinq ans, parce qu’on a pris beaucoup de retard« .

 

Les dangers de l’excès de la digitalisation et du cloud

Les dangers de l’excès de la digitalisation et du cloud

 

. Les initiatives gouvernementales du cloud souverain sous-estiment considérablement l’impact du SaaS, qui crée pourtant une digitalisation souterraine dans les entreprises, augmentant considérablement la surface d’exposition aux cyberattaques. Par Andréa Jacquemin, fondateur et CEO de Beamy

Selon l’étude de KPMG réalisée en mai dernier dans le cadre de l’initiative gouvernementale du cloud souverain, le marché du cloud européen pourrait décupler et atteindre 560 milliards d’euros d’ici à 2030. Il concentre à part égale, 230 milliards d’euros, des besoins d’infrastructure – le IaaS et le PaaS – et les besoins d’applications : le SaaS. Mais si le cloud d’Infrastructure a été au cœur des débats de souveraineté ces derniers mois avec l’initiative européenne Gaia-X, ou la défense des acteurs français OVH, Orange ou Scaleway face aux mastodontes américains Amazon, Google ou Microsoft, rien ou trop peu n’a été dit sur son pendant applicatif : le SaaS.

Et pourtant, à l’insu des DSI et des directions générales, le SaaS explose jusqu’à créer une véritable digitalisation souterraine, aux mépris de tous les enjeux sécuritaires (RGPD) ou de souveraineté numérique.

Ainsi, dans les sociétés du Cac 40, et plus largement dans les grandes entreprises, le SaaS est devenu le vecteur clé de la digitalisation des métiers. Couramment appelé Shadow IT, l’écosystème SaaS se construit via l’usage massif d’outils disponibles sur internet, hyper-spécifiques et payables par abonnements. Déployés  à l’insu des lourds process de gouvernance d’entreprise, ces outils passent majoritairement sous les radars de l’entreprise car « à moins de 100.000 euros, le groupe ne regarde pas« , et cela même s’ils représentent des millions d’euros de coûts annuels cumulés. Externalisée, cette informatique est souvent celle de l’usage débridé des données personnelles (plus de 40% des SaaS utilisés sont américains), présentant potentiellement une multitude de failles de sécurité et de conformité à venir.

C’est une véritable digitalisation souterraine qui s’opère avec, en moyenne, plus de 190 éditeurs cloud différents pour une entreprise de plus de 1.000 collaborateurs. Sur ce nombre, seuls 60 de ces éditeurs sont maîtrisés par la DSI, 44 par le DPO et 36 par la sécurité. Et si, comme le prévoit KPMG, la croissance du cloud se poursuit, ce sont alors plus d’un millier d’éditeurs SaaS différents qui seront utilisés par chaque entreprise en 2030. La capacité de structurer un cadre de gouvernance clair sur le cloud d’application sera donc vital tant cela cristallise des enjeux de souveraineté numérique, de cyberdéfense ou de performance digitale de nos entreprises.

La transformation digitale étant l’affaire de tous, et surtout des métiers, il est normal qu’ils s’en saisissent. Notamment ceux de la nouvelle génération, celle du smartphone et ses applications qu’ils installent et désinstallent à la vitesse d’un clic. Génération du zapping, elle attend de l’entreprise le meilleur de la technologie que ce soit sur la vitesse d’exécution, l’interface des solutions et l’impact des outils sur la simplification et la performance de leurs activités professionnelles. Or, c’est un euphémisme de dire que cela ne fait pas encore partie des solutions proposées par les grandes entreprises.

close

volume_off

 

Pourtant, les meilleures technologies existent sur le marché mondial – près de 100.000 SaaS – dont les investissements réalisés par le capital risque se comptent en centaines de milliards d’euros. Ces solutions, parmi lesquelles figurent les plus puissantes, rapides et les mieux adaptées à la digitalisation des différents processus, sont aussi celles qui stockent et consomment le plus de données personnelles à l’étranger. Il s’agit donc de construire un véritable App Store de l’entreprise, pour permettre aux métiers de choisir eux-mêmes les meilleures applications tout en les guidant dans la bonne manière de sélectionner, utiliser et dé-risquer ces outils sur le­ long terme.

Le DSI tient une place stratégique sur ce sujet : celle de fournir ainsi à l’entreprise le cadre de décentralisation de la digitalisation. Celle de s’assurer que, malgré l’inflation technologique portée par les métiers, le cadre réglementaire est respecté, les données personnelles sous-traitées par ces outils sont bien protégées et les failles de sécurité externalisées sont réduites au minimum. Dans ce contexte, le DSI agît comme chef d’orchestre de l’écosystème digital, assurant l’optimisation des applications SaaS et leurs synergies au fur et à mesure que les métiers les ajoutent.

Le cloud souverain restera une initiative vaine si le cloud d’application, qui en résulte pour moitié, est toujours considéré au second plan. Au sein des entreprises, c’est à la direction générale d’impulser la construction d’une gouvernance digitale décentralisée, la seule à même de réussir à structurer cette part explosive du cloud. Une stratégie qui nécessite de mobiliser, avec le DSI, l’ensemble du comité exécutif, toutes les directions étant concernées par les enjeux de la transformation digitale.

L’urgence reste pourtant bien de faire l’état des lieux de la digitalisation souterraine existante !

Cloud souverain très insuffisant

Cloud souverain très insuffisant

 

De très fortes critiques des professionnels vis-à-vis du caractère souverain du cloud . Le ministre a en effet annoncé à la filière 1,8 milliard d’euros d’investissements publics et privés, dont 667 millions d’euros de fonds piochés dans les enveloppes du Programme d’Investissement Avenir (PIA 4) et du plan France Relance. « Si le gouvernement fait ces investissements, c’est parce que nous croyons que la bataille du cloud n’est pas perdue« , a-t-il déclaré. Pourtant ce n’est pas ce que pense les professionnels.

 

Les petits poucets français du logiciel d’entreprise Atolia, Jalios, Jamespot, Netframe, Talkspirit, Twake, Whaller et Wimi, se regroupent dans un collectif pour affirmer qu’il est possible, notamment pour les administrations, de créer un « cloud de confiance » tout en se passant d’acteurs américains, et notamment de la suite bureautique toute-puissante de Microsoft. L’objectif : casser la perception – largement entretenue par le lobbying des Gafam, mais aussi, indirectement, par le gouvernement – que l’écosystème français du cloud n’est pas à la hauteur des enjeux de numérisation de l’économie.

Concurrentes mais solidaires face à Microsoft, leader du marché des solutions bureautiques, ces huit pépites françaises du SaaS (software as a service, Ndlr) proposent des alternatives françaises dans les domaines de la messagerie, du traitement de texte, du tchat, de la visioconférence ou encore du stockage de documents. « Nous sommes en mesure de proposer dès aujourd’hui une alternative crédible à la suite logicielle Microsoft 365, anciennement Office 365 », revendiquent-elles dans un communiqué commun. De quoi contredire Emmanuel Macron, qui estimait lors de la présentation du plan France 2030, la semaine dernière, qu’il « est faux de se dire que nous aurons un cloud totalement souverain dans cinq ans, parce qu’on a pris beaucoup de retard« .

 

En attendant, 421 millions d’euros financent d’ores et déjà 23 projets de R&D publics et privés sélectionnés par le gouvernement.

Un observatoire des conséquences environnementales du numérique

Un observatoire des conséquences environnementales du numérique

 

Dans le cas d’un récent débat sur la problématique numérique et environnement, le Parlement vient d’adopter la création d’un « observatoire des impacts environnementaux du numérique » afin d’établir des données plus précises sur cette problématique. Il prévoit également une formation de sensibilisation aux conséquences environnementales du numérique et à la « sobriété numérique » dans le primaire et le secondaire. Le texte favorise par ailleurs des centres de données et des réseaux moins gourmands en électricité et renforce la lutte contre l’obsolescence programmée en l’étendant aux logiciels.

Selon les travaux d’une mission d’information sénatoriale, si rien n’est fait, le numérique sera à l’horizon 2040 à l’origine de 24 millions de tonnes équivalent carbone, soit environ 7% des émissions de gaz à effet de serre de la France, contre 2% aujourd’hui.

La consommation par exemple des bitcoins en énergie peut laisser perplexe En effet, un ménage américain consomme environ 900 kWh par mois, cela signifie qu’une seule opération en bitcoin utilise autant d’électricité qu’un foyer américain en 7 jours. L’énergie consommée en un an par la monnaie virtuelle pourrait faire vivre, en terme d’énergie, 2.35 millions de ménages américains, ou une maison consommant de l’énergie pendant une semaine.

Si l’on réfléchit, non pas en terme de foyers, mais en émissions de CO2, le bitcoin est également en position délicate. En effet, selon Digiconomist, qui a pris pour exemple une mine de la monnaie virtuelle, bitcoin en Mongolie. La mine est alimentée au charbon, et chaque bitcoin consommé aurait pour conséquence 8 000 à 13 000 kilogrammes de CO2 par bitcoin. Et donc, entre 24 000 et 40 000 kilogrammes pour chaque heure d’activité. En comparaison, une voiture en Europe, émet 0.1181 kilogramme de CO2 a chaque kilomètre parcouru. Ainsi, la mine en Mongolie produit, chaque heure l’équivalent, en émission de CO2, de 203 000 kilomètres parcourus en voiture. La preuve s’il en fallait que nouvelles technologies et économies d’énergie ne sont pas toujours compatibles

 

Pour aller plus loin

Si l’on prend le réseau Visa (serveur – banque) au niveau mondial. Ce dernier a réalisé en 2016, 82.3 millions de transactions bancaires, et ainsi Visa a une consommation électrique similaire à 50 000 foyers américains. Ainsi, il pourrait alimenter un foyer américain pendant 19 secondes. Alors que si l’on prend l’exemple de bitcoin, il pourrait alimenter 5.60 foyers pendant une journée.

En conclusion, la consommation électrique du bitcoin a un impact écologique important. Mais, nous pouvons nous poser la question des monnaies fiduciaires. Sont-elles autant énergivores que les monnaies virtuelles, comme le bitcoin ? Car si l’on se penche sur la question, l’extraction d’or est tout aussi néfaste pour l’environnement, car elle a besoin de ressources naturelles, contrairement au bitcoin qui utilise de l’électricité.

« Méta »Nouveau nom de Facebook ou le triomphe de la technologie au service de l’inutile ?

« Méta »Nouveau nom de Facebook ou le triomphe de la technologie au service de l’inutile ?

À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget, le projet « Métavers ». Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile. 

En réalité le projet de se réduit à  un casque de réalité virtuelle ou des lunettes de réalité augmentée. Une réalité virtuelle de poubelles et de haine.

Tribune

Depuis l’aube de la civilisation, les humains n’ont eu qu’un seul environnement dans lequel vivre : le monde réel. Mais les spécialistes de la prospective en matière de tech affirment que nous aurons bientôt une alternative : un univers virtuel où nos avatars numériques ainsi que ceux de nos proches et de personnes vivant dans le monde entier se rassembleront pour travailler, faire des achats, suivre des cours, s’adonner à leurs passe-temps, participer à des activités sociales, etc. À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget. Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile

Si les jeux vidéo immersifs et les concerts virtuels nous ont donné un avant-goût de ce nouveau monde, les prospectivistes assurent que le métavers — nom donné à cet univers virtuel —, sera bien plus attrayant et développé. Selon eux, il ne se contentera pas de refléter le monde réel dans toute sa complexité tridimensionnelle, mais le prolongera pour nous permettre d’être et de faire ce qui, auparavant, ne pouvait relever que dans notre imagination. Marcher sur la lune en pyjama ? Regarder un match de baseball depuis le monticule du lanceur ? Batifoler dans un pré rempli de licornes — ou être soi-même une licorne ? Dans le métavers, disent les spécialistes de la tech, tout sera possible.

«Le métavers va être la plus grande révolution que le monde ait connue dans le domaine des plateformes informatiques. Elle surpassera celle de la téléphonie mobile ou celle du Web», déclare Marc Whitten, « vice-président senior et directeur général de la création» chez Unity, un développeur de logiciels basé à San Francisco.

«Il y a un risque que certains préfèrent le métavers au monde réel»

Unity conçoit des outils et des services afin de permettre aux gens de créer du contenu pour le métavers. D’autres grandes entreprises de la tech mettent également au point des matériels et des logiciels pour ce monde virtuel et certains sont même en train de concevoir leur propre métavers, notamment Nvidia, Roblox, Epic Games, Microsoft et Facebook.

«En plus de constituer l’Internet de prochaine génération, le métavers va également représenter notre nouveau chapitre en tant qu’entreprise, a lancé Mark Zuckerberg, PDG de Facebook, aux analystes lors d’une conférence téléphonique sur les résultats en juillet. Dans les années à venir, je m’attends à ce que les gens cessent de nous voir principalement comme une plateforme de réseaux sociaux pour nous considérer comme une entreprise de métavers.»

On pourra peut-être accéder à ce futur monde virtuel via des appareils grand public comme les smartphones et les ordinateurs. Mais les dirigeants de la tech affirment que des lunettes spécifiquement conçues — proches des casques de réalité virtuelle actuellement sur le marché, mais moins encombrantes et plus confortables — permettront une immersion plus poussée. Nous verrons aussi probablement apparaître de nouveaux d’appareils haptiques permettant aux utilisateurs de «toucher» les objets virtuels, et des équipements innovants, par exemple des tapis roulants omnidirectionnels pouvant simuler la course à pied, l’escalade ou d’autres activités physiques.

Pour que le métavers se développe, il faudra améliorer les systèmes informatiques et les technologies existantes, avertissent les responsables techniques. Cela passera notamment par l’augmentation de la puissance de calcul et de la qualité des graphismes ainsi que par la création d’un environnement universel permettant aux utilisateurs de passer sans entrave d’une partie du métavers à une autre. Il sera également indispensable, selon eux, de disposer d’outils de programmation suffisamment simples pour permettre à quiconque — et non aux seuls développeurs chevronnés — de créer ses propres expériences et mondes virtuels.

Il faudra également répondre aux préoccupations en matière de respect de la vie privée et de sécurité. Sans oublier les pièges potentiels du métavers, notamment la menace que les gens trouvent ce monde virtuel si captivant qu’ils négligent leurs besoins dans le monde réel.

«Il y a un risque que certains préfèrent le métavers au monde réel», prévient Rachel Kowert, une psychologue de l’Ontario (Canada) qui a étudié la santé mentale chez les fans de jeux vidéo. Elle ajoute que ceux qui courent les plus grands dangers sont les enfants. «C’est par le biais de leurs pairs et des interactions sociales qu’ils apprennent à se comporter et à s’intégrer dans le monde, précise Mme Kowert. C’est un élément essentiel dans notre apprentissage de la vie.»

Mais qu’il soit bénéfique ou néfaste — ou les deux à la fois —, le métavers va probablement devenir une réalité incontournable.

Des voyages scolaires n’importe où, à n’importe quelle époque

Les dirigeants des entreprises technologiques qui participent à la création du métavers affirment que sa taille sera considérable et qu’il comprendra des répliques de lieux du monde réel — passé, présent et futur — toutes restituées en 3D de manière réaliste. Il sera capable de prendre en charge un nombre infini d’utilisateurs simultanément, sans les lags qui agacent souvent les joueurs de jeux vidéo multijoueurs.

Par exemple, n’importe quel nombre d’élèves, où qu’ils habitent sur la planète, pourront se retrouver, dans le cadre d’un voyage scolaire, dans la Rome antique, explique Richard Kerris, cadre de Nvidia, qui participe à la supervision d’un projet d’infrastructure de métavers appelé Omniverse. Ce dernier permettra aux développeurs du monde entier de collaborer en temps réel pour concevoir des logiciels de création de contenus pour le métavers. Dans cet univers, les étudiants pourront explorer tous les recoins du Colisée où un gladiateur virtuel utilisant l’intelligence artificielle sera capable de répondre à leurs questions.

Nous pourrons mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien

Selon les gourous de la tech, dans le métavers, les gens se verront et interagiront entre eux par le biais d’avatars. Mais grâce aux progrès attendus en matière de graphisme, ils seront beaucoup plus réalistes que les versions cartoonesques aujourd’hui familières des amateurs de réalité virtuelle, selon Daren Tsui, directeur général de Together Labs, un développeur spécialisé dans la social tech de Palo Alto, en Californie. Les avatars pourront également représenter des personnes décédées, notamment des membres de la famille et des amis, ainsi que des personnages historiques, et les ramener à la vie grâce à l’intelligence artificielle.

«L’expérience avec un avatar sera si proche du réel que vous pourrez difficilement faire la différence entre une réunion virtuelle et une en présentiel, affirme M. Tsui. Et la première sera meilleure.»

Les avatars ne seront toutefois pas la seule façon dont les gens apparaîtront dans le métavers. Les dirigeants de la tech affirment que nous pourrons regarder des vidéos «réelles», notamment des retransmissions en direct de concerts et de rencontres sportives. Mais plutôt que d’être obligés de regarder ces événements avec les angles limités que nous proposent les producteurs, nous aurons la liberté d’en profiter avec la perspective de notre choix. D’un simple mouvement du doigt, nous pourrons obtenir des informations sur les artistes et les athlètes que nous regardons, comme leur position dans le classement Billboard (NDLR : top 100 hebdomadaire des chansons aux Etats-Unis) ou le nombre de points inscrits en une saison.

Nous pourrons également mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien.

Compagnons virtuels, mariages et tourisme

Selon John Egan, directeur général de L’Atelier BNP Paribas, une société de prospective et d’innovation basée à Paris, le métavers sera aussi un lieu de commerce. Il prédit notamment que les utilisateurs achèteront et vendront des animaux de compagnie virtuels, qu’il s’agisse de chiens et de chats plus vrais que nature ou de dragons ou autres créatures fantastiques. Il prévoit également l’émergence d’un marché pour les services connexes, comme la promenade et le toilettage des animaux, car les compagnons virtuels pourront être programmés pour avoir besoin des mêmes types de soins que les homologues réels.

Les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques

Parmi les autres débouchés commerciaux potentiels, on peut citer les mariages et fêtes virtuels, pour lesquels des prestataires pourront créer des lieux et facturer des frais de location ou d’entrée, selon M. Egan. De même, des guides touristiques privés auront la possibilité de guider leurs clients vers des destinations de voyage virtuelles. «Le potentiel est infini», résume-t-il.

Les entrepreneurs du metavers n’accepteront pas d’argent liquide, affirment les spécialistes de la prospective. Les transactions pourraient donc se faire via des cartes de crédit et des services de paiement en ligne comme PayPal. Mais il est probable, selon M. Egan, que les cryptomonnaies et la technologie blockchain joueront un rôle majeur. Ainsi, par exemple, les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques. En conséquence, ajoute-t-il, les animaux virtuels pourront être «élevés» pour être rapides, ce qui permettra d’organiser des courses et des paris virtuels.

Une « stratégie métavers » pour les entreprises

Selon M. Whitten de chez Unity, les entreprises du monde réel pourront également participer au métavers en proposant des déclinaisons virtuelles de leurs établissements physiques. Dans les boutiques en ligne existantes, les clients peuvent lire les descriptions des produits et faire des achats. Dans le métavers, ils pourront visiter des points de vente virtuels et essayer les produits en 3D à la taille réelle avant de les acheter. Une personne grande pourra ainsi vérifier si elle peut se tenir confortablement à l’intérieur d’une tente de camping avant de la commander et de la faire expédier à son domicile réel.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers»

De même, les agents immobiliers pourront utiliser le métavers pour permettre aux personnes à la recherche d’un nouveau logement d’en visiter virtuellement partout dans le monde sans quitter leur domicile, selon M. Kerris de Nvidia. Ils pourront se promener dans les lieux, pièce après pièce, et même scanner leurs meubles actuels et les téléporter dans un autre logement pour se rendre compte de ce que ça donnerait.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers», assure M. Whitten.

Les employeurs profiteront également des environnements 3D partagés du métavers pour permettre à des collaborateurs éloignés de travailler ensemble dans des conditions inatteignables avec la technologie vidéo actuelle, selon les experts en prospective. Par exemple, des architectes et des cadres d’une entreprise de construction — où qu’ils se trouvent dans la vie réelle — pourront se rendre virtuellement sur un chantier afin de surveiller la construction d’un nouveau bâtiment, qui, avec son environnement, sera rendu de manière très réaliste en 3D.

«Le métavers permettra un formidable saut qualitatif pour le télétravail, poursuit M. Whitten. Vous serez en mesure de concevoir et de construire plus rapidement, avec plus de sécurité et pour moins cher qu’aujourd’hui.»

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Metavers de facebook de : « immersif  » ou le plongeon vers l’inutile

Metavers de facebook de : « immersif «   ou le plongeon vers l’inutile

 

Facebook ou l’enflure des mots  dissimule le vide sidéral du projet avec Métavers  selon  Laurent Solly, le vice-président de Facebook/Meta pour l’Europe du Sud, détaille le projet.

Un projet qui vise à créer univers numérique virtuel  grâce à des lunettes ou un casque…….où il est surtout question de milliards et peu de contenu.

Le métavers nous permettra d’avoir un sentiment de présence physique dans un environnement virtuel, grâce à des technologies qui vont nous permettre de ressentir cette présence.

 

À quoi va ressembler cet univers?
Grâce au métavers, nous pourrons être en connexion avec nos proches avec une grande différence par rapport à ce qui se passe aujourd’hui. Il nous permettra d’avoir un sentiment de présence physique dans un environnement virtuel, grâce à des technologies qui vont nous permettre de ressentir cette présence. C’est un Internet incarné où vous êtes dans l’expérience, pas seulement en train de la regarder. Ça s’appliquera à l’univers familial, professionnel, avec des collègues qui peuvent être à des milliers de kilomètres, dans le gaming, le divertissement… Les interactions sociales seront plus » immersives », plus engageantes, avec des émotions différentes que celles avec son smartphone aujourd’hui.

 

En gros Facebook s’apprête à commercialiser la nullité produite par les internautes eux-mêmes. Et plus c’est nul et plus ça plaît aux algorithmes qui recherchent le plus grand dénominateur commun de la bêtise la plus partagée.

Le vide intellectuel du projet se ressent à travers l’interview du vice-président de Facebook qui ne parle pas de contenu mais surtout de milliards de dollars.

 

 Comment imaginez-vous la régulation de ce nouvel environnement?

On peut comparer ce que nous vivons aujourd’hui avec la croissance exponentielle d’Internet, qui a fait émerger les questions de régulation, de protection des données, de sécurité des plateformes ou encore de sûreté des utilisateurs. La grande différence dans le cas du métavers, c’est que nous avons un héritage et des connaissances. Une question clé de ce projet sera comment construire ce métavers de façon responsable dès le premier jour. Il y a trois semaines, nous avons annoncé un fonds, doté de 50 millions de dollars, pour financer des programmes et des recherches externes et pour réfléchir avec les meilleurs experts indépendants à ces questions. Quelle sera la régulation dans ce monde virtuel qui peut rassembler des centaines de millions de personnes? Comment protégerons-nous les données? Quel sera l’impact sur notre santé, notre équilibre entre vie privée, vie professionnelle, vie physique et vie virtuelle? Toutes ces questions sont ouvertes et nous nous les posons dès aujourd’hui.

Justement, la question de la responsabilité de Facebook est engagée sur ces sujets. Pourquoi faire confiance à Meta, là où il existe une défiance vis-à-vis de Facebook?
Regardez les progrès que nous avons faits, regardez les moyens que nous avons mis sur la table. Je donne quelques éléments chiffrés : depuis cinq ans, nous avons investi 13 milliards de dollars dans la sécurité de nos utilisateurs. Nous avons recruté 40.000 personnes pour s’en occuper. Cette année, nous investissons à nouveau 5 milliards de dollars. Ça nous a permis de développer les technologies les plus pointues.

Un élément qui ressort pourtant des « Facebook Files » révélés par une ex-employée devenue lanceuse d’alerte, c’est que Facebook ne maîtrise plus son propre algorithme et que ça nuit à la modération. Avez-vous perdu le fil?

savons les régler et nous le montrons. Sur la modération, par exemple, au deuxième trimestre de l’année, nous avons empêché 1,7 milliard de tentatives de création de faux comptes sur Facebook. Alors lorsqu’on nous dit que nous ne contrôlons pas notre outil, je le dis clairement, ce n’est pas exact.

Ce qui apparaît dans ces documents est donc faux?
Ce sont des lectures sélectives et des conclusions partiales. Il s’agit de sujets complexes qui méritent de la nuance et de la perspective sur ce qui s’est passé ces dernières années.

Metavers de facebook de : « immersif  » ou qui plonge l’internaute dans l’inutile ,l’idiotie et la haine

Metavers de facebook de : « immersif «   ou qui plonge l’internaute dans l’inutile ,l’idiotie et la haine

 

Facebook ou l’enflure des mots  dissimule le vide sidéral du projet avec Métavers  selon  Laurent Solly, le vice-président de Facebook/Meta pour l’Europe du Sud, détaille le projet.

Un projet qui vise à créer univers numérique virtuel  grâce à des lunettes ou un casque…….où il est surtout question de milliards et peu de contenu.

Le métavers nous permettra d’avoir un sentiment de présence physique dans un environnement virtuel, grâce à des technologies qui vont nous permettre de ressentir cette présence.

 

À quoi va ressembler cet univers?
Grâce au métavers, nous pourrons être en connexion avec nos proches avec une grande différence par rapport à ce qui se passe aujourd’hui. Il nous permettra d’avoir un sentiment de présence physique dans un environnement virtuel, grâce à des technologies qui vont nous permettre de ressentir cette présence. C’est un Internet incarné où vous êtes dans l’expérience, pas seulement en train de la regarder. Ça s’appliquera à l’univers familial, professionnel, avec des collègues qui peuvent être à des milliers de kilomètres, dans le gaming, le divertissement… Les interactions sociales seront plus » immersives », plus engageantes, avec des émotions différentes que celles avec son smartphone aujourd’hui.

 

En gros Facebook s’apprête à commercialiser la nullité produite par les internautes eux-mêmes. Et plus c’est nul et plus ça plaît aux algorithmes qui recherchent le plus grand dénominateur commun de la bêtise la plus partagée.

Le vide intellectuel du projet se ressent à travers l’interview du vice-président de Facebook qui ne parle pas de contenu mais surtout de milliards de dollars.

 

 Comment imaginez-vous la régulation de ce nouvel environnement?

On peut comparer ce que nous vivons aujourd’hui avec la croissance exponentielle d’Internet, qui a fait émerger les questions de régulation, de protection des données, de sécurité des plateformes ou encore de sûreté des utilisateurs. La grande différence dans le cas du métavers, c’est que nous avons un héritage et des connaissances. Une question clé de ce projet sera comment construire ce métavers de façon responsable dès le premier jour. Il y a trois semaines, nous avons annoncé un fonds, doté de 50 millions de dollars, pour financer des programmes et des recherches externes et pour réfléchir avec les meilleurs experts indépendants à ces questions. Quelle sera la régulation dans ce monde virtuel qui peut rassembler des centaines de millions de personnes? Comment protégerons-nous les données? Quel sera l’impact sur notre santé, notre équilibre entre vie privée, vie professionnelle, vie physique et vie virtuelle? Toutes ces questions sont ouvertes et nous nous les posons dès aujourd’hui.

Justement, la question de la responsabilité de Facebook est engagée sur ces sujets. Pourquoi faire confiance à Meta, là où il existe une défiance vis-à-vis de Facebook?
Regardez les progrès que nous avons faits, regardez les moyens que nous avons mis sur la table. Je donne quelques éléments chiffrés : depuis cinq ans, nous avons investi 13 milliards de dollars dans la sécurité de nos utilisateurs. Nous avons recruté 40.000 personnes pour s’en occuper. Cette année, nous investissons à nouveau 5 milliards de dollars. Ça nous a permis de développer les technologies les plus pointues.

Un élément qui ressort pourtant des « Facebook Files » révélés par une ex-employée devenue lanceuse d’alerte, c’est que Facebook ne maîtrise plus son propre algorithme et que ça nuit à la modération. Avez-vous perdu le fil?

savons les régler et nous le montrons. Sur la modération, par exemple, au deuxième trimestre de l’année, nous avons empêché 1,7 milliard de tentatives de création de faux comptes sur Facebook. Alors lorsqu’on nous dit que nous ne contrôlons pas notre outil, je le dis clairement, ce n’est pas exact.

Ce qui apparaît dans ces documents est donc faux?
Ce sont des lectures sélectives et des conclusions partiales. Il s’agit de sujets complexes qui méritent de la nuance et de la perspective sur ce qui s’est passé ces dernières années.

Facebook devient « Méta » ou le triomphe de la technologie au service de l’inutile ?

 Facebook devient « Méta » ou le triomphe de la technologie au service de l’inutile ?

À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget, le projet « Métavers ». Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile. 

En réalité le projet de se réduit à  un casque de réalité virtuelle ou des lunettes de réalité augmentée. Une réalité virtuelle de poubelles et de haine.

Tribune

Depuis l’aube de la civilisation, les humains n’ont eu qu’un seul environnement dans lequel vivre : le monde réel. Mais les spécialistes de la prospective en matière de tech affirment que nous aurons bientôt une alternative : un univers virtuel où nos avatars numériques ainsi que ceux de nos proches et de personnes vivant dans le monde entier se rassembleront pour travailler, faire des achats, suivre des cours, s’adonner à leurs passe-temps, participer à des activités sociales, etc. À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget. Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile

Si les jeux vidéo immersifs et les concerts virtuels nous ont donné un avant-goût de ce nouveau monde, les prospectivistes assurent que le métavers — nom donné à cet univers virtuel —, sera bien plus attrayant et développé. Selon eux, il ne se contentera pas de refléter le monde réel dans toute sa complexité tridimensionnelle, mais le prolongera pour nous permettre d’être et de faire ce qui, auparavant, ne pouvait relever que dans notre imagination. Marcher sur la lune en pyjama ? Regarder un match de baseball depuis le monticule du lanceur ? Batifoler dans un pré rempli de licornes — ou être soi-même une licorne ? Dans le métavers, disent les spécialistes de la tech, tout sera possible.

«Le métavers va être la plus grande révolution que le monde ait connue dans le domaine des plateformes informatiques. Elle surpassera celle de la téléphonie mobile ou celle du Web», déclare Marc Whitten, « vice-président senior et directeur général de la création» chez Unity, un développeur de logiciels basé à San Francisco.

«Il y a un risque que certains préfèrent le métavers au monde réel»

Unity conçoit des outils et des services afin de permettre aux gens de créer du contenu pour le métavers. D’autres grandes entreprises de la tech mettent également au point des matériels et des logiciels pour ce monde virtuel et certains sont même en train de concevoir leur propre métavers, notamment Nvidia, Roblox, Epic Games, Microsoft et Facebook.

«En plus de constituer l’Internet de prochaine génération, le métavers va également représenter notre nouveau chapitre en tant qu’entreprise, a lancé Mark Zuckerberg, PDG de Facebook, aux analystes lors d’une conférence téléphonique sur les résultats en juillet. Dans les années à venir, je m’attends à ce que les gens cessent de nous voir principalement comme une plateforme de réseaux sociaux pour nous considérer comme une entreprise de métavers.»

On pourra peut-être accéder à ce futur monde virtuel via des appareils grand public comme les smartphones et les ordinateurs. Mais les dirigeants de la tech affirment que des lunettes spécifiquement conçues — proches des casques de réalité virtuelle actuellement sur le marché, mais moins encombrantes et plus confortables — permettront une immersion plus poussée. Nous verrons aussi probablement apparaître de nouveaux d’appareils haptiques permettant aux utilisateurs de «toucher» les objets virtuels, et des équipements innovants, par exemple des tapis roulants omnidirectionnels pouvant simuler la course à pied, l’escalade ou d’autres activités physiques.

Pour que le métavers se développe, il faudra améliorer les systèmes informatiques et les technologies existantes, avertissent les responsables techniques. Cela passera notamment par l’augmentation de la puissance de calcul et de la qualité des graphismes ainsi que par la création d’un environnement universel permettant aux utilisateurs de passer sans entrave d’une partie du métavers à une autre. Il sera également indispensable, selon eux, de disposer d’outils de programmation suffisamment simples pour permettre à quiconque — et non aux seuls développeurs chevronnés — de créer ses propres expériences et mondes virtuels.

Il faudra également répondre aux préoccupations en matière de respect de la vie privée et de sécurité. Sans oublier les pièges potentiels du métavers, notamment la menace que les gens trouvent ce monde virtuel si captivant qu’ils négligent leurs besoins dans le monde réel.

«Il y a un risque que certains préfèrent le métavers au monde réel», prévient Rachel Kowert, une psychologue de l’Ontario (Canada) qui a étudié la santé mentale chez les fans de jeux vidéo. Elle ajoute que ceux qui courent les plus grands dangers sont les enfants. «C’est par le biais de leurs pairs et des interactions sociales qu’ils apprennent à se comporter et à s’intégrer dans le monde, précise Mme Kowert. C’est un élément essentiel dans notre apprentissage de la vie.»

Mais qu’il soit bénéfique ou néfaste — ou les deux à la fois —, le métavers va probablement devenir une réalité incontournable.

Des voyages scolaires n’importe où, à n’importe quelle époque

Les dirigeants des entreprises technologiques qui participent à la création du métavers affirment que sa taille sera considérable et qu’il comprendra des répliques de lieux du monde réel — passé, présent et futur — toutes restituées en 3D de manière réaliste. Il sera capable de prendre en charge un nombre infini d’utilisateurs simultanément, sans les lags qui agacent souvent les joueurs de jeux vidéo multijoueurs.

Par exemple, n’importe quel nombre d’élèves, où qu’ils habitent sur la planète, pourront se retrouver, dans le cadre d’un voyage scolaire, dans la Rome antique, explique Richard Kerris, cadre de Nvidia, qui participe à la supervision d’un projet d’infrastructure de métavers appelé Omniverse. Ce dernier permettra aux développeurs du monde entier de collaborer en temps réel pour concevoir des logiciels de création de contenus pour le métavers. Dans cet univers, les étudiants pourront explorer tous les recoins du Colisée où un gladiateur virtuel utilisant l’intelligence artificielle sera capable de répondre à leurs questions.

Nous pourrons mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien

Selon les gourous de la tech, dans le métavers, les gens se verront et interagiront entre eux par le biais d’avatars. Mais grâce aux progrès attendus en matière de graphisme, ils seront beaucoup plus réalistes que les versions cartoonesques aujourd’hui familières des amateurs de réalité virtuelle, selon Daren Tsui, directeur général de Together Labs, un développeur spécialisé dans la social tech de Palo Alto, en Californie. Les avatars pourront également représenter des personnes décédées, notamment des membres de la famille et des amis, ainsi que des personnages historiques, et les ramener à la vie grâce à l’intelligence artificielle.

«L’expérience avec un avatar sera si proche du réel que vous pourrez difficilement faire la différence entre une réunion virtuelle et une en présentiel, affirme M. Tsui. Et la première sera meilleure.»

Les avatars ne seront toutefois pas la seule façon dont les gens apparaîtront dans le métavers. Les dirigeants de la tech affirment que nous pourrons regarder des vidéos «réelles», notamment des retransmissions en direct de concerts et de rencontres sportives. Mais plutôt que d’être obligés de regarder ces événements avec les angles limités que nous proposent les producteurs, nous aurons la liberté d’en profiter avec la perspective de notre choix. D’un simple mouvement du doigt, nous pourrons obtenir des informations sur les artistes et les athlètes que nous regardons, comme leur position dans le classement Billboard (NDLR : top 100 hebdomadaire des chansons aux Etats-Unis) ou le nombre de points inscrits en une saison.

Nous pourrons également mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien.

Compagnons virtuels, mariages et tourisme

Selon John Egan, directeur général de L’Atelier BNP Paribas, une société de prospective et d’innovation basée à Paris, le métavers sera aussi un lieu de commerce. Il prédit notamment que les utilisateurs achèteront et vendront des animaux de compagnie virtuels, qu’il s’agisse de chiens et de chats plus vrais que nature ou de dragons ou autres créatures fantastiques. Il prévoit également l’émergence d’un marché pour les services connexes, comme la promenade et le toilettage des animaux, car les compagnons virtuels pourront être programmés pour avoir besoin des mêmes types de soins que les homologues réels.

Les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques

Parmi les autres débouchés commerciaux potentiels, on peut citer les mariages et fêtes virtuels, pour lesquels des prestataires pourront créer des lieux et facturer des frais de location ou d’entrée, selon M. Egan. De même, des guides touristiques privés auront la possibilité de guider leurs clients vers des destinations de voyage virtuelles. «Le potentiel est infini», résume-t-il.

Les entrepreneurs du metavers n’accepteront pas d’argent liquide, affirment les spécialistes de la prospective. Les transactions pourraient donc se faire via des cartes de crédit et des services de paiement en ligne comme PayPal. Mais il est probable, selon M. Egan, que les cryptomonnaies et la technologie blockchain joueront un rôle majeur. Ainsi, par exemple, les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques. En conséquence, ajoute-t-il, les animaux virtuels pourront être «élevés» pour être rapides, ce qui permettra d’organiser des courses et des paris virtuels.

Une « stratégie métavers » pour les entreprises

Selon M. Whitten de chez Unity, les entreprises du monde réel pourront également participer au métavers en proposant des déclinaisons virtuelles de leurs établissements physiques. Dans les boutiques en ligne existantes, les clients peuvent lire les descriptions des produits et faire des achats. Dans le métavers, ils pourront visiter des points de vente virtuels et essayer les produits en 3D à la taille réelle avant de les acheter. Une personne grande pourra ainsi vérifier si elle peut se tenir confortablement à l’intérieur d’une tente de camping avant de la commander et de la faire expédier à son domicile réel.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers»

De même, les agents immobiliers pourront utiliser le métavers pour permettre aux personnes à la recherche d’un nouveau logement d’en visiter virtuellement partout dans le monde sans quitter leur domicile, selon M. Kerris de Nvidia. Ils pourront se promener dans les lieux, pièce après pièce, et même scanner leurs meubles actuels et les téléporter dans un autre logement pour se rendre compte de ce que ça donnerait.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers», assure M. Whitten.

Les employeurs profiteront également des environnements 3D partagés du métavers pour permettre à des collaborateurs éloignés de travailler ensemble dans des conditions inatteignables avec la technologie vidéo actuelle, selon les experts en prospective. Par exemple, des architectes et des cadres d’une entreprise de construction — où qu’ils se trouvent dans la vie réelle — pourront se rendre virtuellement sur un chantier afin de surveiller la construction d’un nouveau bâtiment, qui, avec son environnement, sera rendu de manière très réaliste en 3D.

«Le métavers permettra un formidable saut qualitatif pour le télétravail, poursuit M. Whitten. Vous serez en mesure de concevoir et de construire plus rapidement, avec plus de sécurité et pour moins cher qu’aujourd’hui.»

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

Métavers de Facebook: Éloge de la technologie au service de l’inutile ?

Métavers de Facebook: Éloge de la technologie au service de l’inutile ?

À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget. Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile. 

Depuis l’aube de la civilisation, les humains n’ont eu qu’un seul environnement dans lequel vivre : le monde réel. Mais les spécialistes de la prospective en matière de tech affirment que nous aurons bientôt une alternative : un univers virtuel où nos avatars numériques ainsi que ceux de nos proches et de personnes vivant dans le monde entier se rassembleront pour travailler, faire des achats, suivre des cours, s’adonner à leurs passe-temps, participer à des activités sociales, etc. À grand renfort de pub, Facebook ne cesse d’annoncer la révolution culturelle qui fera confondre virtualité et réalité. En fait un nouveau gadget. Un article du Wall Street Journal fait l’éloge de la technologie au service de l’inutile

Si les jeux vidéo immersifs et les concerts virtuels nous ont donné un avant-goût de ce nouveau monde, les prospectivistes assurent que le métavers — nom donné à cet univers virtuel —, sera bien plus attrayant et développé. Selon eux, il ne se contentera pas de refléter le monde réel dans toute sa complexité tridimensionnelle, mais le prolongera pour nous permettre d’être et de faire ce qui, auparavant, ne pouvait relever que dans notre imagination. Marcher sur la lune en pyjama ? Regarder un match de baseball depuis le monticule du lanceur ? Batifoler dans un pré rempli de licornes — ou être soi-même une licorne ? Dans le métavers, disent les spécialistes de la tech, tout sera possible.

«Le métavers va être la plus grande révolution que le monde ait connue dans le domaine des plateformes informatiques. Elle surpassera celle de la téléphonie mobile ou celle du Web», déclare Marc Whitten, « vice-président senior et directeur général de la création» chez Unity, un développeur de logiciels basé à San Francisco.

«Il y a un risque que certains préfèrent le métavers au monde réel»

Unity conçoit des outils et des services afin de permettre aux gens de créer du contenu pour le métavers. D’autres grandes entreprises de la tech mettent également au point des matériels et des logiciels pour ce monde virtuel et certains sont même en train de concevoir leur propre métavers, notamment Nvidia, Roblox, Epic Games, Microsoft et Facebook.

«En plus de constituer l’Internet de prochaine génération, le métavers va également représenter notre nouveau chapitre en tant qu’entreprise, a lancé Mark Zuckerberg, PDG de Facebook, aux analystes lors d’une conférence téléphonique sur les résultats en juillet. Dans les années à venir, je m’attends à ce que les gens cessent de nous voir principalement comme une plateforme de réseaux sociaux pour nous considérer comme une entreprise de métavers.»

On pourra peut-être accéder à ce futur monde virtuel via des appareils grand public comme les smartphones et les ordinateurs. Mais les dirigeants de la tech affirment que des lunettes spécifiquement conçues — proches des casques de réalité virtuelle actuellement sur le marché, mais moins encombrantes et plus confortables — permettront une immersion plus poussée. Nous verrons aussi probablement apparaître de nouveaux d’appareils haptiques permettant aux utilisateurs de «toucher» les objets virtuels, et des équipements innovants, par exemple des tapis roulants omnidirectionnels pouvant simuler la course à pied, l’escalade ou d’autres activités physiques.

Pour que le métavers se développe, il faudra améliorer les systèmes informatiques et les technologies existantes, avertissent les responsables techniques. Cela passera notamment par l’augmentation de la puissance de calcul et de la qualité des graphismes ainsi que par la création d’un environnement universel permettant aux utilisateurs de passer sans entrave d’une partie du métavers à une autre. Il sera également indispensable, selon eux, de disposer d’outils de programmation suffisamment simples pour permettre à quiconque — et non aux seuls développeurs chevronnés — de créer ses propres expériences et mondes virtuels.

Il faudra également répondre aux préoccupations en matière de respect de la vie privée et de sécurité. Sans oublier les pièges potentiels du métavers, notamment la menace que les gens trouvent ce monde virtuel si captivant qu’ils négligent leurs besoins dans le monde réel.

«Il y a un risque que certains préfèrent le métavers au monde réel», prévient Rachel Kowert, une psychologue de l’Ontario (Canada) qui a étudié la santé mentale chez les fans de jeux vidéo. Elle ajoute que ceux qui courent les plus grands dangers sont les enfants. «C’est par le biais de leurs pairs et des interactions sociales qu’ils apprennent à se comporter et à s’intégrer dans le monde, précise Mme Kowert. C’est un élément essentiel dans notre apprentissage de la vie.»

Mais qu’il soit bénéfique ou néfaste — ou les deux à la fois —, le métavers va probablement devenir une réalité incontournable.

Des voyages scolaires n’importe où, à n’importe quelle époque

Les dirigeants des entreprises technologiques qui participent à la création du métavers affirment que sa taille sera considérable et qu’il comprendra des répliques de lieux du monde réel — passé, présent et futur — toutes restituées en 3D de manière réaliste. Il sera capable de prendre en charge un nombre infini d’utilisateurs simultanément, sans les lags qui agacent souvent les joueurs de jeux vidéo multijoueurs.

Par exemple, n’importe quel nombre d’élèves, où qu’ils habitent sur la planète, pourront se retrouver, dans le cadre d’un voyage scolaire, dans la Rome antique, explique Richard Kerris, cadre de Nvidia, qui participe à la supervision d’un projet d’infrastructure de métavers appelé Omniverse. Ce dernier permettra aux développeurs du monde entier de collaborer en temps réel pour concevoir des logiciels de création de contenus pour le métavers. Dans cet univers, les étudiants pourront explorer tous les recoins du Colisée où un gladiateur virtuel utilisant l’intelligence artificielle sera capable de répondre à leurs questions.

Nous pourrons mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien

Selon les gourous de la tech, dans le métavers, les gens se verront et interagiront entre eux par le biais d’avatars. Mais grâce aux progrès attendus en matière de graphisme, ils seront beaucoup plus réalistes que les versions cartoonesques aujourd’hui familières des amateurs de réalité virtuelle, selon Daren Tsui, directeur général de Together Labs, un développeur spécialisé dans la social tech de Palo Alto, en Californie. Les avatars pourront également représenter des personnes décédées, notamment des membres de la famille et des amis, ainsi que des personnages historiques, et les ramener à la vie grâce à l’intelligence artificielle.

«L’expérience avec un avatar sera si proche du réel que vous pourrez difficilement faire la différence entre une réunion virtuelle et une en présentiel, affirme M. Tsui. Et la première sera meilleure.»

Les avatars ne seront toutefois pas la seule façon dont les gens apparaîtront dans le métavers. Les dirigeants de la tech affirment que nous pourrons regarder des vidéos «réelles», notamment des retransmissions en direct de concerts et de rencontres sportives. Mais plutôt que d’être obligés de regarder ces événements avec les angles limités que nous proposent les producteurs, nous aurons la liberté d’en profiter avec la perspective de notre choix. D’un simple mouvement du doigt, nous pourrons obtenir des informations sur les artistes et les athlètes que nous regardons, comme leur position dans le classement Billboard (NDLR : top 100 hebdomadaire des chansons aux Etats-Unis) ou le nombre de points inscrits en une saison.

Nous pourrons également mélanger contenu virtuel et vidéos du monde réel ou interagir dans le métavers, par exemple en lançant des tomates sur des joueurs de football — rassurez-vous, les joueurs ne sentiront rien.

Compagnons virtuels, mariages et tourisme

Selon John Egan, directeur général de L’Atelier BNP Paribas, une société de prospective et d’innovation basée à Paris, le métavers sera aussi un lieu de commerce. Il prédit notamment que les utilisateurs achèteront et vendront des animaux de compagnie virtuels, qu’il s’agisse de chiens et de chats plus vrais que nature ou de dragons ou autres créatures fantastiques. Il prévoit également l’émergence d’un marché pour les services connexes, comme la promenade et le toilettage des animaux, car les compagnons virtuels pourront être programmés pour avoir besoin des mêmes types de soins que les homologues réels.

Les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques

Parmi les autres débouchés commerciaux potentiels, on peut citer les mariages et fêtes virtuels, pour lesquels des prestataires pourront créer des lieux et facturer des frais de location ou d’entrée, selon M. Egan. De même, des guides touristiques privés auront la possibilité de guider leurs clients vers des destinations de voyage virtuelles. «Le potentiel est infini», résume-t-il.

Les entrepreneurs du metavers n’accepteront pas d’argent liquide, affirment les spécialistes de la prospective. Les transactions pourraient donc se faire via des cartes de crédit et des services de paiement en ligne comme PayPal. Mais il est probable, selon M. Egan, que les cryptomonnaies et la technologie blockchain joueront un rôle majeur. Ainsi, par exemple, les animaux de compagnie virtuels pourraient posséder un «ADN virtuel» authentifié, un peu comme les jetons non fongibles, ou NFT, qui certifient la propriété des œuvres d’art numériques. En conséquence, ajoute-t-il, les animaux virtuels pourront être «élevés» pour être rapides, ce qui permettra d’organiser des courses et des paris virtuels.

Une « stratégie métavers » pour les entreprises

Selon M. Whitten de chez Unity, les entreprises du monde réel pourront également participer au métavers en proposant des déclinaisons virtuelles de leurs établissements physiques. Dans les boutiques en ligne existantes, les clients peuvent lire les descriptions des produits et faire des achats. Dans le métavers, ils pourront visiter des points de vente virtuels et essayer les produits en 3D à la taille réelle avant de les acheter. Une personne grande pourra ainsi vérifier si elle peut se tenir confortablement à l’intérieur d’une tente de camping avant de la commander et de la faire expédier à son domicile réel.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers»

De même, les agents immobiliers pourront utiliser le métavers pour permettre aux personnes à la recherche d’un nouveau logement d’en visiter virtuellement partout dans le monde sans quitter leur domicile, selon M. Kerris de Nvidia. Ils pourront se promener dans les lieux, pièce après pièce, et même scanner leurs meubles actuels et les téléporter dans un autre logement pour se rendre compte de ce que ça donnerait.

«Chaque entreprise du classement Fortune 1 000 aura une stratégie métavers», assure M. Whitten.

Les employeurs profiteront également des environnements 3D partagés du métavers pour permettre à des collaborateurs éloignés de travailler ensemble dans des conditions inatteignables avec la technologie vidéo actuelle, selon les experts en prospective. Par exemple, des architectes et des cadres d’une entreprise de construction — où qu’ils se trouvent dans la vie réelle — pourront se rendre virtuellement sur un chantier afin de surveiller la construction d’un nouveau bâtiment, qui, avec son environnement, sera rendu de manière très réaliste en 3D.

«Le métavers permettra un formidable saut qualitatif pour le télétravail, poursuit M. Whitten. Vous serez en mesure de concevoir et de construire plus rapidement, avec plus de sécurité et pour moins cher qu’aujourd’hui.»

(Traduit à partir de la version originale en anglais par Grégoire Arnould)

La fragilité du numérique face au climat

La fragilité du numérique face au climat

 

Un article du Wall Street Journal souligne la fragilité de la monnaie numérique face aux inondations. En fait, une fragilité plus globale du monde numérique aux aléas climatiques qui peuvent notamment priver d’électricité.

A Zhengzhou, les fortes pluies de juillet ont fait sortir les rivières de leur lit, provoquant de vastes pannes de courant qui ont désactivé le service de téléphonie mobile. Les Chinois urbains utilisant généralement des applications de paiement comme WeChat de Tencent et Alipay d’Ant Group en lieu et place de pièces et de billets, cette brusque coupure d’électricité a eu pour conséquence de laisser sans argent une bonne partie des 12 millions d’habitants de la ville qui n’avaient déjà plus de moyen de joindre les services d’urgences ou leurs proches.

Sur la scène internationale, la Chine est le précurseur dans le domaine de la création d’une version numérique de sa monnaie. Quatre jours avant les inondations de Zhengzhou, sa banque centrale avait publié la stratégie officielle de son déploiement et annoncé que les premiers essais avaient à ce jour été couronnés de succès. Puis, les coupures de courant de Zhengzhou ont paralysé l’infrastructure de paiement qui forme la colonne vertébrale du projet.

Sans argent à leur disposition, certains habitants de Zhengzhou ont opté pour le troc, notamment un homme qui a payé ses légumes avec des cigarettes, exemple parmi des milliers partagés sur les réseaux sociaux chinois illustrant ce qui se passe lorsque l’argent numérique se fait la malle.

Zhao Jun, employée d’exploitation laitière de 25 ans, raconte avoir été coincée loin de son appartement de Zhengzhou par les crues et avoir voulu se réfugier à l’hôtel pour la nuit — avant de se rendre compte qu’elle n’avait aucun moyen de payer sa chambre sans Alipay ou WeChat, et qu’elle était coupée du monde. « J’étais très angoissée », se souvient-elle.

Ce black-out financier a été une illustration relativement brève mais intense d’un risque auxquels les pays qui adoptent les monnaies numériques dépendant des téléphones portables peuvent s’exposer. Il convient désormais d’ajouter la fiabilité de la téléphonie mobile au piratage des portefeuilles numériques et des échanges en ligne à la liste des vulnérabilités auxquelles les gouvernements auront affaire en s’introduisant dans cette sphère instable qui était jusqu’à présent l’apanage du bitcoin et des cryptomonnaies.

Le type de choc subi pendant les inondations causerait des ravages dans n’importe quelle économie numérique moderne. A Zhengzhou, les plans de ville en ligne ne fonctionnaient plus et les voitures électriques se sont retrouvées à sec. Une version électronique du yuan ne fera qu’accentuer la dépendance technologique de la Chine. Cette société où l’argent liquide est de moins en moins utilisé connaît déjà des problèmes, comme la difficulté pour certaines personnes âgées de prendre un taxi faute de disposer des bonnes applications.

L’épisode des crues contredit certains engagements spécifiques pris par Pékin dans sa publication stratégique de juillet, dans laquelle il assure que son système de monnaie numérique aura les moyens de se protéger en cas de catastrophe naturelle.

« Le plus petit dénominateur commun qui affecte tout le monde, c’est le réseau électrique », explique Luke Deryckx, directeur technique chez Ookla, à Seattle.

En étudiant les pannes d’Internet advenues à la suite de catastrophes naturelles, poursuit M. Deryckx, son entreprise a vu des centrales électriques et des opérateurs mobiles restaurer rapidement leurs opérations au niveau central, pour voir disparaître leurs clients des réseaux à mesure que leurs batteries de téléphones portables s’épuisaient faute d’endroits où les recharger.

La banque centrale chinoise affirme que l’e-CNY—le nom officiel du yuan numérique—a été testé dans plus de 70 millions de transactions dans le monde réel depuis début 2020, sans que des difficultés majeures aient été signalées.

La Banque populaire de Chine n’a pas répondu aux questions sur l’éventuel impact de la catastrophe de Zhengzhou sur ses projets de monnaie numérique ; Alipay, WeChat et l’opérateur mobile China Mobile non plus. Si les hauts responsables chinois ont qualifié les inondations de juillet de catastrophe qui ne se produit qu’une fois par siècle, d’aucuns voient en elles un premier signe des effets du réchauffement climatique.

De nombreux pays, dont les Etats-Unis, observent ce que fait Pékin afin de se faire une idée sur la pertinence de numériser à leur tour leur monnaie.

La Chine se montre généralement prudente face aux innovations financières, et le pays ne s’est pour l’instant pas engagé dans un programme formel de déploiement de sa monnaie électronique. Rien n’indique que les problèmes de Zhengzhou aient modifié le planning, mais selon les analystes, Pékin pourrait être moins pressé de lancer ce programme que ne le suggèrent ses très nombreux tests.

« La barre est extrêmement haute. Vous n’avez aucune marge d’erreur avec ce genre de système », reconnaît Martin Chorzempa, chercheur au Peterson Institute for International Economics de Washington. « Il y a vraiment énormément d’inconnues ici, et c’est pourquoi je pense qu’ils veulent rester prudents et ne pas se précipiter. »

Mu Changchun, responsable de la Banque centrale chinoise en charge du projet d’e-CNY, a annoncé lors d’une conférence en ligne tenue en mars dernier que la monnaie numérique était en partie conçue pour servir de backup aux systèmes WeChat et Alipay, qui à eux deux représentent 90 % des transactions sur mobiles en Chine.

« S’il leur arrive quelque chose, que ce soit financièrement ou techniquement, cela aura forcément des impacts négatifs sur la stabilité financière de la Chine », a reconnu M. Mu lors de la conférence de la Banque des règlements internationaux (BRI) en mars dernier.

Comment le système de monnaie numérique aurait-il pu mieux fonctionner pendant les inondations, cela reste à éclaircir. La Banque populaire de Chine a exposé clairement que l’e-NCY aurait besoin d’applications pour être utilisé, dont une qui lui serait propre en plus de WeChat et d’Alipay. Pendant les inondations, les régulateurs financiers de la province du Henan ont diffusé des notifications d’urgence commandant aux banques de répondre rapidement aux clients dans l’incapacité de payer avec leurs téléphones portables — en particulier en mettant de l’argent liquide à leur disposition. Le yuan numérique semble conçu pour remplacer un jour l’argent physique, bien que la banque centrale chinoise déclare dans son rapport de juillet que pièces et billets resteront en circulation tant que les gens voudront les utiliser.

La Chine affirme que la monnaie numérique a été testée dans une grande variété de situations et que certaines solutions ont été pensées pour les utilisateurs privés de connexion internet. Mais les fonctionnalités hors-ligne semblent avoir été conçues pour un sous-groupe d’utilisateurs relativement réduit, comme les personnes les plus âgées et moins à l’aise avec les nouvelles technologies, et non pour des millions de citoyens déconnectés à la suite d’une catastrophe naturelle.

 

Cloud souverain : Ne pas se lier les mains avec les grands de la tech américaine

Cloud souverain : Ne pas se lier les mains avec les grands de la tech américaine

Les petits poucets français du logiciel d’entreprise Atolia, Jalios, Jamespot, Netframe, Talkspirit, Twake, Whaller et Wimi, se regroupent dans un collectif pour affirmer qu’il est possible, notamment pour les administrations, de créer un « cloud de confiance » tout en se passant d’acteurs américains, et notamment de la suite bureautique toute-puissante de Microsoft. L’objectif : casser la perception – largement entretenue par le lobbying des Gafam, mais aussi, indirectement, par le gouvernement – que l’écosystème français du cloud n’est pas à la hauteur des enjeux de numérisation de l’économie. ( dans la Tribune)

Décidément, la pilule du « cloud du confiance » -la stratégie nationale qui ouvre grand la porte aux Gafam américains pour équiper les entreprises stratégiques et administrations françaises en solutions cloud- ne passe pas. Huit acteurs tricolores du logiciel -Atolia, Jalios, Jamespot, Netframe, Talkspirit, Twake, Whaller et Wimi- ont annoncé le 18 octobre la création d’un collectif qui les regroupe en une sorte d’équipe de France des solutions cloud souveraines. Concurrentes mais solidaires face à Microsoft, leader du marché des solutions bureautiques, ces huit pépites du SaaS (software as a service, Ndlr) proposent des alternatives françaises dans les domaines de la messagerie, du traitement de texte, du tchat, de la visioconférence ou encore du stockage de documents. « Nous sommes en mesure de proposer dès aujourd’hui une alternative crédible à la suite logicielle Microsoft 365, anciennement Office 365 », revendiquent-elles dans un communiqué commun. De quoi contredire Emmanuel Macron, qui estimait lors de la présentation du plan France 2030, la semaine dernière, qu’il « est faux de se dire que nous aurons un cloud totalement souverain dans cinq ans, parce qu’on a pris beaucoup de retard« .

1...56789...34



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol