Archive pour la Catégorie 'nouvelles technologies'

Page 32 sur 58

Premiers MacBook avec des processeurs Apple

Premiers MacBook avec des processeurs Apple

C’est la fin de la collaboration entre Apple et Intel en matière de processeurs. Apple va désormais installer ses propres processeurs sur les ordinateurs comme sur les téléphones, ce qui va favoriser le développement de synergies en matière de services offerts. Un nouveau MacBook Air ainsi que d’autres produits utilisant le premier processeur développé par la compagnie, une initiative qui va rapprocher technologiquement les ordinateurs et les téléphones développés par l’entreprise.

La nouvelle puce, appelée M1, marque la fin de la collaboration entre Apple et Intel, qui développait les processeurs utilisés dans les ordinateurs de la marque à la pomme depuis près de 15 ans.

Apple espère que les développeurs vont désormais créer des applications fonctionnant à la fois sur ses ordinateurs et ses téléphones.

Patrick Moorhead, fondateur de Moor Insights & Strategy, a estimé qu’Apple économiserait entre 150 et 200 dollars par puce en utilisant ses propres processeurs centraux.

5G : le 18 novembre

5G :  le 18 novembre

La 5G devrait être accessible à partir du 18 novembre. Les opérateurs commencent la promotion de leurs abonnements. L’intérêt est surtout la puissance offerte 10 fois supérieure à celle de la 4G. la  couverture sera surtout privilégiée dans les zones denses tandis que dans les zones moins peuplées on pourra encore se contenter de la 3G ou de la 4G par moment ! Les consommateurs auront accès à des cartes de couverture mises en place par l’Autorité des télécoms (Arcep), pour savoir s’ils sont dans une zone couverte par la 5G.

 

Moteurs de recherche : « Google en position hégémonique » (Sophie Bodin, Lilo)

 Moteurs de recherche : « Google en position hégémonique » (Sophie Bodin, Lilo)

 

Sophie Bodin, la présidente du moteur de recherche français Lilo dénonce la position hégémonique de Google dans la Tribune. 

 

 

Comment exister face à Google dans le monde impitoyable des moteurs de recherche ? Alors que le géant américain cannibalise 93% de la recherche en ligne en France, et même 97% sur mobile, cinq de ses concurrents -l’américain DuckDuckGo, les français Lilo et Qwant, le tchèque Seznam et l’allemand Ecosia- passent à l’attaque auprès de la Commission européenne. Dans une lettre envoyée la semaine dernière à Margrethe Vestager, la commissaire à la Concurrence, les cinq moteurs de recherche alternatifs réclament une réunion tripartite avec Google « en novembre ».

Au menu de cette rencontre : la concurrence sur mobile entre les moteurs de recherche. L’alliance des cinq petits poucets du web estime qu’elle est biaisée, et que le remède actuel pour y remédier est inefficace. En plus de son moteur de recherche, Google possède également Android, le système d’exploitation mobile qui équipe 80% des smartphones dans le monde et en France. Jusqu’à récemment, Google était installé par défaut sur tous les appareils Android en Europe… ce qui lui a valu, en 2018, une amende record de 4,34 milliards d’euros de la part de la Commission européenne, pour abus de position dominante.

Nouvelles technologies-Quelle régulation de l’intelligence artificielle

Nouvelles technologies-Quelle  régulation de l’intelligence artificielle

 

Florian Ingen-Housz, partner au sein d’Altermind, et Victor Storchan, ingénieur en IA dans l’industrie financière, explique l’enjeu de la régulation de l’intelligence artificielle (IA) dans la Tribune

 

 

En février dernier, la Commission européenne a publié son livre blanc sur la régulation des applications de l’Intelligence Artificielle (IA). Plutôt que de légiférer unilatéralement sur ce sujet, la Commission a choisi, de manière novatrice, une approche consultative et participative en incitant l’ensemble des parties prenantes à cet écosystème à participer à la discussion. Cette approche doit être encouragée, approfondie et accélérée pour ajuster l’état du droit à un état de l’art technologique qui ne cesse de faire surgir des débats juridiques et normatifs inédits. Cette approche est aussi le seul moyen de faire émerger, dans la décennie qui vient, une véritable vision européenne de la Tech, tout à la fois pro-business et respectueuse des libertés individuelles.

Un défi majeur pour les régulateurs

L’IA constitue en effet un défi majeur pour les régulateurs. La vitesse prodigieuse des avancées technologiques doit inviter ces derniers à co-construire la norme avec un écosystème plus large qu’ils n’en ont l’habitude, plutôt que d’imposer celle-ci « par le haut ». Tout comme l’ont montré les débats sur la bioéthique depuis les années 1970, la régulation technologique est avant tout un choix de société et par conséquent un effort continu. La question se pose néanmoins avec une acuité particulière pour le déploiement de l’IA, compte tenu de l’ambiguïté de ses définitions, de sa nature stochastique et de l’opacité des multiples modèles sur lesquels elle est bâtie. Cette opacité est aggravée par l’hypercroissance de l’écosystème (50% de plus de papiers soumis à NeurIPS – une des conférences majeures de la discipline - en 2019 par rapport à l’année précédente), qui rend immédiatement obsolètes des savoirs difficilement acquis par des régulateurs parfois mal-équipés sur le plan technique. Si la régulation est évidemment primordiale pour permettre l’adoption, créer du consensus et de la confiance envers cette technologie, son élaboration devra donc être suffisamment (i) spécifique dans son champ d’application pour être « implémentable », (ii) inclusive et ouverte dans sa démarche et (iii) sélective dans ses priorités et son séquencement.

Il faudra donc, dans un premier temps, d’abord s’assurer de la juste définition de l’objet ciblé. Ce besoin de spécificité dans un domaine aux frontières floues soulève un premier défi : celui de la sémantique. Le concept d’IA est imprécis, même pour les experts. Contrairement aux précédentes vagues de disruption technologique, que ce soit la machine à vapeur, l’électricité, la chimie ou même les premiers programmes informatiques, les contours de l’IA sont moins tangibles. Ainsi, en 2013, l’Etat du Nevada a dû ainsi revoir sa définition de l’IA pour les véhicules autonomes car celle-ci englobait aussi certains modèles de voitures sophistiquées avec des fonctionnalités de contrôle avancées. La définition de ce qu’est un robot pour l’Union européenne n’est pas non plus satisfaisante. Contrairement à ce que semble indiquer cette dernière, les robots n’acquièrent en effet pas de capacité d’autonomie uniquement grâce aux données et aux capteurs dont ils disposeraient. Comme le montrent les travaux de Bryan Casey et Mark A. Lemley (Stanford Law School) lorsque cela est possible, une manière de contourner le problème sémantique est de s’assurer que la régulation cerne en priorité les comportements des individus et non pas les techniques, les types d’algorithmes ou les robots.

 

Faire coopérer des acteurs très divers

L’efficacité de la régulation pour l’IA se mesurera aussi à sa capacité à faire coopérer des acteurs très divers. Les usages de cette technologie doivent être appréhendés non pas in-vitro mais au sein d’écosystèmes technico-sociaux complexes où elle est déployée. Ainsi cette coopération doit à la fois s’effectuer horizontalement et verticalement. Horizontalement d’abord, par la co-construction entre juristes, techniciens, et chercheurs, mais également sociologues et citoyens qui via les décideurs publics seront les utilisateurs de ces systèmes d’IA. Ces derniers doivent être dotés d’outils pour améliorer leur capacité à contester la décision d’un modèle afin de créer de la confiance. Le dialogue doit aussi être plurilatéral, non seulement par une coordination entre pays et puissances régionales, mais aussi en incluant les ONG, la société et l’industrie.

 

Cette coopération est aussi verticale. Pour être opérant, le processus délibératif d’une gouvernance globale doit pouvoir être traduit en termes techniques par les ingénieurs et les chercheurs qui conçoivent les modèles. Cependant, pour être parfaitement efficace et agile, cette approche différenciée devra pouvoir s’incarner par une gouvernance dans les entreprises capable de guider les équipes techniques. Ces dernières sont confrontées à plusieurs dilemmes du fait des contraintes techniques, mathématiques ou algorithmiques et ont besoin d’indications précises qui tranchent des compromis entre certaines notions d’éthiques comme l’équité ou le respect de la vie privée. Il est donc nécessaire de faire un choix qui relève presque de philosophie politique. Ces choix sont sociétaux et culturels.

Enfin, lorsqu’une directive réglementaire présente une ambiguïté intrinsèque (dans le but par exemple d’anticiper des développements de technologie future ou pour pouvoir être appliquée à un spectre large d’acteurs), il est précieux que l’écosystème puisse collectivement expliciter les points d’incertitude qui sont sujets à l’interprétation. Cet effort de clarification permettrait d’aligner les efforts de gestion du risque dans les modèles d’IA sur des standards communs. Ces concertations des parties prenantes ont vocation à constituer une « soft law » pour préciser ou compléter au plus près du terrain des principes plus généraux fixant l’esprit et l’intention.

Se concentrer sur un nombre réduit de secteurs

 

Enfin, la régulation pour être efficace doit en priorité se concentrer sur un nombre réduit de secteurs et d’applications sur lesquels une attention immédiate est requise. A titre d’exemple, l’UE propose de calibrer le niveau de régulation selon le niveau de risque que représente une application de l’IA ou un secteur industriel applicatif. La commission propose ainsi une liste de plusieurs secteurs à haut risque comme les transports, la santé ou l’énergie dans lesquels certains déploiements technologiques sensibles devront respecter un ensemble de règles plus exigeant. Cette approche semble raisonnable. Le risque consubstantiel à l’innovation et un principe de précaution aveugle à la diversité des cas d’usages aboutirait à une société du statu quo vidée de sa force entrepreneuriale et créatrice. Les applications dans le secteur public (justice et éducation notamment), la santé font certainement partis des chantiers prioritaires. Les exemples récents de systèmes mal déployés sont légions : les entreprises technologiques comme IBM ou Microsoft ont stoppé leurs services de reconnaissance faciale après que des failles éthiques à répétition aient été identifiées. L’algorithme néerlandais de prédiction de fraude pour les demandeurs de sécurité sociale a été suspendu par une juridiction du pays pour violation des droits de l’homme et de la régulation RGPD sur les données.

Ainsi, les rapports entre les régulateurs et les innovateurs en IA ne peuvent être résumés à un conflit entre le glaive et le bouclier. La multidisciplinarité de cette technologie, ses évolutions rapides et disruptives doivent être accompagnées pour qu’elle serve le plus grand nombre dans la transparence et responsabilité des acteurs.

Le plan de relance « justifié  » (Jean Pisani-Ferry )

Le plan de relance « justifié  » (Jean Pisani-Ferry )

L’économiste Jean Pisani-Ferry estime que le plan de relance se justifie, pour le moyen terme, afin de remédier à la vulnérabilité de l’industrie française. Elle a augmenté avec la crise alors que l’Allemagne s’en sort mieux et que l’Asie de l’Est est épargnée (interview dans l’Opinion

L’économiste Jean Pisani-Ferry.

 

Comment redonner confiance — le carburant de l’économie — quand la situation sanitaire inspire autant de craintes ?

Il n’y a pas de recette miracle. Avec ce choc, on peut craindre une érosion générale de la confiance. A l’égard de l’exécutif, elle a été entamée par les ratés sur les masques, les tests, l’application StopCovid. Pour répondre à cette défiance, il faut être aussi transparent que possible sur la situation, les choix possibles, leurs conséquences. Il faut dire ce que l’on sait, pas plus. Mercredi soir d’ailleurs, le président de la République n’était pas dans l’emphase, ni dans les grands projets, il a parlé de manière concrète, précise, il a reconnu l’incertitude dans la durée. Mais on doit faire plus, par exemple améliorer l’information. Les bulletins de Santé publique France délivrent des données brutes de manière brouillonne, alors qu’il faudrait les pondérer et les nettoyer pour en tirer des indicateurs pertinents.

Le plan de relance est-il toujours pertinent ?

La priorité doit aujourd’hui aller au soutien des entreprises et des ménages les plus fragiles. Il faut refaire, en l’adaptant, ce que l’on a fait ce printemps. Notre économie a montré une bonne résilience, avec la reprise de l’été. Maintenant, il est nécessaire de cibler les politiques sur les victimes de ce nouveau choc : d’abord la minorité des ménages qui n’a plus ni revenu, ni épargne, et se trouve en détresse. Les indépendants, les CDD, les intérimaires sont dans une situation très tendue. Et il faut ensuite soutenir les entreprises les plus fragilisées par cette seconde lame, en prenant en charge de manière ciblée leurs coûts fixes, comme les loyers ou les achats. Les Allemands l’avaient fait dès ce printemps. Ces problèmes sont encore d’étendue limitée : en général, les entreprises ont toujours du cash, grâce aux prêts garantis par l’Etat. Plus tard cependant, elles pourront se trouver en situation d’insolvabilité et il faudra restructurer leurs dettes et réinjecter des fonds propres. Il faut préparer les outils.

« En avril, l’activité a chuté de 30 %. Cette fois, la récession sera nettement moins forte »

Le volet compétitivité du plan de relance, avec notamment la baisse des impôts de production, est-il pertinent ?

Le gouvernement a présenté son plan et celui de l’Europe comme d’inspiration keynésienne et d’application immédiate. En réalité, ils ont été conçus comme des actions de moyen terme. Au mieux, 10 % du plan européen arrivera en 2021. Mais l’un et l’autre se justifient face au risque d’affaissement de l’économie française. L’Asie de l’Est est complètement épargnée par la crise. Elle progresse en termes d’innovations et de productivité. En Europe, l’Allemagne s’en tire mieux que la France ou les pays du Sud. La vulnérabilité de l’industrie française s’est accrue : le volet compétitivité reste pertinent pour demain.

Et le « quoi qu’il en coûte » ?

D’abord, ce nouveau confinement entend limiter les dégâts économiques en laissant les écoles ouvertes, même si ce n’est pas la seule motivation au maintien de leur fonctionnement. Désormais, on sait mieux préserver la santé au travail, les protocoles sanitaires sont au point, on organise mieux le télétravail. En avril, l’activité a chuté de 30 %. Cette fois, la récession sera nettement moins forte. Le « quoi qu’il en coûte » reviendra moins cher, car moins de salariés seront en chômage partiel. Mais il ne faut pas se cacher qu’il y aura un sujet de finances publiques. On pensait ajouter 20 points de PIB à la dette publique. Ce sera davantage. La bonne nouvelle est que les outils européens sont en place, tant du côté de la Banque centrale européenne que du plan budgétaire, qui doit toutefois être voté. Il faut donc continuer le soutien à l’économie aussi longtemps que nécessaire.

Sommes-nous condamnés au triptyque confinement, déconfinement, reconfinement ?

Ce que nous vivons actuellement ne devrait pas durer au-delà de l’été 2021. Nous faisons des progrès dans le traitement, la mortalité a baissé, sauf aux âges très élevés. Les tests antigéniques vont se mettre en place, des vaccins vont finir par arriver. Cependant la récurrence d’événements extrêmes est plus forte qu’on ne le croyait. Avec la crise financière de 2008, c’est la seconde fois, en peu de temps, que se produisent des phénomènes habituellement séculaires. A cela pourraient s’ajouter des sujets climatiques ou d’autres sujets sanitaires.

Comment mieux prendre en compte ces événements récurrents ?

Il faut une appréhension du risque différente, et donc une politique plus réactive que ce qu’on a fait depuis des décennies. Aujourd’hui, il faut maintenir le quoi qu’il en coûte, continuer de suspendre le Pacte de stabilité tant que l’activité n’est pas revenue à son niveau de 2019. C’est ce que j’appelle une stratégie contingente. Les élections allemandes, en septembre 2021, présentent un risque : les partis veulent que le budget de 2022 soit établi sur la base de l’habituelle règle allemande, un déficit structurel de 0,35 % du PIB. Je ne pense pas que cette idée soit maintenue, vu le nouveau contexte, mais il faut rester vigilant. A l’inverse, il faudra demain savoir réduire fortement le montant de la dette pour s’armer en prévision de la prochaine crise. Ce dont nous n’avons pas l’habitude en France. Ce choc, il faudra bien le payer. Comment le faire, hausse des impôts ou baisse des dépenses, ce n’est pas le sujet d’aujourd’hui, mais ce sera l’un des enjeux de la présidentielle de 2022.

« Les phénomènes de fragilité sociale, psychologique m’inquiètent le plus. La désocialisation, la solitude absolue sont renforcés et vont faire des victimes »

Quels sont les changements majeurs induits dans notre société ?

Les phénomènes de fragilité sociale, psychologique m’inquiètent le plus. La désocialisation, la solitude absolue sont renforcés et vont faire des victimes. Il faut être très attentif à cela. Quant aux mutations économiques, il y a deux écoles : ceux qui tablent sur des changements durables et en profondeur, et ceux qui pensent que la crise est une parenthèse et que l’envie de se comporter comme avant reviendra vite. Il y a forcément un peu des deux.

Les prévisions économiques ont-elles toujours un sens ?

Pas les prévisions habituelles. Mais notre service public de la statistique, l’Insee et la Dares, a réinventé l’analyse en temps réel. Dès mars, l’Insee a chiffré la chute d’activité quand beaucoup de ses homologues européens ne le faisaient pas. Ils ont pris le risque de regarder les choses autrement, par exemple à travers la consommation d’électricité, les données bancaires, celles de Google. Il y a aussi une évolution de l’analyse : on raisonne différemment sur l’offre et la demande, sur l’interaction entre l’économique et le sanitaire. En économie, cette crise est l’occasion de grands progrès conceptuels et méthodologiques.

 

La scandaleuse exploitation des données

La scandaleuse exploitation des données

Professeure émérite à la Harvard Business School, l’Américaine a théorisé le concept et les dérives du «capitalisme de surveillance», pratiqué par Google, Facebook et depuis peu Amazon, dans un ouvrage qui paraît ce jeudi en France.

. - L’Âge du capitalisme de surveillance est sorti aux États-Unis en janvier 2019. Pensez-vous que votre message d’alerte a été entendu?

Shoshana ZUBOFF. - Lorsque mon ouvrage est sorti aux États-Unis, mon éditeur avait prévu une tournée promotionnelle de trois semaines. Au final, j’ai voyagé quatorze mois. L’intérêt pour le livre n’a pas baissé avec le temps, bien au contraire. Fin 2019, je remplissais des salles de mille personnes, plusieurs fois par semaine. À chaque rencontre, je demandais au public de noter en un mot pourquoi ils étaient venus. Les réponses ont toujours été les mêmes: anxiété, confusion, colère, méfiance, résistance, prise de conscience, peur, liberté, démocratie. Ce sont des mots de mobilisation d’une avant-garde de citoyens. Certains pensaient que le mouvement critique envers la tech s’éteindrait avec la pandémie, au vu des services que Facebook, Zoom, Amazon ou Google nous ont apportés. Je pense tout le contraire. Le confinement a mis crûment en lumière

Une urgence : développer des GAFA européens

Trois spécialistes du numérique plaident pour une stricte mise sous contrôle de ces plateformes et pour le développement de concurrents européens.

Jean-Marie Cavada est Président de l’institute for Digital Fundamental Rights.

Léonidas Kalogeropoulos est Délégué Général de l’Open Internet Project (OIP).

Benjamin Jayet est Président de GibMedia et membre de l’OIP, association européenne créée en 2014 pour combattre les abus de position dominante sur le marché numérique européen.


Depuis le début de la crise sanitaire, les pouvoirs publics ont perçu l’ampleur de notre vulnérabilité au regard des enjeux de souveraineté numérique. Confronté à la nécessité d’utiliser des plateformes collaboratives numériques pour les échanges confidentiels, le gouvernement a pris conscience des risques liés à l’utilisation des outils les plus populaires appartenant aux GAFA, dont les services sont pour la plupart hébergés aux États-Unis. Des solutions alternatives souveraines ont ainsi été choisies en urgence, et la prudence a conduit le gouvernement à décliner l’offre de Google et Apple pour le choix de l’application «StopCovid», préférant développer une solution souveraine.

Ce sursaut de patriotisme économique, rapide et salutaire, témoigne de la prise de conscience de notre dépendance technologique en utilisant des services développés par les GAFA, qui nous tracent et stockent nos données dans des serveurs soumis au Patriot Act. Cette dépendance ouvre surtout la voie à des abus de position dominante fragilisant des pans entiers de notre économie. Devenues des plateformes structurantes pour de très nombreux marchés, les GAFA sont en mesure de contourner les règles qui permettent d’assurer une concurrence loyale non seulement en France, en Europe, et partout dans le monde, y compris outre-Atlantique, où la Justice américaine a annoncé l’ouverture d’un procès contre Google pour ses pratiques anticoncurrentielles dans la publicité.

Google a additionné 1,5 milliard d’euros d’amende pour pratique abusive en matière de publicité en ligne.

Pourtant, à l’évidence, les enquêtes et les sanctions des autorités concurrentielles nationales ou européennes sont devenues un simple paramètre dans le business model de ces géants du numérique. Le cas de Google est édifiant. Il additionne 2,3 milliards d’euros d’amende dans le dossier «Shopping» infligé par la Commission européenne, 4,3 milliards d’euros dans le dossier Android, ou encore 1,5 milliard d’euros pour pratiques abusives en matière de publicité en ligne. En France, il faut rajouter 50 millions d’euros d’amende prononcée par la CNIL pour manquement aux règles des cookies, 150 millions d’euros infligés par l’Autorité de la concurrence dans le dossier GibMedia et, tout récemment, la décision de prononcer des mesures conservatoires pour forcer Google à négocier avec les éditeurs et agences de presse la rémunération qui leur est due au titre du respect des droits voisins, parce que Google refusait d’appliquer la loi! Généralement renvoyées en appel, ces décisions ne permettent pas encore, dans de nombreux cas, de réparer les dommages subis par les entreprises victimes, et par l’économie en général. Par exemple, 10 ans après l’ouverture par la Commission du dossier «Shopping» sur les comparateurs de prix en ligne, le marché reste toujours soumis aux abus de position dominante de Google.

Cet acteur, «délinquant» au regard du droit économique de la concurrence, est un multirécidiviste. Ses turpitudes ne s’arrêtent jamais, comme le démontre l’initiative prise par Google de rendre son serveur publicitaire gratuit durant la crise du Covid-19, véritable opération de dumping à grande échelle qui va lui permettre d’étendre encore son emprise sur les médias. Qu’importe les poursuites… Google a intégré dans son modèle économique l’opportunité de s’exposer à des procédures judiciaires interminables et à des amendes vertigineuses, parce que leur l’impact est marginal au regard du chiffre d’affaires réalisé et des positions économiques avantageuses conquises par ces pratiques déloyales.

Face au géant Google, tous les autres acteurs sont démunis et redoutent de se voir refuser l’utilisation de ses services s’ils ne se plient pas à ses règles.

Par ses agissements, Google est devenue une menace pour la libre-concurrence et pour la capacité à faire émerger un écosystème numérique souverain. Des appels au démantèlement se multiplient outre-Atlantique, afin de transformer Google en une plate-forme d’utilité publique qui n’aurait pas le droit de détenir des participations dans les sociétés utilisant ses services. Alors que le géant américain a racheté plus de 200 start-ups et concurrents depuis 2010, le débat se porte également sur la création d’organismes anti-trust dédiés pour surveiller toutes ces fusions.

En France, nous ne saurions attendre les décisions venues d’outre-Atlantique pour protéger les acteurs de la French Tech qui souffrent de ces abus à répétition. Face à ce géant, tous les autres acteurs semblent démunis et redoutent de se voir refuser l’utilisation de ses services s’ils ne se plient pas à ses règles.

La crise sanitaire conduit à une prise de conscience: dans le monde numérique, nous sommes totalement dépendants ; nous serons vassalisés, colonisés, par des groupes ultra-puissants qui se dressent face aux États et qui prendront possession des données, des contenus, des innovations, de pans entiers de notre économie, si nous restons désunis, désarmés, et que nous ne structurons pas notre propre industrie numérique.

Les plate-forme opérant sur notre territoire ne doivent plus être autorisées à racheter nos entreprises.

Pour y parvenir, il est indispensable que ces plate-forme structurantes et géantes trouvent en face d’elles des autorités de régulation aux pouvoirs spécifiques et adaptés à ces défis.

Pour la France, sans attendre, il est urgent de mettre sur pied une autorité publique indépendante (API), dotée d’une personnalité juridique et administrative propre, capable d’ester directement en justice. Les plate-forme opérant sur notre territoire ne doivent plus être autorisées à racheter nos entreprises, à modifier unilatéralement leurs conditions générales d’utilisation, leurs algorithmes ou leurs pratiques commerciales sans accord et donc le contrôle préalable de cette agence de régulation numérique.

La France peut avoir un rôle précurseur avant qu’une telle agence indépendante se mette en place au plus vite à l’échelle européenne.

L’Union doit bâtir d’urgence sa «troisième voie européenne», dont le but est au moins triple: développer des industries numériques continentales, faire cesser la loi du plus fort au profit d’une saine concurrence, et protéger contenus et investissements au profit de l’Europe d’abord.

 » Espace numérique : une zone de non-droit »

 » Espace numérique : une zone de non-droit »

Le commissaire européen au marché intérieur expose les grandes lignes du projet de Bruxelles de régulation des contenus sur les réseaux sociaux.

Alors qu’après la tragédie de Conflans-Sainte-Honorine, le rôle des réseaux sociaux pose une nouvelle fois question, Thierry Breton explique, dans un entretien au Monde, comment l’Europe envisage de les réguler. Il aura l’occasion d’en parler avec Jean Castex, le premier ministre français, qui se rend à Bruxelles vendredi 23 octobre, pour évoquer la législation du numérique. Le commissaire européen au marché intérieur rappelle que les législations qui pourront être prises en la matière en France ou ailleurs devront s’inscrire dans le droit européen. Contenus illégaux, haineux, désinformation… l’ancien ministre de l’économie fait le tour des sujets, à moins de deux mois de la présentation par la Commission, le 2 décembre, de son Digital Services Act (DSA). Il évoque aussi le Digital Markets Act, qui sera présenté le même jour, et dont l’objectif est d’imposer de nouvelles obligations aux plates-formes les plus importantes.

Les conditions dans lesquelles Samuel Paty a été assassiné ont relancé le débat, en France, sur la manière dont il faut réprimer les contenus haineux sur les réseaux sociaux. Comment s’articulent ces réflexions avec celles que vous menez ici à la Commission européenne ?

Cette tragédie suscite une émotion immense qui déborde le cadre français. Je m’y associe pleinement. Elle incite une nouvelle fois à s’interroger sur le rôle joué par les réseaux sociaux. Il y a, ici ou là, sur le plan national, des pressions qui s’exercent pour les réguler. Mais cette question a vocation à être traitée au niveau européen et les Vingt-Sept devront l’inscrire dans la future législation européenne – le Digital Services Act –, en voie de finalisation.

Aujourd’hui, il n’existe pas de législation européenne à même de traiter ces sujets ?

Pas de texte global, non. On vit encore sous le régime de la directive e-commerce qui remonte à 2000. A l’époque, seuls existaient Microsoft et Apple. Google était encore dans un garage, Facebook, WhatsApp, Instagram, TikTok, Twitter n’étaient pas entrés dans nos vies. La directive avait pour objectif de réguler une économie numérique structurée autour d’hébergeurs, qui se contentaient d’abriter des prestataires et les services qu’ils offraient en ligne.

Le monde a changé depuis…

Oui, au point qu’il est devenu crucial de s’organiser pour réguler l’espace numérique, ce que j’appelle l’espace informationnel. De le doter de règles pour les vingt prochaines années. On a l’impression aujourd’hui que cet espace est une zone de non-droit. Et dans bien des cas, c’est vrai. Les lois s’appliquent à notre espace économique, social, territorial, elles doivent aussi s’appliquer à l’espace informationnel. Quand vous laissez vos enfants dans la rue, vous exigez qu’ils bénéficient d’un certain niveau de sécurité. Quand vous les laissez naviguer sur Internet, vous voulez de la même manière qu’ils soient protégés.

Technologies-Quel intérêt de la 5G ?

Technologies-Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

Nouvelles technologies- Quel intérêt de la 5G ?

Nouvelles technologies- Quel intérêt de la 5G ?

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

 

Cybersécurité: les données européennes confiées aux Américains

Cybersécurité: les données européennes confiées aux Américains

La souveraineté numérique est sérieusement mise en cause notamment depuis que le Conseil d’État a autorisé que les données sanitaires françaises puissent être confiées aux grands du numérique américain tout en exigeant des garanties de sécurité et de confidentialité. Reste que l’autorisation a été donnée.

On attend un débat et des dispositions européennes à propos de notre sécurité et de la souveraineté numérique.

Plus  de 70% des données européennes sont aujourd’hui stockées dans des clouds non-européens, rappelle OVHcloud. «Les politiques de souveraineté numérique se renforcent avec la crise du Covid-19Nous nous sommes encore plus rendu compte de notre dépendance à tous ces outils» observe Julien Nocetti, spécialiste des questions numériques et professeur à Saint-Cyr/Coëtquidan.

Or la nouvelle bataille qui se joue est celle des données industrielles des entreprises européennes. «Nous ne pouvons pas faire l’économie d’un traitement conjoint de notre sécurité et de notre souveraineté numérique. Nous devons rester maîtres de notre destin, insistait Guillaume Poupard, le directeur général de l’Anssi .

« Quel intérêt de la 5G»

Quel intérêt de la 5G»

Le consultant Hadrien Gautrot souligne dans le Monde  le principe de dépossession et de centralisation qui préside aux usages potentiels de cette technologie de télécommunication.

Tribune.

 

Depuis plusieurs mois, la 5G attise les passions : sur la santé, l’écologie, les données personnelles… Ce débat qui aurait pu être une querelle d’experts, de normes et de standards est devenu un sujet de société. Et c’est une bonne nouvelle. Car la 5G aura une influence sur nos vies. Elle rendra possibles, nous promet-on, la voiture autonome, la ville intelligente, l’industrie 4.0, et plus généralement l’Internet des objets : l’interconnexion de toute chose.

La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision

La 5G optimisera l’utilisation des ressources. La voiture autonome, par exemple, fluidifiera le trafic, réduira la mortalité et passera moins de temps au garage qu’une automobile traditionnelle. La connexion fait gagner du temps, de l’espace et de la matière. Pourtant, la connexion signifie aussi l’externalisation de la décision. Des mains du conducteur, celle-ci repose désormais sur un réseau d’objets – serveurs, véhicules, mobilier urbain, etc. La délocalisation de décisions humaines vers des supports externes est l’une des promesses de la 5G.


Le frigo qui commande des yaourts avant que vous ayez fini le dernier pot ou la brosse à dents qui réserve une visite chez le dentiste, c’est précisément le déplacement d’une volonté vers un dispositif. L’externalisation entraîne du confort mais elle donnera le pouvoir aux propriétaires des systèmes de décision. Ces décisionnaires prendront en charge des composantes de plus en plus importantes de l’existence, à l’image des plates-formes numériques dont les algorithmes nous affectent aujourd’hui en tant que lecteurs, consommateurs, électeurs, etc.

Un rapport exclusivement fonctionnel

Le premier symptôme de la dépossession, c’est la fin de la propriété individuelle. Le passage d’une économie de la possession à une économie de l’usage aura de nombreux effets collatéraux. D’abord le rapport aux objets sera profondément modifié. Il sera utilitaire avant d’être affectif. Nos meubles, voitures, vêtements prolongent notre identité et servent de supports à nos souvenirs. Bien qu’automatisés, les objets du quotidien ne seront plus « animés » comme leurs prédécesseurs.

 

5G: contrôle renforcé des antennes

5G: contrôle renforcé des antennes

 

L’ANFR L’Agence nationale des fréquences (ANFR) va renforcer les contrôles effectués sur les antennes. L’année dernière, l’agence des fréquences a effectué 3.066 contrôles. «En moyenne, les mesures montrent une exposition aux ondes des Français près de 150 fois inférieure aux seuils sanitaires maximums définis au niveau international», fait savoir le gouvernement. À la demande du gouvernement, l’ANFR a engagé un plan d’augmentation substantielle des contrôles, qui passeront à 6.500 en 2020 et 10.000 en 2021. À cela vont s’ajouter 4.800 mesures spécifiques dans le contexte du lancement de la 5G. Dans le détail, 300 mesures seront réalisées sur la 5G avant la fin de l’année 2020 et 4 500 au cours de l’année 2021.

«Ces mesures permettront de disposer d’informations objectives de l’exposition liée au déploiement de la 5G, que ce soit dans la bande de fréquences 3,5 GHz en cours d’attribution par l’ARCEP ou par l’utilisation de bandes existantes (2G, 3G, 4G)» fait savoir le gouvernement.

L’avenir câblé de Marseille ?

L’avenir câblé de Marseille ?

Félix Blanc, docteur en science politique, directeur chargé des politiques publiques au sein de l’ONG Internet sans frontières estime que l’avenir de Marseille passe aussi par le réseau très dense des câbles sous-marins, la cité phocéenne constituant aujourd’hui un des principaux nœuds mondiaux de concentration des réseaux. (Tribune dans le Monde)

 

 

Tribune. Marseille (Bouches-du-Rhône) est devenue en quelques années un carrefour pour les câbles sous-marins de l’Internet qui relient désormais les cinq continents, ce qui en fait le neuvième nœud mondial de concentration de réseaux et d’échanges de données. Les géants du Net profitent de cette situation géographique et des infrastructures portuaires pour y héberger leurs fermes numériques, à l’instar de Microsoft qui y a implanté un des quatre centres de stockage de données déployés en France.

Les conséquences à long terme de ces installations doivent faire l’objet d’une étude d’impact approfondie et d’un véritable débat public. Ces industries numériques posent un certain nombre de problèmes.

D’abord, elles se développent en plein cœur de ville et les besoins croissants de cette économie font craindre une captation du foncier dans un centre urbain déjà très dense, ce qui pourrait menacer le développement d’autres activités économiques. Ce phénomène est accentué par la pression urbaine qui s’exerce dans le périmètre d’EuroMéditerranée, avec des tensions autour du logement et des activités économiques existantes.

Ensuite, ces fermes numériques créent très peu d’emplois dans les villes d’accueil, si elles ne disposent pas déjà d’emplois très qualifiés et d’activités mondialisées sur leur territoire, comme à Francfort, Londres ou Paris.

Enfin, ces fermes numériques sont des activités très gourmandes en énergie électrique, ce qui se traduit par des besoins croissants en puissance et par la constitution de réserves de capacité électrique, qui peuvent engendrer des conflits d’usage sur le réseau. Ces installations représentent déjà à Marseille la consommation d’une ville de près de 100 000 habitants, avec des prévisions de croissance qui devront être prises en compte dans les scénarios de transition énergétique.

La position stratégique de Marseille dans l’Internet mondial n’en reste pas moins une opportunité pour amorcer la transition énergétique, réduire la fracture numérique et favoriser le développement économique.

C’est d’abord une opportunité d’assurer la transition énergétique du territoire métropolitain avec un objectif ambitieux d’économie d’énergie et un plan pour les énergies renouvelables. Présent à Marseille depuis 2014, le géant du stockage de données Interxion a déjà envisagé des solutions technologiques pour récupérer la chaleur produite par ses centres de données, qui pourrait être utilisée pour alimenter le réseau de chaleur de la ville de Marseille, comme cela est prévu par l’entreprise sur le site de La Courneuve (Seine-Saint-Denis). Les entreprises du numérique pourraient aussi soutenir la création d’une société d’économie mixte pilotée par les collectivités locales pour favoriser le développement des énergies renouvelables.

5G , le moratoire 5G à Lille: «tartufferie» ?

5G ,  le moratoire 5G  à Lille:  «tartufferie» ?

Pour le secrétaire d’État au numérique la motion du conseil municipal de Lille décidant d’un moratoire sur la 5G constitue une tartuferie.. «Dire qu’il y a encore des incertitudes sur les fréquences utilisées pour la 5G, c’est mentir aux Français«, a déclaré Cédric O. Mais il y a le problème plus fondamental du champ de compétence des autorités en l’occurrence ici celles de l’État et celles d’une ville. Le plan relatif au développement de la 5G et l’affectation des fréquences relève en effet de la décision de l’État. Il en est de même pour la plupart des grandes infrastructures. Cela n’interdit pas évidemment aux municipalités de donner leur avis voire de s’opposer politiquement au projet. On voit mal cependant avec quelle arme juridique une municipalité pourrait s’opposer développement d’une infrastructure de communication à caractère national. Cela n’empêche pas évidemment les interrogations sur l’enjeu, l’intérêt de cette nouvelle technologie et la prise en compte de la problématique de l’électro sensibilité.

Pour tenter de rassurer les maires, Cédric O annonce que «les maires et les associations pourront demander des contrôles des antennes 5G». Ainsi, «nous ferons 6500 contrôles d’exposition aux antennes en 2020 et 10.000 en 2021 dont 4800 mesures en priorité sur les équipements télécom 5G (contre 3066 en 2019)», a-t-il déclaré.

À Lille, aucune antenne 5G ne pourra être installée «au moins jusqu’à la publication du rapport attendu en 2021 de l’Anses», a annoncé la maire. Un rapport qui «ne sera pas une coquille vide», promet Cédric O qui se dit «confiant». «Nous avons demandé à l’Anses une mise à jour de ses conclusions. Il est fort probable que ce rapport aille dans le même sens que les précédents».

Nouvelles technologies-L’avenir: la zéro G

Nouvelles technologies-L’avenir: la zéro G

Le patron de Sigfox, Ludovic Le Moan dans un entretien accordé à La Tribune dit tout le mal qu’il pense de la 5G et explique ce que serait la zéro G.

 

Pourquoi avoir publié votre livre intitulé « Zéro G » en ce début d’année, alors que l’actualité des télécommunications en 2020 est accaparée par l’émergence de la 5G ? Quel message avez-vous voulu faire passer à travers celui-ci ?

Ludovic Le Moan - J’ai voulu écrire ce livre et le nommer de cette façon non pas en prétendant que c’est l’opposé de la 5G. Pour moi, cette technologie consiste à permettre d’avoir plus de capacité haut débit dans des lieux où il y a beaucoup de monde, c’est cela ma définition de la 5G, le reste n’est que de la foutaise. Je ne dis pas qu’il ne faut pas de 5G, mais à l’opposé du spectre, il y a des besoins de frugalité et dans mon livre, je démontre que la zéro G c’est la frugalité. Le secteur des télécommunications pourrait être un domaine de réflexion pour continuer à progresser sans pour autant pousser les curseurs dans le rouge. Je ne suis pas dans la décroissance joyeuse, mais l’idée est d’instaurer une réflexion frugale dans le développement de l’économie.

La zéro G peut être un moyen d’apporter un progrès social, environnemental et dans la souveraineté. Ce dernier aspect est la plus grande menace que la France peut avoir. Si nous laissons quelques années, quand on observe la puissance des GAFA et des Chinois, nous ne sommes pas très loin de devenir demain dépendants de ces deux forces-là. Plus que gagner de l’argent, je démontre comment on peut faire pour avoir une alternative.

Vous venez de l’aborder : ce terme de  »frugalité » revient des dizaines de fois au cours des 170 pages de votre ouvrage. Est-ce un choix volontaire et assumé ? Pourquoi cette insistance ?

La frugalité et la zéro G, pour moi, c’est ni plus ni moins qu’adapter les moyens aux besoins. Ma priorité est celle-ci : répondre à un besoin par le bon moyen. Quand on dit qu’il faut la 5G pour tout le monde, honnêtement je ne suis pas d’accord. Alors que la Terre brûle, je ne me casse pas la tête, après la 4, je fais la 5 en mettant plus de débit parce que cela se vend bien. Les consommateurs mangent cela en achetant les derniers smartphones et écrans. Cela fonctionne depuis la nuit des temps, avec un marketing de plus en plus puissant. Est-ce que c’est que nous voulons ? Pour moi, la réponse est non.

Nous pouvons créer des choses utiles dans le domaine de la santé par exemple, issues d’une réflexion profonde. la zéro G, ,  un réseau mondial bas débit, qui ne consomme quasiment pas d’énergie … »

Faut il croire en la 0G? d’après wi6labs.com/

Regardez tout autour de vous. Je suis quasiment sûr que vous n’allez pas mettre beaucoup de temps à trouver une antenne dédiée à la téléphonie mobile. Cette technologie qui vous oblige à avoir un abonnement et une carte SIM  nécessite d’avoir un grand nombre d’antennes pour pouvoir couvrir le réseau. On peut donc douter que les infrastructures de téléphonie mobile puissent un jour équiper les réseaux de millions de capteurs.

Les alternatives:

Le réseau maillé consiste à avoir une série de capteurs qui, s’écoutant les uns les autres, peuvent faire passer les messages d’un voisin vers l’autre. Le but du jeu est de joindre un point A à un point B en passant par le chemin le plus court ou le plus rapide. Ces réseaux peuvent être performants mais sont énergivores car ils nécessitent une écoute quasi permanente du réseau par les capteurs. (Réseau mesh). Des travaux sont tout de même à l’étude pour améliorer les performances, notamment énergétiques (6Tisch et 802.15.5)

Le réseau en étoile via la 0G (versus 2G, 3G ou 4G) fait le pari que nous pouvons faire autrement pour gérer les réseaux de capteurs. La technologie Long Range offre de bonnes performances en terme de portée et permet donc de pouvoir utiliser des réseaux de type étoile.(Réseau Etoile). Seul un récepteur est à l’écoute de sa tribu de capteurs. De cette manière le capteur ne se réveille que lorsqu’il est nécessaire de le faire, simplement si une information est à transmettre.

.

1...3031323334...58



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol