Archive pour la Catégorie 'nouvelles technologies'

Page 57 sur 63

Télécoms- la 5G dès 2018 ….mais pas en France

Télécoms- la 5G  dès 2018 ….mais pas en France

D’après Nokia, la 5G sera opérationnelle à partir de 2018 notamment aux Etats-Unis, en Corée du Sud, au Japon et en Chine, selon Rajeev Suri. Mais pas en Europe et pas en France. En France où le développement des télécoms repose essentiellement sur le très couteux câble qui n’équipera en fait que les zones agglomérées. Or la 5G pourraiat permettre d’éviter des investissements lourds inutiles (cout officiel du plan câble, 20 milliards mais en fait près du double). – Les opérateurs télécoms avancent leur calendrier pour le déploiement des réseaux 5G de prochaine génération, ce qui devrait profiter à Nokia dès cette année, a déclaré dimanche Rajeev Suri, le directeur général de l‘équipementier finlandais. L‘industrie des réseaux télécoms, dominée par le chinois Huawei, Nokia et le suédois Ericsson, traverse une période difficile avec la baisse de la demande pour les équipements de 4G au terme d‘un cycle de 10 ans. Mais les premiers déploiements commerciaux de 5G devraient prendre la relève de la 4G dès cette année, notamment aux Etats-Unis, en Corée du Sud, au Japon et en Chine, selon Rajeev Suri patron de Nokia.  Nokia a annoncé dimanche un accord de partenariat avec le géant chinois China Mobile – numéro un mondial de la téléphonie mobile par le nombre d‘abonnés – pour développer des réseaux 5G en Chine. La demande pour la 5G sera surtout forte en Asie et aux Etats-Unis alors que l‘Europe sera à la traîne jusqu’à 2019 au moins, a dit Rajeev Suri. Nokia, a-t-il ajouté, est bien positionné pour la 5G grâce à son acquisition en 2016 d‘Alcatel-Lucent, qui a élargi son portefeuille de produits.

Intelligence artificielle : risque de manipulations  » ( Thierry Berthier et Nicolas Miailhe)

Intelligence artificielle : risque de manipulations   » ( Thierry Berthier et Nicolas Miailhe)  

 

De manipulations économiques et politique aussi une possible remise en cause de la  liberté, de la sécurité, du développement de  la durabilité, des  intérêts collectifs, et de  la dignité de la personne humaine par exemple.

 

Nicolas Miailhe est cofondateur et président de The Future Society, un incubateur d’idées et de projets lancé à la Harvard Kennedy School of Government en 2014 et dédié aux questions d’impact et de gouvernance de l’accélération et de la convergence des progrès technologiques. Dans ce cadre, Nicolas a lancé « The AI Initiative », qui pilote actuellement, entre autres activités, un débat participatif mondial multilingue sur la gouvernance de l’intelligence artificielle.

Lorsque l’on évoque la diaspora française des experts impliqués dans l’IA mondialisée, on pense immédiatement à Yann Le Cun, Directeur du laboratoire d’intelligence artificielle de Facebook (FAIR) ou à Emmanuel Mogenet, directeur de l’ingénierie de Google Research Europe.

D’autres voix françaises ont su se faire entendre dans un écosystème mondial très concurrentiel, en particulier celle de Nicolas Miailhe sur le segment des implications sociétales et géopolitiques de l’intelligence artificielle.

The AI Initiative, quels objectifs ?

NICOLAS MIAILHE – « The AI Initiative » a été lancée en 2015 dans le cadre de « The Future Society » pour se concentrer sur les questions d’impact et de gouvernance de la montée en puissance de l’Intelligence artificielle. Notre objectif est de favoriser l’émergence de cadres de gouvernance globaux permettant de tirer le meilleur parti de la révolution de l’IA en maximisant les bénéfices et en minimisant les risques.

Nous sommes convaincus que la révolution de l’IA est globale et qu’elle appelle donc une meilleure coordination internationale, mais aussi transnationale, car le monopole des États est remis en cause par la puissance des géants du numérique. Faire émerger un cadre de gouvernance adapté va prendre du temps. Cela implique de nourrir un dialogue transdisciplinaire et ouvert sur la société civile au-delà des experts et des praticiens.

Pourquoi est-ce nécessaire d’ouvrir sur la société au-delà des experts ?

Les changements vont affecter tout le monde et les questions éthiques à trancher aussi. Vu les dilemmes et les tensions entre des valeurs fondatrices de nos modèles sociaux comme la liberté, la sécurité, le développement, la durabilité, les intérêts collectifs, et la dignité de la personne humaine par exemple, un dialogue est indispensable pour harmoniser nos systèmes de valeurs. C’est une tâche difficile et très politique au fond, mais indispensable si nous voulons apprendre à vivre en harmonie à 7 puis 8 et 10 milliards d’êtres humains à l’heure de l’IA. Les travaux de recherche, les outils cognitifs et les évènements que nous organisons avec The AI Initiative sont tournés vers ce but.

Quelles sont les différences entre populations américaine et française ?

Les Américains sont généralement plus technophiles et confiants dans l’avenir que les Français. Ils ont aussi un goût pour le risque plus développé. C’est lié à leur histoire et à l’esprit de conquête (notamment sur la nature) qui l’irrigue.

Cet esprit, on le retrouve dans la métaphore de la « nouvelle frontière » qui continue de jouer un rôle central dans le projet de construction national américain : depuis la conquête de l’Ouest au XIXe siècle, jusqu’à celle de l’espace et de la lune au XXe siècle ; et à présent du corps et du cerveau humain. Le goût pour le risque, on le retrouve jusqu’à aujourd’hui par exemple au travers du droit à porter les armes… qui nous fait bondir en France !

Des craintes également aux États-Unis ?

Le leadership technoscientifique et industriel américain en matière de numérique, de data et donc d’IA est un facteur très rassurant à l’heure actuelle s’agissant de leur capacité à façonner l’agenda mondial de l’IA en équilibrant les bienfaits avec les risques.

Notre approche est ancrée dans la crainte… et la réalité du décrochage industriel et scientifique. Nous percevons la révolution de l’IA comme une vague, un tsunami qui nous arrive dessus et qui menace notre modèle de société contre lequel il faut se protéger. Nous avons perdu notre esprit de conquête qu’il faut absolument retrouver et traduire dans un modèle industriel crédible.

Comme nous percevons la révolution de l’IA comme largement « étrangère », nous Français cherchons malheureusement à la réguler (contraindre) plus qu’à gouverner (accompagner). Notre ambition universaliste est bien là, mais elle est quelque part plus conservatrice qu’elle n’est progressiste à l’heure où beaucoup de choses changent avec des opportunités à saisir dans tous les domaines : médical, transport, finance, sécurité, industrie, etc.

Notre ambition universaliste se traduit par la recherche d’un modèle européen de l’IA qui articule recherche de la puissance avec respect de la personne humaine. La péréquation entre les deux ne va pas être simple, car en régulant à partir d’une position d’extrême faiblesse industrielle par rapport aux Américains ou aux Chinois, nous risquons d’entraver notre propre montée en puissance. C’est un peu le risque que le GDPR (Règlement général sur la protection des données) fait planer sur les ambitions de puissance de la France et de l’Europe si nous ne savons pas en faire un atout.

Le solutionnisme béat de la Silicon Valley est-il inquiétant ?

Au-delà des bonnes intentions, qui sont sincères chez la plupart des transhumanistes, le solutionnisme technologique est un poison dangereux ; par manque de réflexivité. C’est à croire que nous n’avons rien appris des horreurs du XXe siècle.

La simplification à outrance des débats à laquelle on assiste parfois dans la Silicon Valley relève d’une certaine forme de naïveté, voire de fondamentalisme. Or, le recours à la science et à la technologie pour résoudre des problèmes (développement, maladie, sécurité, relations entre les individus) n’est jamais neutre. Il intègre des transferts de pouvoir importants. La montée en puissance des géants du numérique aux États-Unis ou en Chine s’accompagne d’un transfert de richesse et de pouvoir très important et qui n’est pas encore équilibré. Avec le basculement dans une économie de l’attention et du virtuel qui comportent des risques de manipulations importants.

Quelle est la vision du côté de Harvard et de The Future Society ?

Nous avons souhaité lancer The Future Society à Harvard, la plus vieille, mais aussi la plus puissante des universités américaines, aussi pour bénéficier d’un enracinement et d’une réflexion plus profonde qui caractérise la côte Est des États-Unis par rapport à la côte ouest. Il y a un côté plus mesuré ; une prudence ; un respect par rapport aux usages et aux traditions. Et pour autant un dynamisme technoscientifique ainsi qu’un brassage de cultures et d’intelligences qu’on retrouve dans très peu d’écosystèmes à travers le monde.

Il s’agit donc d’un choix réfléchi qui vise quelque part à proposer un modèle alternatif à celui de la Silicon Valley ; empreint de plus d’humilité et peut-être de sagesse, au travers d’une conscience des enjeux du temps long et des forces profondes qui animent la trajectoire d’évolution de la vie intelligente dans l’univers. « Science sans conscience n’est que ruine de l’âme » disait Rabelais il y a plus de cinq siècles déjà. Nous avons fait notre cette belle maxime.

Cultiver une réflexion profonde à l’heure de la révolution NBIC qui remet en cause de façon rapide certains des grands équilibres qui ont régit nos modèles sociaux pendant des millénaires nous semble plus important que jamais. Avec la révolution de l’IA et des neurotechnologies, des choix d’une importance capitale -quasi existentiels- vont se présenter à nous. Il faut se donner les moyens de les instruire correctement.

Comment est perçu le transhumanisme aux États-Unis ? et en Europe ?

Notre position, si je peux parler ainsi, car The Future Society cultive la diversité, est qu’il est indispensable d’inviter les sociétés à créer les conditions d’un débat sur ces questions ; et que ce débat doit être transcivilisationnel. Permettre une politisation saine, sage et courageuse de ces enjeux, et quelque part de l’opposition croissante entre « transhumanistes libertariens », « techno-progressistes » et « bioconservateurs » de droite et de gauche nous semble crucial.

Cela n’est pas facile à faire, car les questions sont complexes, mais elles renvoient en fait à des interrogations philosophiques assez basiques, donc à la portée de l’immense majorité des gens, pourvu que le processus de politisation soit bien orchestré. Les experts dont nous faisons partie doivent de ce point de vue se mettre au service de la société, et faire preuve de pédagogie pour permettre aux citoyens de jouer leur rôle dans le débat. Définir la trajectoire d’évolution de l’Humanité au XXIe siècle à l’heure de l’accélération technologique implique rien de moins que cela ! C’est aussi ça l’éducation civique de notre époque.

Et les Français s’intéressent finalement beaucoup à ces questions par rapport à d’autres cultures, comme en témoigne le nombre important d’ouvrages, d’articles et de documentaires qui paraissent régulièrement sur la question depuis 2010. Vous savez, nous avions reçu Zoltan Itsvan (le candidat transhumaniste-libertarien à la présidence des États-Unis, Ndlr) à la Kennedy School en avril 2016 pendant la campagne des présidentielles américaines pour un débat politique inédit avec James Hugues (son opposant techno-progressiste, Ndlr). Discussion assez fascinante qui a entre autres montré que le transhumanisme n’est pas un bloc monolithique, mais plutôt un courant en évolution permanente et recomposition, ce qui est plutôt sain. La discussion a également montré en quoi le leadership techno-industriel vaut de plus en plus leadership politique. L’émergence d’un Marc Zuckerberg comme leader possible du parti démocrate le prouve bien aujourd’hui.

Et ce n’est pas forcément une bonne nouvelle ! C’est aussi pour cela que la France et l’Europe doivent prendre des risques et se réveiller sur le plan industriel si nous voulons être en capacité de faire entendre notre voix dans ce débat stratégique. Il ne s’agit rien de moins que de l’avenir de la condition humaine et des grands équilibres qui la régissent. Mais ce que je voulais vous dire en parlant de la visite de Zoltan Itsvan à Harvard… C’est qu’il était suivi par une équipe de télévision française qui faisait un reportage sur lui ! Cela montre à quel point les Français sont fascinés par ces enjeux ! Et de mon point de vue c’est plutôt rassurant.

Le spectre politique est en train d’évoluer profondément sous nos yeux : d’une seule dimension à plusieurs dimensions. Si bien qu’on doit plutôt penser en termes de « prisme ». Il y a un deuxième et un troisième axe au-delà du spectre « droite-gauche » : démocratie directe vs indirecte ; et local vs global. J’en rajoute même un quatrième, de plus en plus pertinent : bioconservateur vs transhumaniste. Et un cinquième, très ancien, mais qui resurgit : matérialistes vs transcendantalistes.

Existe-t-il une doctrine américaine de l’IA au plan économique, géopolitique, militaire ?

Dans la compétition stratégique croissante entre les États-Unis et la Chine, il y a indéniablement une course à l’IA. Commerciale, mais aussi militaire. Il faut arrêter de se voiler la face. Les enjeux sont trop importants et le paradigme du « winner-takes-all » de l’économie des plateformes est en train de donner un tour explosif à la course. La Russie semble en retrait, car très affaiblie sur le plan économique. En effet, la géopolitique de l’IA est avant tout une géo économie !

Et les deux mastodontes de l’économie numérique globale que sont la Chine et les États-Unis s’efforcent de s’appuyer sur la taille critique de leurs énormes marchés domestiques, et sur leurs alliances, pour devenir les leaders mondiaux de l’IA. Du côté des GAFAMI, comme des BATX, les capitaines d’industrie ont tous fait de l’IA le cœur de leur stratégie. Idem concernant les gouvernements : l’Administration Obama a mené tout un travail dans sa dernière année d’exercice en 2016 qui a débouché sur la publication d’une stratégie et d’une roadmap technologique, y compris sur le plan militaire avec la publication de sa stratégie du « third offset ».

Sans parler de cyber sécurité bien sûr dans laquelle l’IA est appelée à jouer un rôle croissant. A l’été 2017, les plus hautes autorités chinoises ont alors annoncé un plan stratégique de grande ampleur sur l’IA qui doit lui permettre de ravir le leadership technologique aux Américains en IA d’ici 2025. L’administration Trump ne s’est pas vraiment approprié le sujet, même si elle apporte un soutien indéfectible aux militaires et son grand plan de baisse des impôts devraient favoriser les géants du net. Même si la question d’une course à l’armement n’est pas clairement évoquée, elle est bien posée. Car d’un côté comme de l’autre on a un a une perception assez limpide de la dualité de ces technologies. Et dans les deux cas, le gouvernement a et va continuer à jouer un rôle critique pour soutenir les progrès technologiques. Regardez le rôle qu’a joué la DARPA aux États-Unis par exemple dans la révolution numérique. Aujourd’hui IA et robotique, mais avant cela, Internet, GPS. Le système chinois est un capitalisme d’État qui est encore plus clair et quelque part efficace. En tout cas le rattrapage numérique que les Chinois ont réussi à produire est assez incroyable et inquiète de plus en plus les Américains. C’est quelque chose dont on parle beaucoup à Harvard.

Eric Schmidt, le PDG d’Alphabet a tiré la sonnette d’alarme lors d’une conférence en novembre 2017 en affirmant que « la suprématie technologique sans égard dont les États-Unis ont bénéficié depuis la chute de l’Union Soviétique est terminée ». L’Europe, mais surtout l’Afrique sera demain un terrain d’affrontement entre ces deux modèles aux antipodes l’un de l’autre.

Quelles pistes pour la France ?

La période actuelle est un tournant indéniable. Nous avons la chance d’avoir un Président brillant qui est parfaitement conscient des enjeux de son temps, y compris sur le plan numérique. D’où également l’attachement viscéral du Président Macron à l’Europe. Car dans le monde qui vient, plus que jamais l’union fera la force.

Dans cette période charnière, il ne faut surtout pas que la France rate la mise en place des conditions de son leadership numérique en Europe et dans le monde. De ce point de vue, l’implosion récente du Conseil national du numérique (CNNum) n’est pas une bonne nouvelle, car elle nous prive d’un véhicule d’échange et de dialogue indispensable entre le gouvernement et la société civile. Il faut impérativement que l’on réussisse à sortir par le haut de la crise actuelle. Peut-être en repensant au passage les missions du CNNum et certains des grands principes qui régissent son fonctionnement comme son indépendance par exemple… Et son articulation avec le Conseil Economique Sociale et Environnemental ?

Réussir 2018 pour la France sur les plans du numérique et de l’IA implique de présenter une stratégie française en matière d’IA qui soit ambitieuse en matière industrielle. C’est ce à quoi s’attèle avec talent et détermination Cédric Villani qui rendra son rapport dans quelques semaines. Il reviendra alors à Mounir Mahjoubi, le ministre en charge du numérique, de traduire les axes proposés en une stratégie et l’exécuter.

Notre stratégie en matière d’IA doit aussi chercher à influencer la stratégie européenne que la Commission publiera à la mi-année. Quelques points à regarder avec attention de ce point de vue : l’articulation d’une stratégie industrielle en matière de data avec le cadre régulatoire du Règlement général de protection des données (RGPD) qui s’appliquera à partir de mai 2018 à travers toute l’Europe. Il est impératif de réussir à faire de ce cadre une chance pour la France et l’Europe permettant de faire émerger des leaders industriels de la data et de l’IA. Et cela ne va pas être facile, car les risques et les entraves pour les entrepreneurs sont importants.

Faire de l’Europe le champion de l’éthique sans masse critique des usages est dangereux. Surtout quand on connaît la propension des consommateurs à sacrifier vie privée contre gratuité et confort d’usage. Il faut que cela change, mais le dosage doit être équilibré, car nous vivons dans un marché globalisé. Si nous savons trouver la bonne mesure, le RGPD offre des atouts donc il faut se saisir, comme le droit à la portabilité des données qui peut être un avantage comparatif majeur pour le marché unique et les acteurs européens. Il faut que les gouvernements développent une politique industrielle solide permettant de faire émerger des plateformes européennes nourries à la portabilité. C’est un changement de paradigme qui ne va pas se faire tout seul.

_____

Par Thierry Berthier, Maitre de conférences en mathématiques, cybersécurité et cyberdéfense, chaire de cyberdéfense Saint-Cyr, Université de Limoges et Nicolas Miailhe, Senior Visiting Research Fellow, Harvard University

La version originale de cet article a été publiée sur The Conversation

 

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

 

Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets car surtout destinés à valoriser artificiellement un produits et/ou  à attirer des capitaux.

 

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Un observatoire européen sur le blockchain

Un observatoire européen sur le  blockchain 

 

A question de l’intérêt du blockchain est complexe du fait de son principe de fonctionnement technique mais aussi du conflit qu’il génère chez certains acteurs notamment les banques commerciales mais aussi les banques centrales voire les Etats. Les avis des un et des autres sont parfois teintés d’un fort corporatisme. Par ailleurs certains condamnent sans réserve les cryptomonnaies comme le bitcoin au motif notamment qu’il favorise une super spéculation dangereuse. Ceci étant,  cet amalgame blockchain- crypto monnaie est peut-être excessif car la technologie blockchain peut servir à d’autres applications pour la gestion de flux d’informations. La blockchain est une technologie de stockage et de transmission de données, transparente et sécurisée. Elle fonctionne sans contrôle central et permet, en fonction de ses applications, de se passer des intermédiaires, par exemple les banques. Ses applications sont multiples, mais la plus connue est celle permettant la création de cryptomonnaies, tel le bitcoin, cette monnaie électronique immatérielle, réputée invulnérable aux attaques informatiques, qui n’appartient à aucun État. « Je considère la technologie du blockchain comme un changement fondamental et je veux que l’Europe soit à la pointe de son développement », a affirmé la commissaire chargée du dossier. « L’Europe ne peut pas se permettre de rater cette occasion« , a-t-elle ajouté lors d’une conférence de presse où elle a lancé un Observatoire-forum que l’UE veut consacrer au sujet. L’idée de cet observatoire, qui associera « les autorités publiques, les régulateurs, l’industrie » est « de suivre le potentiel de ces technologies et de voir quelles seront les répercussions, les risques et les opportunités pour l’UE« , a-t-elle expliqué. « Pour l’instant, nous n’allons pas réguler ce secteur, nous allons observer et voir comment nous pouvons apporter une certitude juridique« , a-t-elle poursuivi. L’UE dit s’attendre à ce que la technologie « transforme les modèles économiques dans divers secteurs comme les soins de santé, l’assurance, la finance, l’énergie, la logistique, la gestion des droits de propriété intellectuelle ou les services publics« . De nombreux banquiers, y compris centraux, ont exprimé leurs réserves sur la sulfureuse cryptomonnaie.

Fin des zones blanches

Fin des   zones blanches

Un nouvel accord a été conclu entre les quatre principaux opérateurs pour mettre fin aux zones blanches en matière de téléphonie. Ce n’est certes pas le premier accord de ce genre mais cette fois la promesse pourrait être tenue tellement la contradiction est grande entre les zones super-privilégiées et les véritables déserts. La couverture totale du territoire au moins pour la téléphonie voire pour Internet haut débit pourrait être assuré dans les trois ans. Objectif : en finir avec les « zones blanches », ces territoires privés d’Internet ou de réseaux mobiles de qualité. Emmanuel Macron l’avait déjà promis cet été, fixant pour la fin de l’année 2020 le « haut et très haut début » en France.   »Grâce à notre accord, il n’y aura plus de ‘zones blanches’, identifiées par les élus locaux, où des Français vivent sans avoir accès à une téléphonie de qualité », entérine ainsi Julien Denormandie, le secrétaire d’État. Concrètement, le secrétaire d’Etat assure que les opérateurs se sont engagés « à investir beaucoup plus et beaucoup plus vite dans les infrastructures, et ce sur une base contraignante ». Au total, « plus de 3 milliards » seront sur la table. « Nous allons faire en trois ans ce que nous avons fait jusqu’ici en quinze ans pour déployer la téléphonie mobile! », fait encore savoir Julien Denormandie, qui détaille dans le JDDce plan. Celui-ci va notamment amener « chaque opérateur à fournir 5.000 installations supplémentaires », qu’il s’agisse de pylônes ou d’antennes.

 

Téléphonie G5 : alternative au câble aux Etats-Unis

Téléphonie G5 : alternative au câble aux Etats-Unis

 

Comme on pouvait le prévoir le câble ne sera pas la seule solution pour accéder à Internet dans tous les territoires. On assistera sans doute au développement d’un mix reposant pour partie sur le câble mais aussi sur le satellite et sur la technologie 4G et surtout G5. Une technologie qui sera utilisée de manière mobile et même fixe aux États-Unis. Une évolution qui aura forcément des conséquences ailleurs en particulier en France empêtrée dans le financement couteux du câble Les deux leaders américains des télécoms, AT&T et Verizon, rivalisent d’annonces concernant leurs premiers déploiements de la prochaine génération de communication mobile. Aux Etats-Unis, les opérateurs se mobilisent déjà pour apporter dès que possible la 5G. Avec cette cinquième génération de communication mobile, qui promet des débits dix fois plus rapide qu’avec l’actuelle 4G tout en offrant une solution de choix pour l’Internet des objets, ils espèrent se démarquer et doper leurs revenus dans un marché des télécoms aussi mature que concurrentiel. La semaine dernière, quelques jours avant l’ouverture du CES de Las Vegas, le grand salon mondial de l’électronique grand public, AT&T, le numéro deux américain du mobile (33% de part de marché), a donné le ton. A l’en croire, des premiers services de 5G seront lancés « dans une douzaine de villes » d’ici à la fin de l’année. Dans un communiqué, l’industriel affirme que son « accélération » dans cette technologie est notamment rendue possible par l’adoption d’une première salve de normes, fin décembre, par le 3GPP, l’organisme qui fixe les standards des télécommunications mobiles. Même si les travaux de standardisation sont loin d’être achevés, et devraient se poursuivre jusqu’en 2019. « Maintenant que ces spécifications sont disponibles, les fabricants de matériels, de puces, et d’appareils peuvent commencer leurs développements », indique l’opérateur. AT&T se dit ainsi en mesure d’apporter et de commercialiser la 5G plus vite que ce qu’il avait initialement prévu. Même si les premières offres estampillées « 5G » n’en seront donc pas vraiment: elles comprendront seulement certaines de ses briques technologiques. Dans ce communiqué, Melissa Arnoldi, présidente d’AT&T Technology et Operations, se projette : « Nous allons rapidement déployer la 5G mobile cette année et commencer à proposer cette solution aux consommateurs et aux entreprises. Avec des vitesses plus rapides et une latence ultra-faible, la 5G va finalement délivrer et améliorer des expériences comme la réalité virtuelle, les futures voitures sans conducteur, la vidéo immersive 4K et plus encore. » Le grand rival d’AT&T aux Etats-Unis, Verizon (36% de part de marché), met lui-aussi les bouchées doubles dans la 5G. Il y a peu, l’opérateur a annoncé qu’il allait déployer un service de 5G à usage fixe dans quelques villes cette année. L’idée, ici, est de proposer une alternative au câble ou à la fibre optique pour se connecter en Internet à très haut débit la maison. L’objectif est de tester de nouvelles offres de manière localisées, avant, si elles fonctionnent correctement et séduisent les consommateurs, de songer à les généraliser. A côté des grands opérateurs américains, leurs homologues asiatiques, en particulier en Corée du Sud et au Japon, sont également très pressés d’apporter la 5G, perçue comme un de leurs principaux levier de croissance ces prochaines années. Voilà pourquoi Séoul et Tokyo ont depuis longtemps promis de proposer cette technologie cette année, à l’occasion des Jeux Olympiques. L’Union européenne, plus en retrait pour le moment, souhaite de son côté qu’au moins une grande ville de chaque état membre soit couverte en 5G en 2020. Soit l’année où, vraisemblablement, les vrais gros déploiements de cette technologie devraient débuter.

 

Les géants d’internet contre la suppression de la «neutralité du net»

Les géants d’internet contre la suppression de la «neutralité du net»

Curieusement, en tout cas en apparence, les grands de l’Internet, les GAFA,  s’opposent à la remise en cause de la neutralité du net. La contradiction n’est pourtant qu’apparente car les géants du net ne veulent surtout pas qu’on ouvre la porte aux réductions de débit et à l’augmentation des prestations de la part des fournisseurs  d’accès à Internet car les modifications d’accès seraient susceptibles de leur nuire (Orange par exemple est favorable !) .L’organisation Internet Association, qui compte parmi ses membres des géants comme Google, Facebook ou Microsoft, net». La Commission fédérale des communications (FCC), régulateur américain du secteur, s’est prononcée mi-décembre pour la fin de ce principe qui oblige les fournisseurs d’accès internet (FAI) à traiter tous les contenus en ligne de la même manière. Sans donner de détail, l’Internet Association a laissé entendre qu’elle interviendrait dans les recours que plusieurs procureurs devraient lancer prochainement, notamment dans les Etats de Washington et de New York. Michael Beckerman, président de l’organisation dont Amazon est également membre, a estimé que la décision de la FCC « va à l’encontre de la volonté d’une majorité bipartisane d’Américains et ne parvient pas à préserver un internet libre et ouvert ».

« Avec les groupes qui sont nos adhérents, (l’association) continuera à faire pression pour rétablir par voie législative des protections fortes et applicables pour la neutralité du net », a-t-il ajouté. Les partisans de la « neutralité » craignent que les FAI soient tentés de faire payer plus cher pour un débit plus rapide ou bloquent certains services leur faisant concurrence, comme la vidéo à la demande, la téléphonie par internet ou les moteurs de recherche.

Le débat sur le sujet, très vif, dure depuis une dizaine d’années aux Etats-Unis.

Internet : plusieurs vitesses inévitables avec la 5 G ?

Internet : plusieurs vitesses inévitables avec la 5 G ?

 

D’après Nathalie Chiche, présidente de Data Expert, la 5G sera le premier réseau mobile non-neutre.

 

« La neutralité d’internet est un des principes fondateurs de l’Internet car il repose sur son architecture originale. Dès le départ, Internet a été conçu pour être décentralisé, fiable, et ayant recours à un langage commun. Pour les non-spécialistes, Internet peut être représenté sous la forme d’une superposition de trois couches indépendantes, qui remplissent chacune une fonction différente. Cette distinction présente l’avantage de faciliter la compréhension des enjeux de la gouvernance d’internet qui révèlent d’une pluralité des acteurs et des problématiques dont celle de la neutralité.

  • la première couche est celle des infrastructures physiques (câbles sous-marins, fibre optique, …) qui permet le transport de l’information ;
  • la deuxième couche, la couche « logique », comprend les normes, langages communs, indispensable à une « interopérabilité » qui fait la cohérence et l’unicité du réseau ;
  • la troisième couche correspond aux contenus numériques produits et échangés sur internet.

En lui-même, l’internet est neutre

L’étanchéité entre ces différentes couches a pour effet de séparer les fonctions de transport et de traitement des informations (contenus). De fait, chaque entité connectée est placée sur un pied d’égalité. Car en lui-même, l’internet est neutre : il se contente de transporter les informations et les applications sans les modifier! Cette neutralité est essentielle car elle explique la solidité et le succès d’internet! Mais également la difficulté de la gouvernance de l’internet ou chaque intervenant doit théoriquement peser du même poids!

Le mobile comme nouvelle norme

Depuis 2016, c’est l’internet mobile qui est devenu la norme dans le monde. L’essor de la future la 5G ouvre un nouveau champ à l’expansion des usages de l’internet ce qui déclenche une discorde entre intervenants sur le réseau.

  • D’un côté, les opérateurs télécoms et fournisseurs d’accès à l’internet – les FAI- qui acheminent des données toujours plus volumineuses avec les innovations (IoT, IA, …) ; ils mettent l’accent sur la saturation de leurs infrastructures existantes, qui les obligent à prévoir une extension des infrastructures qui nécessitent de très lourds investissements comme la 5G.
  • De l’autre, les fournisseurs de contenus et d’applications, qui invoquent la nécessité de préserver la neutralité du net au nom des grands principes (rejoints par les associations de défense d’un internet « libre ») ; leur démarche est de conserver leurs positions financières et commerciales.

Ce débat n’est évidemment pas nouveau (Litige entre Free et Google) et pose à nouveau la question « qui paie quoi? » pour chaque intervenant :

  • Est-ce aux opérateurs (comme Orange) d’assumer l’intégralité des coûts d’acheminement du trafic vers les fournisseurs de services?
  • Est-ce aux fournisseurs de contenus, les fameux « GAFA», qui sont de très gros consommateurs de bande passante, de mettre la main au portefeuille?
  • Est-ce aux internautes d’en supporter pour partie le coût au travers d’une large gamme d’abonnements possibles et suivre l’exemple présent des FAI américains?

La question vient d’être tranchée par Stéphane Richard [PDG d'Orange], à la tête du plus important opérateur fixe et mobile de France qui admet que « la fin de la neutralité de l’internet est une obligation » et évoque dans un futur proche un internet à plusieurs vitesses…

Même si le principe de neutralité est inscrit dans la loi Lemaire du 7 octobre 2016, force est de constater que le réseau 5G disponible en 2022 pourra s’adapter en fonction des besoins de chaque application; la 5G sera par nature le premier réseau mobile non-neutre.

Ainsi, si nous voulons que notre fleuron Orange soit LE champion européen de la 5G (qui est en cours de standardisation), il faudra sans doute se résoudre à accepter que ce nouveau réseau mobile 5G sera difficilement compatible avec notre réglementation française et européenne… »

 

Accés internet : la France en 44ème position

Accés internet : la France en 44ème position

D’après un article de Numerama, au vue des  statistiques compilées par Akamai auprès de centaines de millions d’adresses IP, la France est l’un des pires pays de la région EMEA (Europe, Moyen-Orient, Afrique) en terme de débits à internet sur les lignes fixes. Surtout, elle ne progresse pas plus vite que les autres pour rattraper son retard.

La société Akamai spécialisée dans la fourniture de serveurs de cache (CDN) a publié son rapport State Of The Internet (.pdf)  pour le quatrième trimestre 2015, qui montre que la France a toujours bien du mal à rattraper son retard en matière de vitesse d’accès à internet.

Au niveau mondial, la France se classe au 44e rang des débits moyens effectivement proposés par les fournisseurs d’accès, et parmi les derniers dans la zone EMEA (Europe, Moyen-Orient, Afrique), telle qu’étudiée par Akamai. (La situation ne s’est pas améliorée en 2017 puisque la France se retrouve 53 ème !).  La société dont les services sont extrêmement répandus mesure les vitesses moyennes de transferts de données, calculées avec l’ensemble des centaines de millions d’adresses IP avec lesquelles elle doit communiquer dans le monde. Selon le tableau ci-dessous, la vitesse moyenne de connexion en France serait de 8,9 Mbps, très loin du champion européen, la Suède, dont les internautes jouissent d’une connexion moyenne de 19,1 Mbps. Si ce n’est l’Italie, aucun des pays de l’Union européenne retenus par Akamai fait pire. Et la géographie n’est pas une excuse, puisque l’Allemagne fait aussi bien mieux (12,9 Mbps), avec un territoire d’étendue et de densité équivalentes. Par ailleurs même si la France progresse, avec un débit moyen qui a augmenté de 26 % en un an, cette progression reste inférieure à celle de nombreux voisins. Sur les 25 pays de la zone EMA listés par Akamai, 17 vont plus vite que la France dans l’augmentation du débit moyen.

Monde Pays Q4 2015 QoQ YoY
Rang Moy. Mbps Variation Variation
2 Suède 19.1 9.3 % 30 %
3 Norvège 18.8 14 % 65 %
5 Pays-Bas 17.0 8.7 % 20 %
8 Suisse 16.7 2.8 % 15 %
9 Finlande 16.6 12 % 37 %
10 Danemark 16.1 15 % 36 %
11 République Tchèque 15.9 9.2 % 29 %
15 Belgique 14.2 11 % 31 %
17 Royaume-Uni 13.9 6.8 % 27 %
19 Roumanie 13.2 0.9 % 14 %
22 Allemagne 12.9 12 % 46 %
23 Irlande 12.8 2.7 % 0.7 %
24 Hongrie 12.6 19 % 45 %
25 Slovaquie 12.5 12 % 53 %
27 Autriche 12.3 8.4 % 26 %
29 Portugal 12.1 14 % 51 %
30 Espagne 12.1 17 % 48 %
32 Israël 11.6 3.8 % 9.2 %
33 Russie 11.6 14 % 30 %
36 Pologne 11.0 3.9 % 25 %
44 France 8.9 9.4 % 26 %
51 Italie 7.4 14 % 33 %
53 Emirats Arabes Unis 6.9 2.2 % 21 %
63 Turquie 6.3 0.8 % 8.9 %
90 Afrique du Sud 4.1 11 % 26 %

Outre le débit moyen par connexion à internet, Akamai mesure également la « moyenne des pics de vitesses de connexion ». Il s’agit, pour chaque adresse IP connue, de retenir la vitesse la plus haute constatée, et de réaliser une moyenne de l’ensemble de ces valeurs. Sur ce tableau, la France fait encore pire, en se classant au 53e rang mondial, avec une moyenne à 43,2 Mbps.Mais cette fois-ci, grâce aux montées en charge de la fibre optique, la moyenne de la France progresse bien plus vite que la plupart des autres pays de la zone EMEA, avec 37 % de progression sur un an. C’est la Roumanie qui est au sommet, avec une vitesse de pic moyenne enregistrée à 73,6 Mbps.

Enfin, il serait faux de prétendre que la France est plus égalitaire que les autres. Car 22 % des foyers français ont encore accès à moins de 4 Mbps, ce qui fait encore d’elle une des pires élèves de la zone EMEA. Quant aux connexions supérieures à 10 Mbps, elles ne concernent que 24 % des Français, très loin derrière les 64 % de néerlandais (petit pays aidant), ou même les 43 % d’Allemands.

Monde Pays  % Moyenne QoQ YoY
Rang   > 10 Mbps Variation Variation
2 Pays-Bas 64 % 8.1 % 16 %
4 Suisse 62 % 2.6 % 10 %
5 Norvège 62 % 15 % 75 %
7 Belgique 61 % 16 % 41 %
8 Danemark 60 % 18 % 36 %
9 Suède 60 % 7.6 % 28 %
11 Finlande 57 % 12 % 45 %
15 Roumanie 53 % -6.8 % -2.7 %
17 République Tchèque 51 % 11 % 24 %
18 Royaume-Uni 50 % 8.6 % 32 %
21 Hongrie 48 % 32 % 73 %
23 Russie 46 % 22 % 58 %
25 Portugal 43 % 16 % 75 %
26 Allemagne 43 % 15 % 79 %
28 Espagne 42 % 23 % 87 %
29 Irlande 41 % 0.9 % 25 %
31 Israël 39 % 5.8 % -4.9 %
32 Autriche 38 % 15 % 43 %
34 Pologne 36 % 5.6 % 37 %
36 Slovaquie 33 % 17 % 64 %
43 France 24 % 16 % 58 %
53 Italie 14 % 50 % 142 %
55 Emirats Arabes Unis 11 % 18 % 24 %
61 Turquie 8.4 % 9.4 % -7.1 %
66 Afrique du Sud 3.8 % 29 % 44 %

Selon le plan France Très Haut Débit (France THD), l’intégralité du territoire doit être couverte en THD (30 Mbps ou plus) d’ici 2022, et 50 % des foyers d’ici… 2017. Pour savoir quels débits sont disponibles près de chez vous, la mission France THD a mis en ligne un Observatoire, qui permet de consulter la cartographie précise des débits accessibles,à par technologies (DSL, câble, fibre optique FttH…).

Elle permet également de suivre les déploiements engagés. Mais on y trouve de véritables déserts, à l’image de la Bretagne (aucun plan référencé), ou de la PACA.

La neutralité du net existe en France ?

La neutralité du net existe en France ?

 

Théoriquement la France défend  principe fondateur de la neutralité du net. Officiellement donc tous les Français ont accès aux informations à la même vitesse. Un principe toutefois bien théorique dans la mesure où certaines zones ne sont pas couvertes, d’autres couvertes de manière épisodique. Sans parler des différences de configurations techniques des ordinateurs et des systèmes. Pour bénéficier réellement de la vitesse théorique, il faudrait sans doute changer ordinateur système et logiciel tous les deux ans. La discrimination n’est  donc pas seulement technique, elle est aussi économique. Par ailleurs,  il est clair que le câble ne pourra atteindre que les zones denses et que les autres devront se contenter d’une autre technologie soit par satellite, soit par la 4G ou 5G. « La France continuera à promouvoir le principe de neutralité du net, en Europe et dans le monde ». Affirme cependant le secrétaire d’État auprès du Premier ministre chargé du Numérique, Mounir Mahjoubi. Ce dernier a choisi Twitter comme moyen d’expression. Un avis partagé par la ministre de la Culture, François Nyssen, rejoint les propos du secrétaire d’État : « Pour la promotion du principe de neutralité du net qui est garant de la liberté d’expression, de la liberté de création, du pluralisme des médias », a-t-elle écrit sur son compte. P Mais pour autant, le débat est loin d’être clos. La pression pourrait venir de certains fournisseurs. C’est le cas d’Orange lorsqu’on évoque la possibilité d’un internet à deux vitesses. « C’est une obligation, a assuré le PDG, Stéphane Richard cette semaine sur le plateau de BFM Business. Ce débat est pollué par des considérations politiques. Quand on parle de ‘neutralité du net’, on voit la main des opérateurs qui tout de suite viendrait fouiller les contenus et faire un tri entre les contenus. Ce n’est pas du tout ça les sujets. Dans les usages futurs d’internet, il y a des usages de l’internet des objets, la voiture autonome par exemple, qui vont nécessiter des internets particuliers en termes de latence, de vitesse. Il faudra qu’on soit capable de proposer à l’industrie des services internet avec des fonctionnalités et puissances différentes. Pour cela, il faut qu’on nous laisse le faire ». Prémisse d’un nouveau – et âpre – débat ?

Vers un internet à plusieurs vitesses

Vers un internet à plusieurs vitesses

 

Un changement fondamental aux États-Unis et qui risque de contaminer le monde entier à savoir l’inégalité de traitement de l’information sur Internet. Il n’y aurait plus ce qu’on appelle la  neutralité du net qui contraint les fournisseurs d’accès Internet (FAI) à traiter tous les contenus en ligne à la même vitesse. Désormais les États-Unis proposent de faire évoluer la vitesse de débit en fonction de la nature des contenus. Le problème c’est que les fournisseurs d’accès à Internet constituent des oligopoles qui imposent leur stratégie au monde entier. La différenciation des contenus va constituer une inégalité scandaleuse. Les fournisseurs d’accès vont évidemment privilégier des contenus politiquement corrects et surtout qui rapporte le plus tandis que d’autres sources ne seront que difficilement accessibles. Ou alors il faudra payer avoir accès à la plus haute vitesse certains experts pensent  qu’on s’oriente vers un Internet à deux vitesses. En réalité ce pourrait être pire à savoir un Internet à plusieurs vitesses qui en faites va constituer un mode de régulation de l’accès aux contenus. Un moyen pour les GAFA d’imposer encore plus leur hégémonie. Les partisans de la « neutralité » craignent de leur coté que les FAI soient tentés de faire payer plus cher pour un débit plus rapide, ou bloquent certains services leur faisant concurrence, comme la vidéo à la demande, la téléphonie par internet ou les moteurs de recherche. Avec cette décision, « nous restaurons la liberté d’internet » et « nous aidons les consommateurs et la concurrence », a déclaré le président de la FCC Ajit Pai devant la commission, juste avant le vote. Cette décision « ne va pas tuer la démocratie » ni signifier « la fin de l’internet tel que nous le connaissons », a-t-il ajouté, faisant allusion aux arguments des tenants de la neutralité. La FCC « donne les clés de l’internet » à « une poignée d’entreprises multimilliardaires », a regretté pour sa part Mignon Clyburn, membre de la FCC qui a voté contre la décision. Le débat sur la « neutralité du net », très vif, dure depuis une dizaine d’années aux Etats-Unis. Une centaine de défenseurs de ce principe ont manifesté jeudi matin devant le siège de la FCC, installant un mini-mausolée à la mémoire de l’internet « comme on l’a toujours connu ».

 

 

Fracture numérique : le câble, G4-5 ou le satellite ?

Fracture numérique : le câble, G4-5 ou le satellite ?

Réduire la fracture numérique et offrir le « très haut débit » (au moins 30 mégabits par seconde) en 2022, sur l’ensemble du territoire paraît assez illusoire avec le seul câble. Du coup,   Macron à évoqué un amalgame entre haut débit qui peut être assuré par satellite et très haut débit qui sera couvert par le plan câble. Le plan câble qui se révèle de plus en plus coûteux et qui de toute façon ne pourra atteindre tous les usagers des télécoms. Il est évident que ces nouvelles modalités de couverture sont certainement plus compatibles avec les possibilités techniques et financières. Par ailleurs les évolutions technologiques risquent peut-être de rendre caduque le très coûteux plan câble par ailleurs essentiellement rentable dans les zones très denses. Notons que cette évolution est aussi sans doute plus compatible avec les possibilités des collectivités locales d’autant qu’elles sont déjà lourdement endettées.  Emmanuel Macron n’a pas seulement avancé sa date butoir de deux ans. Pour atteindre son objectif, il parle désormais d’accès «haut débit et très haut débit». Des lignes inférieures à 30 mégabits par seconde pourraient seconder la couverture en très haut débit dans certaines zones. Le président de la République a ainsi appelé à «envisager les complémentarités technologiques» entre la fibre optique, le mobile et en particulier l’Internet mobile ou le satellite, jugeant «impossible de tenir la promesse de tirer de la fibre dans tous les logements de la République». «Cette promesse est intenable technologiquement et financièrement», a-t-il insisté. Or, la France est quasi intégralement couverte aujourd’hui par le haut débit ADSL, avec près de 30 millions de lignes cuivre. Les 2 millions de foyers restant peuvent passer par des offres satellitaires. On peut donc considérer que cette partie de la promesse fixée par Emmanuel Macron est quasi tenue, si l’Internet mobile vient en renfort. À l’inverse, il n’y a que 16 millions de logements éligibles à de l’Internet très haut débit, de plus de 30 mégabits. Dont 12 millions qui peuvent bénéficier d’une vitesse de téléchargement de plus de 100 mégabits par seconde. Le chantier était déjà colossal pour aboutir à 100% de la population couverte en 2022, tel qu’envisagé jusqu’alors, en particulier dans les villes de tailles moyennes et dans les zones rurales. Il nécessiterait 15 à 16 milliards d’euros d’investissement, soit environ 5 milliards d’euros par an durant d’ici à la fin 2020, c’est-à-dire pas loin de ce que l’ensemble des opérateurs investissent tous les ans. Un chiffre par ailleurs très largement sous-évalué en effet le montant de l’investissement pourrait en réalité atteindre facilement le double De ce fait,  le gouvernement devrait choisir le satellite pour permettre à certains foyers d’accéder au très haut débit, Orange souhaite que tous les acteurs des télécoms – dont ses rivaux SFR, Bouygues Telecom et Free – se mettent autour de la table. L’idée serait, par exemple, de lancer un Réseau d’initiative publique (RIP) satellite. Celui-ci serait façonné sur le modèle des RIP de fibre optique actuellement en déploiement dans toute la France. Ceux-ci permettent aux collectivités de bâtir, avec l’aide financière de l’État, des réseaux Internet fixe dernier cri et ouverts à tous les opérateurs dans les zones les moins peuplées de l’Hexagone. Avec un tel RIP satellite, Orange, mais aussi SFR, Bouygues Telecom et Free seraient pourraient ainsi proposer leurs offres à tous les villages et hameaux concernés.

La 5G avant le câble ?

La 5G avant le câble ?

 

La 5G pourrait bien ringardiser le câble  (et bien sûr les autres liaisons fixes) dont développement  ne cesse de prendre du retard et qui de toute façon n’atteindra que les zones denses en raison de son coût. Cela d’autant plus que le président d’Orange vient d’annoncer le développement de la 5G à partir de 2020 ; Lancée en 2014, la 4G est encore loin de s’être démocratisée. Pourtant, les opérateurs télécoms voient déjà plus loin, avec la 5G, la cinquième génération de réseaux mobiles.  Le Metis 2020 (en anglais), un consortium d’acteurs du secteur des télécoms, soutenu par l’UE, a déjà défini les grands principes de ce futur réseau. Le service sera « incroyablement rapide » (PDF en anglais), promet-on, avec des débits espérés jusqu’à 10 Gb/s, soit 100 fois plus que la 4G. Avec une telle vitesse, vous pourrez par exemple télécharger une heure de vidéo haute définition en six petites secondes, calculent Les Echos. Sauf que ce n’est pas le plus important, assure à francetv info Nicolas Demassieux, directeur d’Orange Labs Recherche :  »Dans la 4G, on a déjà ce qu’il faut pour améliorer les débits, il y en a sous le capot. » La technologie n’est pas pour tout de suite, mais pour l’horizon 2020. A cette date, on n’aura pas seulement  »quelques milliards de smartphones », estime Nicolas Demassieux, mais « 50 à 200 milliards d’objets connectés » auxquels il faudra fournir une connexion sans fil rapide et fiable. Les opérateurs se préparent à un monde où la voiture sera autonome, où l’électroménager sera intelligent et où la maison sera entièrement contrôlable à distance, comme le montre cette vidéo d’anticipation, réalisée pour France Télévisions par l’entreprise Siradel, spécialisée dans les modèles de conception des réseaux numériques mobiles. Tout cela « change la nature du réseau », explique Nicolas Demassieux : la 5G devra absorber la demande de ces objets qui, contrairement aux smartphones, seront peu gourmands en débit et en consommation, détaille-t-il. Le réseau devra « être intelligent et capable de gérer des demandes aussi différentes que celles de terminaux comme les smartphones et les frigidaires connectés, par exemple », précise au Monde Jean-Luc Beylat, président des laboratoires de recherche d’Alcatel-Lucent. Les spécialistes travaillent aussi sur la réduction du  »temps de latence », le délai qui s’écoule entre l’envoi des données et leur réception.  »Si vous voulez par exemple allumer un feu rouge et le piloter à travers le réseau, il faut une fiabilité et une garantie de temps réel », commente Nicolas Demassieux. Ce qui, précise-t-il, n’est pas prévu dans la technologie 4G. Effectivement, le réseau 4G est encore loin d’être déployé sur tout le territoire français : premier sur ce créneau, Bouygues Telecom ne couvre à l’heure actuelle que 69% de la population dans l’Hexagone. Mais justement, les géants des télécoms promettent de pallier ces inégalités géographiques avec la 5G. « L’internet sera comme l’air qu’on respire, prédit Nicolas Demassieux. On aura un usage tellement quotidien du haut débit qu’on ne pourra plus se permettre des moments où on est moins bien connecté. » Autrement dit, plus que la vitesse, le progrès de la 5G serait à chercher du côté de l’homogénéité du réseau, décrypte Le Monde.

Sondage Internet : méfiance des Français sur leur vie privée

 

 

 

D’après une  étudeOpinionWay réalisée pour VMWare. , les Français se méfient d’internet quant il s’agit de données concernant leur vie privée.  Si les Français admettent volontiers que certains secteurs, comme l’automobile (37%), la finance (26%) ou la santé (24%), vont gagner en efficacité grâce aux nouvelles technologies, ils ne sont pas enclins à livrer leurs données personnelles pour améliorer les algorithmes des intelligences artificielles. Ils acceptent tout juste dévoiler de leur parcours professionnel (47%) ou leurs habitudes de consommation (49%). Mais ils sont majoritairement défavorables aux partages d’informations plus sensibles comme les données financières (70%), l’historique de leur téléphone (68%), les antécédents familiaux (66%), l’historique des recherches sur Internet (66%) ou les données médicales (63%). Ils sont même très partagés sur les données de géocalisation avec 54% de personnes qui n’y sont pas favorables. Le manque de confiance dans la protection des données personnelles constitue un frein pour l’usage d’internet, selon le baromètre du numérique présenté lundi par l’Autorité de régulation des télécoms (Arcep), le Conseil général de l’économie (CGE) et l’Agence du numérique.  Cette étude relève qu’un Français sur trois est vigilant sur cette question, les 18-24 ans étant les plus inquiets à ce sujet (40%). Les internautes se montrent plus vigilants dans leurs usages de l’internet. 69% d’entre eux ont par exemple renoncé à installer une application afin de protéger leurs données personnelles et 34% ont pris des dispositions en souscrivant à un service de sécurisation des paiements en ligne.

 

 

 

* Étude OpinionWay réalisée auprès d’un échantillon de 1005 personnes représentatif de la population française âgée de 18 ans et plus. L’échantillon a été constitué selon la méthode des quotas, selon des critères de sexe, d’âge, de résidence, de catégorie socioprofessionnelle, d’agglomération ou de région de résidence.

1...5556575859...63



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol