Archive pour la Catégorie 'nouvelles technologies'

Page 53 sur 59

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

Intelligence artificielle : avancées, limites et gadgets (Charles Edouard Bouée)

 

Dans une tribune des Échos, Charles Edouard Bouée,  président de Roland Berger, fait la part de ce qui relève réellement des avancés en matière d’intelligence artificielle et ce qui relève des gadgets car surtout destinés à valoriser artificiellement un produits et/ou  à attirer des capitaux.

 

«  La septicémie, qui représente une des premières causes de mortalité en milieu hospitalier, pourrait bientôt appartenir au passé. Comment ? Grâce à un algorithme d’intelligence artificielle capable de détecter, une demi-heure avant qu’elle ne survienne, une chute brutale de la pression artérielle très souvent indicatrice d’une infection du sang. Trente minutes suffisent à l’équipe soignante pour intervenir, sauver ainsi des milliers de vies et économiser des milliards de dollars. Une telle avancée est le fruit de la collaboration entre l’expert en intelligence artificielle Antoine Blondeau, fondateur de  Sentient Technologies, et les chercheurs du MIT . On est bien loin du buzz que des entreprises peu scrupuleuses font parfois, en estampillant « IA » des solutions technologiques qui pour certaines n’ont rien à voir avec l’intelligence artificielle, pour attirer les investisseurs et les clients. Après le « green washing », consistant à donner un vernis durable à des produits et des services qui ne le sont pas, l’« AI washing » nous promet monts et merveilles avec des solutions qui ne sont que des gadgets. C’est que derrière le succès actuel du terme « intelligence artificielle » – d’ailleurs choisi un peu par hasard en 1956 par John McCarthy, se cachent des technologies complexes : le « deep learning », qui permet la reconnaissance des objets et des mots, associé au « machine reasoning », qui permet d’élaborer des modèles prédictifs, les deux étant complétés par des algorithmes génétiques et des codes écrits par la machine elle-même. Si bien que le grand public a parfois du mal à comprendre les tenants et les aboutissants. D’où la difficulté à savoir ce qui relève vraiment de l’IA : de nombreux produits ou services qui disent reposer sur de l’intelligence artificielle, ne mobilisent en réalité que des logiciels d’automatisation basiques. Un autre mirage consiste à faire croire, en particulier aux chefs d’entreprises, que l’intelligence artificielle est toujours la réponse la plus adaptée pour accroître l’efficacité d’un processus. C’est loin d’être systématiquement le cas. Ainsi, lorsqu’on cherche une réponse à une question précise, les outils analytiques de Business Intelligence sont souvent plus pertinents. Mais label « IA » attire le chaland… et certains en abusent. Si, comme tous les eldorados, l’intelligence artificielle a ses charlatans, elle a aussi ses magiciens. Antoine Blondeau, Chris Boos, fondateur de la société Arago , Tomaso Poggio du MIT , Yann Le Cun de Facebook AI Research, Sean Tang, fondateur de SenseTime , Jürgen Schmidhuber du laboratoire suisse Idsia, Demis Hassabis de Deepmind … venus de tous les continents, ils travaillent ensemble autant dans les laboratoires, les universités que les entreprises. Ils forment une communauté d’experts capables de faire émerger un nouveau monde, sans bruit, loin des médias. On sait que l’intelligence artificielle sera la rupture technologique, sociale et économique des décennies à venir. Et il est certain que les prochaines licornes seront des entreprises d’intelligence artificielle. Mais la bataille ne se joue pas toujours où on le croit. Ni chez ceux qui en parlent beaucoup, ni forcément chez les GAFA ou leurs cousins chinois, les BAT. Les innovations véritables sont le fait de scientifiques et de techniciens qui n’aiment pas la lumière. Quant à ceux qui bluffent, en prétendant développer des solutions d’IA quand ce n’est pas le cas, ils pourraient bien être pris à leur propre piège. Car après DeepBlue aux échecs et Alphago au jeu de Go, le programme Libratus a envoyé au tapis, en janvier 2017, quatre joueurs de poker professionnels . En nous laissant face à ce constat vertigineux : l’intelligence artificielle sait donc bluffer, et intégrer le bluff des autres à sa propre stratégie ! Il ne lui reste plus qu’à apprendre à démasquer les bluffeurs. ».

 

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Un observatoire européen sur le blockchain

Un observatoire européen sur le  blockchain 

 

A question de l’intérêt du blockchain est complexe du fait de son principe de fonctionnement technique mais aussi du conflit qu’il génère chez certains acteurs notamment les banques commerciales mais aussi les banques centrales voire les Etats. Les avis des un et des autres sont parfois teintés d’un fort corporatisme. Par ailleurs certains condamnent sans réserve les cryptomonnaies comme le bitcoin au motif notamment qu’il favorise une super spéculation dangereuse. Ceci étant,  cet amalgame blockchain- crypto monnaie est peut-être excessif car la technologie blockchain peut servir à d’autres applications pour la gestion de flux d’informations. La blockchain est une technologie de stockage et de transmission de données, transparente et sécurisée. Elle fonctionne sans contrôle central et permet, en fonction de ses applications, de se passer des intermédiaires, par exemple les banques. Ses applications sont multiples, mais la plus connue est celle permettant la création de cryptomonnaies, tel le bitcoin, cette monnaie électronique immatérielle, réputée invulnérable aux attaques informatiques, qui n’appartient à aucun État. « Je considère la technologie du blockchain comme un changement fondamental et je veux que l’Europe soit à la pointe de son développement », a affirmé la commissaire chargée du dossier. « L’Europe ne peut pas se permettre de rater cette occasion« , a-t-elle ajouté lors d’une conférence de presse où elle a lancé un Observatoire-forum que l’UE veut consacrer au sujet. L’idée de cet observatoire, qui associera « les autorités publiques, les régulateurs, l’industrie » est « de suivre le potentiel de ces technologies et de voir quelles seront les répercussions, les risques et les opportunités pour l’UE« , a-t-elle expliqué. « Pour l’instant, nous n’allons pas réguler ce secteur, nous allons observer et voir comment nous pouvons apporter une certitude juridique« , a-t-elle poursuivi. L’UE dit s’attendre à ce que la technologie « transforme les modèles économiques dans divers secteurs comme les soins de santé, l’assurance, la finance, l’énergie, la logistique, la gestion des droits de propriété intellectuelle ou les services publics« . De nombreux banquiers, y compris centraux, ont exprimé leurs réserves sur la sulfureuse cryptomonnaie.

Fin des zones blanches

Fin des   zones blanches

Un nouvel accord a été conclu entre les quatre principaux opérateurs pour mettre fin aux zones blanches en matière de téléphonie. Ce n’est certes pas le premier accord de ce genre mais cette fois la promesse pourrait être tenue tellement la contradiction est grande entre les zones super-privilégiées et les véritables déserts. La couverture totale du territoire au moins pour la téléphonie voire pour Internet haut débit pourrait être assuré dans les trois ans. Objectif : en finir avec les « zones blanches », ces territoires privés d’Internet ou de réseaux mobiles de qualité. Emmanuel Macron l’avait déjà promis cet été, fixant pour la fin de l’année 2020 le « haut et très haut début » en France.   »Grâce à notre accord, il n’y aura plus de ‘zones blanches’, identifiées par les élus locaux, où des Français vivent sans avoir accès à une téléphonie de qualité », entérine ainsi Julien Denormandie, le secrétaire d’État. Concrètement, le secrétaire d’Etat assure que les opérateurs se sont engagés « à investir beaucoup plus et beaucoup plus vite dans les infrastructures, et ce sur une base contraignante ». Au total, « plus de 3 milliards » seront sur la table. « Nous allons faire en trois ans ce que nous avons fait jusqu’ici en quinze ans pour déployer la téléphonie mobile! », fait encore savoir Julien Denormandie, qui détaille dans le JDDce plan. Celui-ci va notamment amener « chaque opérateur à fournir 5.000 installations supplémentaires », qu’il s’agisse de pylônes ou d’antennes.

 

Téléphonie G5 : alternative au câble aux Etats-Unis

Téléphonie G5 : alternative au câble aux Etats-Unis

 

Comme on pouvait le prévoir le câble ne sera pas la seule solution pour accéder à Internet dans tous les territoires. On assistera sans doute au développement d’un mix reposant pour partie sur le câble mais aussi sur le satellite et sur la technologie 4G et surtout G5. Une technologie qui sera utilisée de manière mobile et même fixe aux États-Unis. Une évolution qui aura forcément des conséquences ailleurs en particulier en France empêtrée dans le financement couteux du câble Les deux leaders américains des télécoms, AT&T et Verizon, rivalisent d’annonces concernant leurs premiers déploiements de la prochaine génération de communication mobile. Aux Etats-Unis, les opérateurs se mobilisent déjà pour apporter dès que possible la 5G. Avec cette cinquième génération de communication mobile, qui promet des débits dix fois plus rapide qu’avec l’actuelle 4G tout en offrant une solution de choix pour l’Internet des objets, ils espèrent se démarquer et doper leurs revenus dans un marché des télécoms aussi mature que concurrentiel. La semaine dernière, quelques jours avant l’ouverture du CES de Las Vegas, le grand salon mondial de l’électronique grand public, AT&T, le numéro deux américain du mobile (33% de part de marché), a donné le ton. A l’en croire, des premiers services de 5G seront lancés « dans une douzaine de villes » d’ici à la fin de l’année. Dans un communiqué, l’industriel affirme que son « accélération » dans cette technologie est notamment rendue possible par l’adoption d’une première salve de normes, fin décembre, par le 3GPP, l’organisme qui fixe les standards des télécommunications mobiles. Même si les travaux de standardisation sont loin d’être achevés, et devraient se poursuivre jusqu’en 2019. « Maintenant que ces spécifications sont disponibles, les fabricants de matériels, de puces, et d’appareils peuvent commencer leurs développements », indique l’opérateur. AT&T se dit ainsi en mesure d’apporter et de commercialiser la 5G plus vite que ce qu’il avait initialement prévu. Même si les premières offres estampillées « 5G » n’en seront donc pas vraiment: elles comprendront seulement certaines de ses briques technologiques. Dans ce communiqué, Melissa Arnoldi, présidente d’AT&T Technology et Operations, se projette : « Nous allons rapidement déployer la 5G mobile cette année et commencer à proposer cette solution aux consommateurs et aux entreprises. Avec des vitesses plus rapides et une latence ultra-faible, la 5G va finalement délivrer et améliorer des expériences comme la réalité virtuelle, les futures voitures sans conducteur, la vidéo immersive 4K et plus encore. » Le grand rival d’AT&T aux Etats-Unis, Verizon (36% de part de marché), met lui-aussi les bouchées doubles dans la 5G. Il y a peu, l’opérateur a annoncé qu’il allait déployer un service de 5G à usage fixe dans quelques villes cette année. L’idée, ici, est de proposer une alternative au câble ou à la fibre optique pour se connecter en Internet à très haut débit la maison. L’objectif est de tester de nouvelles offres de manière localisées, avant, si elles fonctionnent correctement et séduisent les consommateurs, de songer à les généraliser. A côté des grands opérateurs américains, leurs homologues asiatiques, en particulier en Corée du Sud et au Japon, sont également très pressés d’apporter la 5G, perçue comme un de leurs principaux levier de croissance ces prochaines années. Voilà pourquoi Séoul et Tokyo ont depuis longtemps promis de proposer cette technologie cette année, à l’occasion des Jeux Olympiques. L’Union européenne, plus en retrait pour le moment, souhaite de son côté qu’au moins une grande ville de chaque état membre soit couverte en 5G en 2020. Soit l’année où, vraisemblablement, les vrais gros déploiements de cette technologie devraient débuter.

 

Les géants d’internet contre la suppression de la «neutralité du net»

Les géants d’internet contre la suppression de la «neutralité du net»

Curieusement, en tout cas en apparence, les grands de l’Internet, les GAFA,  s’opposent à la remise en cause de la neutralité du net. La contradiction n’est pourtant qu’apparente car les géants du net ne veulent surtout pas qu’on ouvre la porte aux réductions de débit et à l’augmentation des prestations de la part des fournisseurs  d’accès à Internet car les modifications d’accès seraient susceptibles de leur nuire (Orange par exemple est favorable !) .L’organisation Internet Association, qui compte parmi ses membres des géants comme Google, Facebook ou Microsoft, net». La Commission fédérale des communications (FCC), régulateur américain du secteur, s’est prononcée mi-décembre pour la fin de ce principe qui oblige les fournisseurs d’accès internet (FAI) à traiter tous les contenus en ligne de la même manière. Sans donner de détail, l’Internet Association a laissé entendre qu’elle interviendrait dans les recours que plusieurs procureurs devraient lancer prochainement, notamment dans les Etats de Washington et de New York. Michael Beckerman, président de l’organisation dont Amazon est également membre, a estimé que la décision de la FCC « va à l’encontre de la volonté d’une majorité bipartisane d’Américains et ne parvient pas à préserver un internet libre et ouvert ».

« Avec les groupes qui sont nos adhérents, (l’association) continuera à faire pression pour rétablir par voie législative des protections fortes et applicables pour la neutralité du net », a-t-il ajouté. Les partisans de la « neutralité » craignent que les FAI soient tentés de faire payer plus cher pour un débit plus rapide ou bloquent certains services leur faisant concurrence, comme la vidéo à la demande, la téléphonie par internet ou les moteurs de recherche.

Le débat sur le sujet, très vif, dure depuis une dizaine d’années aux Etats-Unis.

Internet : plusieurs vitesses inévitables avec la 5 G ?

Internet : plusieurs vitesses inévitables avec la 5 G ?

 

D’après Nathalie Chiche, présidente de Data Expert, la 5G sera le premier réseau mobile non-neutre.

 

« La neutralité d’internet est un des principes fondateurs de l’Internet car il repose sur son architecture originale. Dès le départ, Internet a été conçu pour être décentralisé, fiable, et ayant recours à un langage commun. Pour les non-spécialistes, Internet peut être représenté sous la forme d’une superposition de trois couches indépendantes, qui remplissent chacune une fonction différente. Cette distinction présente l’avantage de faciliter la compréhension des enjeux de la gouvernance d’internet qui révèlent d’une pluralité des acteurs et des problématiques dont celle de la neutralité.

  • la première couche est celle des infrastructures physiques (câbles sous-marins, fibre optique, …) qui permet le transport de l’information ;
  • la deuxième couche, la couche « logique », comprend les normes, langages communs, indispensable à une « interopérabilité » qui fait la cohérence et l’unicité du réseau ;
  • la troisième couche correspond aux contenus numériques produits et échangés sur internet.

En lui-même, l’internet est neutre

L’étanchéité entre ces différentes couches a pour effet de séparer les fonctions de transport et de traitement des informations (contenus). De fait, chaque entité connectée est placée sur un pied d’égalité. Car en lui-même, l’internet est neutre : il se contente de transporter les informations et les applications sans les modifier! Cette neutralité est essentielle car elle explique la solidité et le succès d’internet! Mais également la difficulté de la gouvernance de l’internet ou chaque intervenant doit théoriquement peser du même poids!

Le mobile comme nouvelle norme

Depuis 2016, c’est l’internet mobile qui est devenu la norme dans le monde. L’essor de la future la 5G ouvre un nouveau champ à l’expansion des usages de l’internet ce qui déclenche une discorde entre intervenants sur le réseau.

  • D’un côté, les opérateurs télécoms et fournisseurs d’accès à l’internet – les FAI- qui acheminent des données toujours plus volumineuses avec les innovations (IoT, IA, …) ; ils mettent l’accent sur la saturation de leurs infrastructures existantes, qui les obligent à prévoir une extension des infrastructures qui nécessitent de très lourds investissements comme la 5G.
  • De l’autre, les fournisseurs de contenus et d’applications, qui invoquent la nécessité de préserver la neutralité du net au nom des grands principes (rejoints par les associations de défense d’un internet « libre ») ; leur démarche est de conserver leurs positions financières et commerciales.

Ce débat n’est évidemment pas nouveau (Litige entre Free et Google) et pose à nouveau la question « qui paie quoi? » pour chaque intervenant :

  • Est-ce aux opérateurs (comme Orange) d’assumer l’intégralité des coûts d’acheminement du trafic vers les fournisseurs de services?
  • Est-ce aux fournisseurs de contenus, les fameux « GAFA», qui sont de très gros consommateurs de bande passante, de mettre la main au portefeuille?
  • Est-ce aux internautes d’en supporter pour partie le coût au travers d’une large gamme d’abonnements possibles et suivre l’exemple présent des FAI américains?

La question vient d’être tranchée par Stéphane Richard [PDG d'Orange], à la tête du plus important opérateur fixe et mobile de France qui admet que « la fin de la neutralité de l’internet est une obligation » et évoque dans un futur proche un internet à plusieurs vitesses…

Même si le principe de neutralité est inscrit dans la loi Lemaire du 7 octobre 2016, force est de constater que le réseau 5G disponible en 2022 pourra s’adapter en fonction des besoins de chaque application; la 5G sera par nature le premier réseau mobile non-neutre.

Ainsi, si nous voulons que notre fleuron Orange soit LE champion européen de la 5G (qui est en cours de standardisation), il faudra sans doute se résoudre à accepter que ce nouveau réseau mobile 5G sera difficilement compatible avec notre réglementation française et européenne… »

 

Accés internet : la France en 44ème position

Accés internet : la France en 44ème position

D’après un article de Numerama, au vue des  statistiques compilées par Akamai auprès de centaines de millions d’adresses IP, la France est l’un des pires pays de la région EMEA (Europe, Moyen-Orient, Afrique) en terme de débits à internet sur les lignes fixes. Surtout, elle ne progresse pas plus vite que les autres pour rattraper son retard.

La société Akamai spécialisée dans la fourniture de serveurs de cache (CDN) a publié son rapport State Of The Internet (.pdf)  pour le quatrième trimestre 2015, qui montre que la France a toujours bien du mal à rattraper son retard en matière de vitesse d’accès à internet.

Au niveau mondial, la France se classe au 44e rang des débits moyens effectivement proposés par les fournisseurs d’accès, et parmi les derniers dans la zone EMEA (Europe, Moyen-Orient, Afrique), telle qu’étudiée par Akamai. (La situation ne s’est pas améliorée en 2017 puisque la France se retrouve 53 ème !).  La société dont les services sont extrêmement répandus mesure les vitesses moyennes de transferts de données, calculées avec l’ensemble des centaines de millions d’adresses IP avec lesquelles elle doit communiquer dans le monde. Selon le tableau ci-dessous, la vitesse moyenne de connexion en France serait de 8,9 Mbps, très loin du champion européen, la Suède, dont les internautes jouissent d’une connexion moyenne de 19,1 Mbps. Si ce n’est l’Italie, aucun des pays de l’Union européenne retenus par Akamai fait pire. Et la géographie n’est pas une excuse, puisque l’Allemagne fait aussi bien mieux (12,9 Mbps), avec un territoire d’étendue et de densité équivalentes. Par ailleurs même si la France progresse, avec un débit moyen qui a augmenté de 26 % en un an, cette progression reste inférieure à celle de nombreux voisins. Sur les 25 pays de la zone EMA listés par Akamai, 17 vont plus vite que la France dans l’augmentation du débit moyen.

Monde Pays Q4 2015 QoQ YoY
Rang Moy. Mbps Variation Variation
2 Suède 19.1 9.3 % 30 %
3 Norvège 18.8 14 % 65 %
5 Pays-Bas 17.0 8.7 % 20 %
8 Suisse 16.7 2.8 % 15 %
9 Finlande 16.6 12 % 37 %
10 Danemark 16.1 15 % 36 %
11 République Tchèque 15.9 9.2 % 29 %
15 Belgique 14.2 11 % 31 %
17 Royaume-Uni 13.9 6.8 % 27 %
19 Roumanie 13.2 0.9 % 14 %
22 Allemagne 12.9 12 % 46 %
23 Irlande 12.8 2.7 % 0.7 %
24 Hongrie 12.6 19 % 45 %
25 Slovaquie 12.5 12 % 53 %
27 Autriche 12.3 8.4 % 26 %
29 Portugal 12.1 14 % 51 %
30 Espagne 12.1 17 % 48 %
32 Israël 11.6 3.8 % 9.2 %
33 Russie 11.6 14 % 30 %
36 Pologne 11.0 3.9 % 25 %
44 France 8.9 9.4 % 26 %
51 Italie 7.4 14 % 33 %
53 Emirats Arabes Unis 6.9 2.2 % 21 %
63 Turquie 6.3 0.8 % 8.9 %
90 Afrique du Sud 4.1 11 % 26 %

Outre le débit moyen par connexion à internet, Akamai mesure également la « moyenne des pics de vitesses de connexion ». Il s’agit, pour chaque adresse IP connue, de retenir la vitesse la plus haute constatée, et de réaliser une moyenne de l’ensemble de ces valeurs. Sur ce tableau, la France fait encore pire, en se classant au 53e rang mondial, avec une moyenne à 43,2 Mbps.Mais cette fois-ci, grâce aux montées en charge de la fibre optique, la moyenne de la France progresse bien plus vite que la plupart des autres pays de la zone EMEA, avec 37 % de progression sur un an. C’est la Roumanie qui est au sommet, avec une vitesse de pic moyenne enregistrée à 73,6 Mbps.

Enfin, il serait faux de prétendre que la France est plus égalitaire que les autres. Car 22 % des foyers français ont encore accès à moins de 4 Mbps, ce qui fait encore d’elle une des pires élèves de la zone EMEA. Quant aux connexions supérieures à 10 Mbps, elles ne concernent que 24 % des Français, très loin derrière les 64 % de néerlandais (petit pays aidant), ou même les 43 % d’Allemands.

Monde Pays  % Moyenne QoQ YoY
Rang   > 10 Mbps Variation Variation
2 Pays-Bas 64 % 8.1 % 16 %
4 Suisse 62 % 2.6 % 10 %
5 Norvège 62 % 15 % 75 %
7 Belgique 61 % 16 % 41 %
8 Danemark 60 % 18 % 36 %
9 Suède 60 % 7.6 % 28 %
11 Finlande 57 % 12 % 45 %
15 Roumanie 53 % -6.8 % -2.7 %
17 République Tchèque 51 % 11 % 24 %
18 Royaume-Uni 50 % 8.6 % 32 %
21 Hongrie 48 % 32 % 73 %
23 Russie 46 % 22 % 58 %
25 Portugal 43 % 16 % 75 %
26 Allemagne 43 % 15 % 79 %
28 Espagne 42 % 23 % 87 %
29 Irlande 41 % 0.9 % 25 %
31 Israël 39 % 5.8 % -4.9 %
32 Autriche 38 % 15 % 43 %
34 Pologne 36 % 5.6 % 37 %
36 Slovaquie 33 % 17 % 64 %
43 France 24 % 16 % 58 %
53 Italie 14 % 50 % 142 %
55 Emirats Arabes Unis 11 % 18 % 24 %
61 Turquie 8.4 % 9.4 % -7.1 %
66 Afrique du Sud 3.8 % 29 % 44 %

Selon le plan France Très Haut Débit (France THD), l’intégralité du territoire doit être couverte en THD (30 Mbps ou plus) d’ici 2022, et 50 % des foyers d’ici… 2017. Pour savoir quels débits sont disponibles près de chez vous, la mission France THD a mis en ligne un Observatoire, qui permet de consulter la cartographie précise des débits accessibles,à par technologies (DSL, câble, fibre optique FttH…).

Elle permet également de suivre les déploiements engagés. Mais on y trouve de véritables déserts, à l’image de la Bretagne (aucun plan référencé), ou de la PACA.

La neutralité du net existe en France ?

La neutralité du net existe en France ?

 

Théoriquement la France défend  principe fondateur de la neutralité du net. Officiellement donc tous les Français ont accès aux informations à la même vitesse. Un principe toutefois bien théorique dans la mesure où certaines zones ne sont pas couvertes, d’autres couvertes de manière épisodique. Sans parler des différences de configurations techniques des ordinateurs et des systèmes. Pour bénéficier réellement de la vitesse théorique, il faudrait sans doute changer ordinateur système et logiciel tous les deux ans. La discrimination n’est  donc pas seulement technique, elle est aussi économique. Par ailleurs,  il est clair que le câble ne pourra atteindre que les zones denses et que les autres devront se contenter d’une autre technologie soit par satellite, soit par la 4G ou 5G. « La France continuera à promouvoir le principe de neutralité du net, en Europe et dans le monde ». Affirme cependant le secrétaire d’État auprès du Premier ministre chargé du Numérique, Mounir Mahjoubi. Ce dernier a choisi Twitter comme moyen d’expression. Un avis partagé par la ministre de la Culture, François Nyssen, rejoint les propos du secrétaire d’État : « Pour la promotion du principe de neutralité du net qui est garant de la liberté d’expression, de la liberté de création, du pluralisme des médias », a-t-elle écrit sur son compte. P Mais pour autant, le débat est loin d’être clos. La pression pourrait venir de certains fournisseurs. C’est le cas d’Orange lorsqu’on évoque la possibilité d’un internet à deux vitesses. « C’est une obligation, a assuré le PDG, Stéphane Richard cette semaine sur le plateau de BFM Business. Ce débat est pollué par des considérations politiques. Quand on parle de ‘neutralité du net’, on voit la main des opérateurs qui tout de suite viendrait fouiller les contenus et faire un tri entre les contenus. Ce n’est pas du tout ça les sujets. Dans les usages futurs d’internet, il y a des usages de l’internet des objets, la voiture autonome par exemple, qui vont nécessiter des internets particuliers en termes de latence, de vitesse. Il faudra qu’on soit capable de proposer à l’industrie des services internet avec des fonctionnalités et puissances différentes. Pour cela, il faut qu’on nous laisse le faire ». Prémisse d’un nouveau – et âpre – débat ?

Vers un internet à plusieurs vitesses

Vers un internet à plusieurs vitesses

 

Un changement fondamental aux États-Unis et qui risque de contaminer le monde entier à savoir l’inégalité de traitement de l’information sur Internet. Il n’y aurait plus ce qu’on appelle la  neutralité du net qui contraint les fournisseurs d’accès Internet (FAI) à traiter tous les contenus en ligne à la même vitesse. Désormais les États-Unis proposent de faire évoluer la vitesse de débit en fonction de la nature des contenus. Le problème c’est que les fournisseurs d’accès à Internet constituent des oligopoles qui imposent leur stratégie au monde entier. La différenciation des contenus va constituer une inégalité scandaleuse. Les fournisseurs d’accès vont évidemment privilégier des contenus politiquement corrects et surtout qui rapporte le plus tandis que d’autres sources ne seront que difficilement accessibles. Ou alors il faudra payer avoir accès à la plus haute vitesse certains experts pensent  qu’on s’oriente vers un Internet à deux vitesses. En réalité ce pourrait être pire à savoir un Internet à plusieurs vitesses qui en faites va constituer un mode de régulation de l’accès aux contenus. Un moyen pour les GAFA d’imposer encore plus leur hégémonie. Les partisans de la « neutralité » craignent de leur coté que les FAI soient tentés de faire payer plus cher pour un débit plus rapide, ou bloquent certains services leur faisant concurrence, comme la vidéo à la demande, la téléphonie par internet ou les moteurs de recherche. Avec cette décision, « nous restaurons la liberté d’internet » et « nous aidons les consommateurs et la concurrence », a déclaré le président de la FCC Ajit Pai devant la commission, juste avant le vote. Cette décision « ne va pas tuer la démocratie » ni signifier « la fin de l’internet tel que nous le connaissons », a-t-il ajouté, faisant allusion aux arguments des tenants de la neutralité. La FCC « donne les clés de l’internet » à « une poignée d’entreprises multimilliardaires », a regretté pour sa part Mignon Clyburn, membre de la FCC qui a voté contre la décision. Le débat sur la « neutralité du net », très vif, dure depuis une dizaine d’années aux Etats-Unis. Une centaine de défenseurs de ce principe ont manifesté jeudi matin devant le siège de la FCC, installant un mini-mausolée à la mémoire de l’internet « comme on l’a toujours connu ».

 

 

Fracture numérique : le câble, G4-5 ou le satellite ?

Fracture numérique : le câble, G4-5 ou le satellite ?

Réduire la fracture numérique et offrir le « très haut débit » (au moins 30 mégabits par seconde) en 2022, sur l’ensemble du territoire paraît assez illusoire avec le seul câble. Du coup,   Macron à évoqué un amalgame entre haut débit qui peut être assuré par satellite et très haut débit qui sera couvert par le plan câble. Le plan câble qui se révèle de plus en plus coûteux et qui de toute façon ne pourra atteindre tous les usagers des télécoms. Il est évident que ces nouvelles modalités de couverture sont certainement plus compatibles avec les possibilités techniques et financières. Par ailleurs les évolutions technologiques risquent peut-être de rendre caduque le très coûteux plan câble par ailleurs essentiellement rentable dans les zones très denses. Notons que cette évolution est aussi sans doute plus compatible avec les possibilités des collectivités locales d’autant qu’elles sont déjà lourdement endettées.  Emmanuel Macron n’a pas seulement avancé sa date butoir de deux ans. Pour atteindre son objectif, il parle désormais d’accès «haut débit et très haut débit». Des lignes inférieures à 30 mégabits par seconde pourraient seconder la couverture en très haut débit dans certaines zones. Le président de la République a ainsi appelé à «envisager les complémentarités technologiques» entre la fibre optique, le mobile et en particulier l’Internet mobile ou le satellite, jugeant «impossible de tenir la promesse de tirer de la fibre dans tous les logements de la République». «Cette promesse est intenable technologiquement et financièrement», a-t-il insisté. Or, la France est quasi intégralement couverte aujourd’hui par le haut débit ADSL, avec près de 30 millions de lignes cuivre. Les 2 millions de foyers restant peuvent passer par des offres satellitaires. On peut donc considérer que cette partie de la promesse fixée par Emmanuel Macron est quasi tenue, si l’Internet mobile vient en renfort. À l’inverse, il n’y a que 16 millions de logements éligibles à de l’Internet très haut débit, de plus de 30 mégabits. Dont 12 millions qui peuvent bénéficier d’une vitesse de téléchargement de plus de 100 mégabits par seconde. Le chantier était déjà colossal pour aboutir à 100% de la population couverte en 2022, tel qu’envisagé jusqu’alors, en particulier dans les villes de tailles moyennes et dans les zones rurales. Il nécessiterait 15 à 16 milliards d’euros d’investissement, soit environ 5 milliards d’euros par an durant d’ici à la fin 2020, c’est-à-dire pas loin de ce que l’ensemble des opérateurs investissent tous les ans. Un chiffre par ailleurs très largement sous-évalué en effet le montant de l’investissement pourrait en réalité atteindre facilement le double De ce fait,  le gouvernement devrait choisir le satellite pour permettre à certains foyers d’accéder au très haut débit, Orange souhaite que tous les acteurs des télécoms – dont ses rivaux SFR, Bouygues Telecom et Free – se mettent autour de la table. L’idée serait, par exemple, de lancer un Réseau d’initiative publique (RIP) satellite. Celui-ci serait façonné sur le modèle des RIP de fibre optique actuellement en déploiement dans toute la France. Ceux-ci permettent aux collectivités de bâtir, avec l’aide financière de l’État, des réseaux Internet fixe dernier cri et ouverts à tous les opérateurs dans les zones les moins peuplées de l’Hexagone. Avec un tel RIP satellite, Orange, mais aussi SFR, Bouygues Telecom et Free seraient pourraient ainsi proposer leurs offres à tous les villages et hameaux concernés.

La 5G avant le câble ?

La 5G avant le câble ?

 

La 5G pourrait bien ringardiser le câble  (et bien sûr les autres liaisons fixes) dont développement  ne cesse de prendre du retard et qui de toute façon n’atteindra que les zones denses en raison de son coût. Cela d’autant plus que le président d’Orange vient d’annoncer le développement de la 5G à partir de 2020 ; Lancée en 2014, la 4G est encore loin de s’être démocratisée. Pourtant, les opérateurs télécoms voient déjà plus loin, avec la 5G, la cinquième génération de réseaux mobiles.  Le Metis 2020 (en anglais), un consortium d’acteurs du secteur des télécoms, soutenu par l’UE, a déjà défini les grands principes de ce futur réseau. Le service sera « incroyablement rapide » (PDF en anglais), promet-on, avec des débits espérés jusqu’à 10 Gb/s, soit 100 fois plus que la 4G. Avec une telle vitesse, vous pourrez par exemple télécharger une heure de vidéo haute définition en six petites secondes, calculent Les Echos. Sauf que ce n’est pas le plus important, assure à francetv info Nicolas Demassieux, directeur d’Orange Labs Recherche :  »Dans la 4G, on a déjà ce qu’il faut pour améliorer les débits, il y en a sous le capot. » La technologie n’est pas pour tout de suite, mais pour l’horizon 2020. A cette date, on n’aura pas seulement  »quelques milliards de smartphones », estime Nicolas Demassieux, mais « 50 à 200 milliards d’objets connectés » auxquels il faudra fournir une connexion sans fil rapide et fiable. Les opérateurs se préparent à un monde où la voiture sera autonome, où l’électroménager sera intelligent et où la maison sera entièrement contrôlable à distance, comme le montre cette vidéo d’anticipation, réalisée pour France Télévisions par l’entreprise Siradel, spécialisée dans les modèles de conception des réseaux numériques mobiles. Tout cela « change la nature du réseau », explique Nicolas Demassieux : la 5G devra absorber la demande de ces objets qui, contrairement aux smartphones, seront peu gourmands en débit et en consommation, détaille-t-il. Le réseau devra « être intelligent et capable de gérer des demandes aussi différentes que celles de terminaux comme les smartphones et les frigidaires connectés, par exemple », précise au Monde Jean-Luc Beylat, président des laboratoires de recherche d’Alcatel-Lucent. Les spécialistes travaillent aussi sur la réduction du  »temps de latence », le délai qui s’écoule entre l’envoi des données et leur réception.  »Si vous voulez par exemple allumer un feu rouge et le piloter à travers le réseau, il faut une fiabilité et une garantie de temps réel », commente Nicolas Demassieux. Ce qui, précise-t-il, n’est pas prévu dans la technologie 4G. Effectivement, le réseau 4G est encore loin d’être déployé sur tout le territoire français : premier sur ce créneau, Bouygues Telecom ne couvre à l’heure actuelle que 69% de la population dans l’Hexagone. Mais justement, les géants des télécoms promettent de pallier ces inégalités géographiques avec la 5G. « L’internet sera comme l’air qu’on respire, prédit Nicolas Demassieux. On aura un usage tellement quotidien du haut débit qu’on ne pourra plus se permettre des moments où on est moins bien connecté. » Autrement dit, plus que la vitesse, le progrès de la 5G serait à chercher du côté de l’homogénéité du réseau, décrypte Le Monde.

Sondage Internet : méfiance des Français sur leur vie privée

 

 

 

D’après une  étudeOpinionWay réalisée pour VMWare. , les Français se méfient d’internet quant il s’agit de données concernant leur vie privée.  Si les Français admettent volontiers que certains secteurs, comme l’automobile (37%), la finance (26%) ou la santé (24%), vont gagner en efficacité grâce aux nouvelles technologies, ils ne sont pas enclins à livrer leurs données personnelles pour améliorer les algorithmes des intelligences artificielles. Ils acceptent tout juste dévoiler de leur parcours professionnel (47%) ou leurs habitudes de consommation (49%). Mais ils sont majoritairement défavorables aux partages d’informations plus sensibles comme les données financières (70%), l’historique de leur téléphone (68%), les antécédents familiaux (66%), l’historique des recherches sur Internet (66%) ou les données médicales (63%). Ils sont même très partagés sur les données de géocalisation avec 54% de personnes qui n’y sont pas favorables. Le manque de confiance dans la protection des données personnelles constitue un frein pour l’usage d’internet, selon le baromètre du numérique présenté lundi par l’Autorité de régulation des télécoms (Arcep), le Conseil général de l’économie (CGE) et l’Agence du numérique.  Cette étude relève qu’un Français sur trois est vigilant sur cette question, les 18-24 ans étant les plus inquiets à ce sujet (40%). Les internautes se montrent plus vigilants dans leurs usages de l’internet. 69% d’entre eux ont par exemple renoncé à installer une application afin de protéger leurs données personnelles et 34% ont pris des dispositions en souscrivant à un service de sécurisation des paiements en ligne.

 

 

 

* Étude OpinionWay réalisée auprès d’un échantillon de 1005 personnes représentatif de la population française âgée de 18 ans et plus. L’échantillon a été constitué selon la méthode des quotas, selon des critères de sexe, d’âge, de résidence, de catégorie socioprofessionnelle, d’agglomération ou de région de résidence.

Mobiles 4G : la France en retard

Mobiles  4G : la France en retard

Alors qu’on parle surtout du câble pour rattraper le retard de la France en matière de numérique, bon nombre de localités sont encore à espérer des relations par mobile satisfaisante (téléphone et internet). De toute manière il est clair que le câble ne pourra desservir que les zones très denses et que les résidents des autres territoires devront se satisfaire de la 4G en attendant la 5G. Selon une étude publiée récemment par la société britannique OpenSignal, spécialiste des cartes de couverture mobile, l’Hexagone reste un mauvais élève, au niveau mondial, concernant la 4G. La France échoue à une piètre 65ème place en matière de « disponibilité » de cette technologie mobile – un indicateur maison qui mesure le temps moyen pendant lequel les utilisateurs accèdent à la 4G. Avec un score de 62,51%, l’Hexagone se situe par exemple derrière le Cambodge (68,95%), la Grèce (71,15%) ou l’Inde (84,03%). Sachant que ce classement est logiquement dominé par la Corée du Sud (96,69%) et le Japon (84,11%), qui ont déployé à toute vitesse le très haut débit mobile ces dernières années.  Côté débit moyen en 4G, la France n’est guère mieux lotie. Avec 22,66 Mb/s, elle se situe à une peu reluisante 35ème place. C’est moins bien, par exemple, que l’Equateur (26 Mb/s), la Croatie (27,94 Mb/s) ou la Bulgarie (33,6 Mb/s). Sachant que ce classement est ici dominé par le trio Singapour (46,64 Mb/s), Corée du Sud (45,85 Mb/s) et Norvège (42,03 Mb/s). Ces résultats viennent, quoi qu’il en soit, appuyer la volonté du gouvernement d’accélérer sensiblement la couverture en 4G du territoire. A ce jour, il resterait au moins 550 hameaux et villages où le mobile ne passe toujours pas, sans compter celles ou la connexion ne passe qu’épisodiquement.

Zones blanches : du mieux mais dans les centre-bourgs

Zones blanches : du mieux mais dans les centre-bourgs

D’après le lobby des télécoms la couverture s’améliore pour les mobiles notamment en montagne. Observons cependant que ces améliorations visent surtout les centre-bourgs. Autant dire qu’au-delà de la zone agglomérée c’est toujours un peu le désert. D’après le lobby du secteur, Orange, SFR, Bouygues Telecom et Free ont respecté les engagements pris l’an dernier concernant la couverture mobile des zones de montagne. « Ainsi, au 30 septembre 2017, 3.291 communes du programme ‘Zones blanches – Centres-bourgs’ bénéficiaient de la 3G mutualisée dont 1.257 communes de montagne », s’est félicité l’organisation dans un communiqué la semaine dernière. Surtout, 673 de ces communes ont été couvertes « en 9 mois, entre octobre 2016 et juin 2017 », précise-t-elle. Aux yeux de la FFT, il s’agit donc d’une « accélération significative ». Ce qui prouve, selon ses responsables, que les Orange, SFR, Bouygues Telecom et Free, malgré les critiques de nombreux élus locaux, respectent bien la feuille de route fixée par les pouvoirs publics. Concernant le très haut débit mobile, la FTT affirme que « 3.837 sites 4G étaient activés en zone de montagne au 30 septembre 2017, dont 1.193 sites ouverts au cours des six mois derniers ». A noter que ces chiffres concernent Orange, Bouygues Telecom et SFR. Free n’est pas ici comptabilisé car l’opérateur de Xavier Niel n’est pas membre de la fédération. E son coté,  l’Arcep. régulateur des télécoms avait estimé que les opérateurs avaient bien respecté leurs engagements en matière de couverture mobile des zones blanches. L’autorité avait indiqué que 92% des centre-bourgs situés jusqu’ici en zone blanche étaient désormais couverts en voix et texte, mais également en Internet mobile 3G. Elle avait précisé que les 8% restants correspondaient aux communes où les travaux d’aménagement de pylônes par les pouvoirs publics n’avaient pas encore été réalisés.

1...5152535455...59



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol