Archive pour la Catégorie 'nouvelles technologies'

Intelligence artificielle : les limites

Intelligence artificielle : les limites

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« Omniprésente cette année au salon South by Southwest, l’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La manipulation des algorithmes de Facebook pour influencer l’opinion

Jennifer Grygiel, Professeure en information-communication à l’Université de Syracuse , décrypte les manipulations des algorithmes de Facebook pour orienter l’information.

« L’algorithme du fil d’actualités de Facebook détermine ce que les utilisateurs voient sur la plateforme – des memes amusants aux commentaires d’amis. La société met régulièrement à jour cet algorithme, ce qui peut considérablement modifier les informations consommées.

À l’approche des élections de 2020, l’opinion publique craint qu’il n’y ait de nouveau une « ingérence de la Russie», à l’instar de l’élection présidentielle de 2016. Mais ce qui n’attire pas assez l’attention, c’est le rôle que jouent les modifications de l’algorithme de Facebook, intentionnellement ou non, dans ce genre d’ingérence.

Un contrepoint essentiel à la campagne de désinformation en Russie a été le journalisme factuel de sources fiables - qui a touché nombre de leurs lecteurs sur Facebook et d’autres plateformes de médias sociaux. En tant que chercheur et enseignant en médias sociaux, je constate que les modifications apportées à l’algorithme du fil d’actualités de Facebook ont ​​supprimé l’accès des utilisateurs à un journalisme crédible dans la perspective de l’élection de Donald Trump.

Les acteurs politiques savent que Facebook joue un rôle de gatekeeper de l’accès à l’information de plus de 200 millions d’Américains et de deux milliards d’utilisateurs dans le monde. Les actions et les abus perpétrés sur les plateformes ont suscité beaucoup d’inquiétude et de débats publics, notamment sur la quantité de désinformation et de propagande que les Américains ont vue avant les élections. On n’a pas suffisamment parlé de l’effet des changements algorithmiques de Facebook sur l’accès aux informations et la démocratie.

Changer le système

À la mi-2015, Facebook a introduit un changement d’algorithme majeur qui a favorisé les contenus partagés par les amis des utilisateurs plutôt que ceux des médias et des journalistes. Facebook a expliqué que ce changement avait pour vocation d’assurer aux utilisateurs de ne pas manquer les histoires de leurs amis. Mais les données ont montré que l’un des effets de ce changement a été de réduire le nombre d’interactions entre les utilisateurs de Facebook et les médias crédibles.

Quelques mois avant les élections de 2016, un changement d’algorithme encore plus important visant les posts d’amis et des membres de la famille a eu un deuxième impact négatif sur le trafic des éditeurs. Un grand nombre d’éditeurs de presse ont constaté que leur contenu était nettement moins visible pour les utilisateurs de Facebook.

 

Dans mes recherches, je me suis concentrée sur l’engagement sur Facebook auprès des principaux médias lors de l’élection de 2016. Mes conclusions confortent celles des autres : l’algorithme de Facebook a fortement réfréné l’engagement du public auprès de ces éditeurs.

Les données de CrowdTangle, une société de veille des médias sociaux, montrent que le trafic sur Facebook a sensiblement diminué chez CNN, ABC, NBC, CBS, Fox News, le New York Times et le Washington Post après que la société a mis à jour ses algorithmes pour favoriser les amis et la famille en juin 2016.

Cela prouve que l’algorithme a fonctionné conformément à la manière dont il avait été conçu, mais je crains que ce ne soit pas le cas pour les grands éditeurs américains. L’intérêt des électeurs pour l’élection présidentielle était plus élevé en 2016 que dans les deux décennies précédentes et la désinformation était généralisée. Les changements apportés par Facebook ont ​​rendu plus difficile la communication des informations crédibles liées à l’élection des principaux organes de presse reflétant l’ensemble du spectre politique.

Facebook était au courant des problèmes de son algorithme avant même la tenue des élections. Un des ingénieurs de Facebook a signalé ces effets potentiels des modifications de l’algorithme de Facebook en juillet 2015. Trois mois plus tard, le mentor de Mark Zuckerberg, Roger McNamee, tentait également d’alerter Mark Zuckerberg et les dirigeants de Facebook que la plateforme était utilisée pour manipuler des informations concernant les élections.

Juste après les élections, les recherches du journaliste de BuzzFeed Craig Silverman ont montré que les fausses informations électorales avaient sur performé par rapport aux « vraies informations ». Fin 2018, une déclaration officielle de Facebook révélait des problèmes quant à la manière dont son algorithme récompensait un «contenu limite» sensationnel et provocateur, comme beaucoup d’informations hyper-partisanes qui émergeaient avant les élections.

Des recherches plus récentes menées par le Shorenstein Center de Harvard ont montré que le trafic de Facebook a continué de diminuer de manière significative pour les éditeurs après le changement d’algorithme de Facebook en janvier 2018.

 

À ce jour, les recherches sur le fonctionnement de l’algorithme de Facebook ont ​​été limitées par le manque d’accès à son fonctionnement interne exclusif. Il ne suffit pas d’enquêter sur les effets des modifications apportées au fil d’actualités de Facebook. Je pense qu’il est important de comprendre pourquoi cela s’est passé et d’examiner plus directement les décisions commerciales de Facebook et leur incidence sur la démocratie.

Un aperçu récent des processus internes de l’entreprise montre que Facebook commence à comprendre l’étendue de son pouvoir. En juillet 2019, Bloomberg News a révélé que la société avait déployé des logiciels sur sa propre plateforme afin de rechercher des messages décrivant Facebook lui-même de manière potentiellement trompeuse, réduisant ainsi leur visibilité afin de préserver la réputation de la société.

Certains juristes internationaux ont commencé à demander des lois pour protéger les démocraties contre la possibilité que la manipulation algorithmique puisse générer des victoires électorales. Il n’existe aucune preuve que les changements de Facebook avaient des intentions politiques, mais il n’est pas difficile d’imaginer que la société pourrait modifier ses algorithmes à l’avenir si elle le souhaitait.

Pour se prémunir contre ce risque, de nouvelles lois pourraient interdire toute modification de l’algorithme au cours des périodes précédant les élections. Dans le secteur financier, par exemple, des « périodes de calme » précédant les annonces importantes d’entreprises visent à empêcher les efforts de marketing et de relations publiques d’influencer artificiellement le prix des actions.

Des protections similaires pour les algorithmes contre les manipulations des entreprises pourraient aider à s’assurer que les dirigeants de Facebook politiquement actifs et à la recherche de pouvoir- ou de toute autre société ayant un contrôle important sur l’accès des utilisateurs à l’information – ne peuvent pas utiliser leurs systèmes pour façonner l’opinion publique ou le comportement de vote.

 

Billet originellement publié en anglais sur The Conversation et republié sur Méta-Media avec autorisation. Version également disponible en français sur The Conversation.

 

 

 

La 4G en retard chez les ploucs et la 5 G pour dans 30 ans

La 4G en retard chez les ploucs et la 5 G pour dans 30 ans

 

Au moment où on annonce à grand renfort de com.  Le développement généralisé de la 5g  -et par ailleurs du câble-, on s’aperçoit en fait que certaines zones ne sont pas couvertes par la 4G (certains ne reçoivent même pas la 3G dans des conditions satisfaisantes). Exemple quand on revoit un SMS le lendemenain de son émission ! Les opérateurs ne respectent pas leurs engagements . La couverture des zones blanches et des axes de transports, prévue dans le cadre de l’accord passé entre l’État et les opérateurs début 2018, ne va pas suffisamment vite et risque de ne pas être à la hauteur des engagements pris par les opérateurs en échange du renouvellement à titre gracieux de plusieurs fréquences accordées il y a 20 ans, selon l’ARCEP. Les mêmes retards seront constatés pour la 5G. Une 5G qui pourraiat même ne jamais atteindre les zones peu denses au profit dune technologie moins puissante ou d’une 4G améliorée ;

En effet y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  haut débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

Le « numérique », quelles définitions et quelles conséquences ?

Le « numérique », quelles définitions et quelles conséquences ?

 

Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal  s’interroge dans la tribune sur la définition générale du numérique et surtout sur ses usages. Une analyse intéressante mais qui est loin d’être exhaustive. «

 

« Nous  parlons de plus en plus de « numérique » en substantivant un adjectif qui – initialement – comporte une signification technique précise et qui devient désormais davantage un phénomène culturel qu’une notion liée à des outils technologiques particuliers. Cette universalisation du numérique nous permet de comprendre des changements qui affectent l’ensemble de notre société et notre façon de penser, comme l’a bien expliqué notamment Milad Doueihi par son concept de « culture numérique ».

Cet usage pose pourtant un problème majeur : nous avons de plus en plus tendance à penser « le numérique » comme un phénomène uniforme et homogène (sur ce sujet, il est intéressant de lire le débat entre Morozov et Johnson) alors que, de toute évidence, il ne l’est pas. « Le » numérique n’existe pas en tant que tel. Il existe de nombreuses pratiques, usages, outils et environnements différents, chacun fondé sur des principes particuliers, chacun promouvant des valeurs spécifiques et entraînant des conséquences caractéristiques.

Le fait de penser « le numérique » comme un tout nous amène souvent à exprimer des jugements de valeur qui font abstraction des caractéristiques propres à des outils ou pratiques distincts : inévitablement donc, le jugement se radicalise, s’uniformise, se généralise en perdant tout son sens et sa cohérence vis-à-vis du particulier. « Le numérique » devient ainsi tantôt synonyme d’émancipation et de liberté, tantôt synonyme de contrôle et d’assujettissement : en somme, le numérique est bien ou le numérique est mal. D’un côté les technoptimistes, de l’autre les technophobes.

Les modes changent : nous sommes passés d’un technoptimisme généralisé à une technophobie universelle. Dans les années 1990, le discours des optimistes semblait prévaloir : de la déclaration de l’indépendance du cyberespace de John Perry Barlow aux discours d’émancipation transhumanistes, en passant pas les merveilles de la virtualisation.

Depuis quelques années, il semblerait que la mode ait changé : il faut être critique vis-à-vis du numérique. Les grands gourous du numérique sont les premiers à le blâmer : de Bill Gates à Tim Berners-Lee, en passant par Jimmy Wales… Le discours critique est aussi porté par les intellectuels - Morozov est devenu le porte-drapeau de ce mouvement, avec des arguments que je partage dans l’ensemble – ou des universitaires. Des critiques philosophiques approfondies ont été développées, consacrées à des phénomènes particuliers – je pense en premier lieu à la fine analyse que Gérard Wormser propose de Facebook.

Il me semble cependant nécessaire de différencier – et ainsi d’identifier – les aspects du « fait numérique » qui peuvent et doivent nous faire peur. Bien que j’ai toujours rejeté cette opposition entre optimistes et technophobes, je conserve néanmoins une préférence pour les optimistes – encore aujourd’hui alors que cette posture est passée de mode. J’ai tendance à être en accord avec les analyses de Pierre Lévy qui soulignent le fait toujours d’actualité que plusieurs idéaux utopistes, qui portaient le développement informatique dans les années 1990, sont encore présents et en vigueur. Cependant, dans les dernières années – probablement aussi du fait que je suis devenu le père de deux enfants -, je suis de plus en plus angoissé, non pas par « le numérique » en général, mais par la place dans nos vies à laquelle accède – notamment via certaines technologies numériques – un nombre très restreint de sociétés privées : celles qu’on a commencé à appeler les GAFAM pour se référer à Google, Apple, Facebook, Amazon et Microsoft, sachant que cet acronyme est devenu une métonymie pour inclure également les nouveaux acteurs comme Netflix, Airbnb, Uber, etc.

Cette influence ne dépend pas « du numérique », mais de certains usages spécifiques : plus précisément des usages de logiciels et de matériels propriétaires. Et, plus important, ces usages ne sont pas inévitables, mais on fait, hélas, trop peu – ou presque rien – pour les contrer, alors qu’il serait facile de mettre en place des mécanismes et dispositifs de protection de l’espace public.

Concrètement, le fléau dont nous sommes victimes est représenté par le fait que dans tous les domaines, de la vie privée à la vie publique en passant par l’activité professionnelle, nous sommes encouragés à utiliser des solutions propriétaires : MacOs, iOS, Windows, Word, Adobe, Facebook, WhatsApp, Skype, Gmail, Outlook… Ce problème n’émane pas, à mon sens, des entreprises – dont l’objectif principal est, évidemment, de vendre leurs produits -, mais du manque quasi total de sensibilité des institutions publiques et privées et de l’absence de littéracie numérique pour les usagers.

Quelques exemples :

  • nous utilisons des systèmes d’exploitation propriétaires – MacOS et Windows – alors que nous pourrions utiliser des systèmes d’exploitation libres ;
  • nous utilisons des dispositifs portables propriétaires sans nous soucier des conséquences ;
  • nous utilisons des applications mobiles alors que nous pourrions utiliser des services web ;
  • nous utilisons des logiciels propriétaires alors que nous pourrions utiliser des solutions libres ;
  • nous ne nous posons pas de questions sur les pilotes qui font fonctionner les dispositifs de nos ordinateurs alors que nous pourrions choisir les dispositifs en fonction de la transparence de leur conception.

Ce sont fondamentalement les revendications de la Free Software Foundation qui n’ont malheureusement que trop peu d’impact sur les pratiques.

Or deux considérations :

  • ces pratiques sont très dangereuses ;
  • il serait très facile de les changer.

Il me semble, en d’autres termes, que, le fait de penser « le numérique » comme quelque chose d’uniforme nous empêche de cerner le véritable problème et de chercher des solutions. Être génériquement technophobes est une posture qui n’amène à rien : cela revient à un nostalgique « o tempora o mores » qui plonge dans une inactivité abrupte. Des positions du type : « le numérique doit/ne doit pas être utilisé par les enfants » me semblent juste stupides. Elles réunissent des réalités hétérogènes qui n’ont aucun rapport entre elles : « le numérique » ? Quels outils ? Quelles plates-formes ? Quels environnements ? Quels dispositifs ? Identifier des problèmes spécifiques est sans doute plus complexes : cela demande une étude et une compréhension du fait numérique dans sa diversité, une analyse des enjeux liés à un logiciel, à un format, à un protocole qui demandent du temps et de l’expertise. Mais cela permet de trouver des alternatives et des solutions concrètes.

_________

Par Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal

La version originale de cet article a été publiée sur The Conversation

Développement Technologie 5G : une norme pour la ville, une autre pour les ploucs

Développement  Technologie 5G : une norme pour la ville, une autre pour les ploucs  

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  haut débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

Technologie 5G : une norme pour la ville, une autre pour les ploucs

Technologie 5G : une norme pour la ville, une autre pour les ploucs  

 

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

 

 

5G : une technologie pour la ville, une autre pour les ploucs

5G : une technologie pour la ville, une autre pour les ploucs  

Y aura-t-il une technologie 5G  pour les villes et une autre pour les ploucs ? C’est la question qu’on peut se poser en raison du passé mais aussi du futur. Pour le passé, on sait que nombre de zones ne sont pas encore couvertes par la 3G, la 4G ou  ne sont pas couvertes du tout ou alors de temps en temps. Pour le futur, il n’est pas certain que la 5G couvre  rapidement l’ensemble du territoire. On pourrait se contenter pour certaines zones de la 4G améliorée. De toute manière la 5G à très, très  débit, celle des 26 GHz, sera réservé aux villes L’attribution va concerner la bande de fréquences des 3,4 à 3,6 GHz. qui permet d’offrir un bon débit couplé à une portée correcte pour couvrir le pays. Mais  autre bande, celle des 26 GHz, sera plus tard attribuée aux opérateurs. Ces fréquences seront essentiellement utilisées dans les villes, car si elles permettent des débits très puissants, leur portée, elle, s’avère faible. Lors de l’attribution de cette bande « cœur », 310 MHz seront proposés aux opérateurs. Une quantité jugée « significative » par l’Arcep.  Pour cette attribution, l’Arcep propose une procédure en deux temps. Le premier permettra aux quatre opérateurs nationaux (Orange, SFR, Bouygues Telecom et Free) d’acquérir chacun un bloc d’une taille de 40 à 60 MHz, à prix fixe, lequel sera déterminé par le gouvernement. Des engagements spécifiques seront liés à ces blocs. Les opérateurs devront notamment répondre aux demandes jugées « raisonnables » des industriels désireux de bénéficier de la 5G à certains endroits. Ou encore lancer des offres 5G à usage fixe dans certains territoires peu peuplés. Dans un second temps, les fréquences restantes seront mises aux enchères. Les opérateurs pourront cette fois acquérir plusieurs blocs de 10 MHz, avec un prix de réserve fixé ici aussi par le gouvernement. Tous les opérateurs qui remporteront des fréquences seront soumis à des obligations. Chacun devra notamment déployer 12.000 sites en 5G d’ici à la fin 2025 – ce qui correspond, selon l’Arcep, à une couverture des deux tiers de la population. Pour ne pas réserver la 5G aux grandes villes et éviter une nouvelle fracture numérique, des obligations concernent les territoires ruraux. Ainsi, en 2025, 90% des sites mobiles d’un opérateur devront proposer un débit au moins égal à 240 mégabits par seconde – lequel pourra être atteint soit via la 5G, soit par le biais d’une 4G boostée.  Il faudra au final attendre 2030 pour que tous les sites mobiles des opérateurs proposent a minima un débit de 240 mégabits par seconde.

La 5G : pour tout le territoire ?

La 5G : pour tout le territoire

 

 

Évidemment on peut douter de l’objectif de couvrir l’ensemble du pays par la 5G. En effet, de  nombreues zones peu denses n’ont même pas accès à la 3G ou à la G. Et certains n’ont accès à rien du tout. Les  d’enchères pour l’attribution pour les  fréquences 5G. vont cepedant bientôt être attribuées par l’ARCEP. Le lancement commercial est attendu pour 2020. Le gouvernement exige qu’aucune zone, y compris rurale, ne soit délaissée. Un vœu pieux car  l’autorisation d’exploiter la 5G n’aura pas pour objectif  premier d’aménager le territoire, ce sera surtout l’occasion pour le gouvernement de contribuer à désendetter le pays via des enchères financières. C’est un peu le paradoxe puisque cette technologie était promise à tous précisément pour lutter contre la désertification du territoire et procéder à l’aménagement plus harmonieux. Récemment, le premier ministre a d’ailleurs été clair, ce sera la même philosophie pour le câble. Plus question de permettre l’accès au câble pour tous les Français, seules les zones densifiées pourront être câblées. Concernant la nouvelle technologie de téléphonie 5G, la priorité sera aussi aux zones très denses. En effet les enchères financières vont contraindre les opérateurs à prioriser les territoires les plus rentables pour amortir leurs droits d’acquisition. Il y a « un objectif d’équilibre des recettes pour l’Etat », a affirmé la ministre. « Sur ce point, l’enjeu est de trouver le juste milieu avec l’ampleur des investissements à réaliser par les opérateurs », a-t-elle ajouté. L’équation est simple sur le papier, mais ô combien délicate à définir : si le gouvernement ponctionne trop d’argent aux opérateurs, ceux-ci investiront moins dans les réseaux. Autrement dit, dans ce cas, les Orange, SFR, Bouygues Telecom et Free déploieront leurs antennes et infrastructures de manière prioritaire dans les territoires les plus denses (car les plus rentables), au risque de trop délaisser les zones rurales et les territoires les moins peuplés.

Intelligence artificielle : l’esquisse d’une stratégie

Intelligence artificielle : l’esquisse d’une stratégie

 

 

Comme on le sait, la mode n’est pas aux réflexions stratégiques dans ce gouvernement qui lui préfère une sorte de l’idéologie du court terme. Pourtant pour certains grands sujets industriels ou autres, la complexité de la problématique et l’ampleur des moyens à mettre en œuvre exigent  nécessairement une vision à long terme et la mise en place de synergies entre les acteurs concernés. Faute de ce type de démarche, la France et l’Europe ont perdu la maîtrise de la technologie 5G  au profit seulement des Chinois et des Américains. Concernant l’intelligence artificielle là aussi chinois et américains ont engagé des moyens considérables pour maîtriser cette révolution technologique. On peut donc se réjouir que Huit  grands groupes industriels français de secteurs aussi variés que l’aérospatiale, l’énergie et l’automobile aient  annoncé mercredi avoir signé un manifeste pour préparer l’utilisation de l’intelligence artificielle (IA) dans leurs activités respectives. Air Liquide, Dassault Aviation, EDF, Renault, Safran, Thales, Total et Valeo précisent dans un communiqué commun vouloir définir d’ici la fin d’année un “plan d’action coordonné avec l’écosystème français de l’IA». Les groupes industriels ont signé ce manifeste avec le ministère de l’Economie et des Finances dans le cadre de la stratégie “AI for Humanity” du gouvernement. “L’objectif est d’atteindre plus rapidement une masse critique sur les sujets de recherche prioritaires”, soulignent-ils pour expliquer leur volonté de coopérer, tout en invitant d’autres acteurs publics ou privés à les rejoindre. Le groupe de télécoms Orange, le fabricant de semi-conducteurs STMicroelectronics, le groupe de services pétroliers Schlumberger et l’éditeur de jeux vidéo Ubisoft ont déjà franchi le pas ces derniers jours en participant eux aussi au manifeste, a précisé Marko Erman, directeur technique de Thales. “La rupture technologique fondatrice pour les économies du 21e siècle, ce sera l’intelligence artificielle”, a souligné lors d’un discours le ministre de l’Economie et des Finances Bruno Le Maire. “C’est pour ça qu’il est absolument impératif (…) que ce soit une technologie que nous maîtrisions et non pas une technologie que nous subissions”, a-t-il ajouté. On peut cependant regretter que le rapprochement des compétences et les moyens de recherche sur le sujet n’ait  pas une dimension européenne

5G la loi « anti-Huawei » votée

5G la loi « anti-Huawei » votée

La loi « anti-Huawei  votée par le sénat l’Assemblée nationale le 10 avril, la proposition de loi visant à sécuriser les réseaux mobiles en vue de la 5G a été votée mercredi par le Sénat. Plusieurs aspects devront être précisés. Cela dit on semble s’orienter dans le monde vers uen double référence, celle de -Huawei et celle des américains. Ce qui ne va pas faciliter la vie des opérateurs voire celle des consommateurs. Comme pour presque toutes les technologies, les normes seront harmonisées un jour ou l’autre. Il ne s’agit pas cette fois uniquement de convergences techniques mais aussi d’enjeux économiques, sociétaux voire militaires. Le problème est que la Chine vit en cercle complètement fermé sur le plan sociétal, culturel, social et démocratique et veut imposer ses concepts (surveillance permanente de la population) aux pays occidentaux. Certes on objectera que les grands du numérique américain ont aussi pour objectif d’influencer les manières de penser, de vivre et d’acheter à la différence près que l’existence de la démocratie n’est pas en jeu. Quand on observe ce qui se passe à Hong Kong, on peut être inquiet. La Chine ne respecte rien m^me les accords ou principes signés ou théoriquement adoptés.

Plainte contre Google pour non respect des données (UFC que Choisir)

Plainte contre Google pour non respect des données (UFC que Choisir)

Une action en justice pour non respect de la protection des données définis dans un RGPD déjà incompréhensibles et non lu dans 95% des cas. Une Plainte de  l’UFC-Que Choisir contre  Google  qui reproche d’exploiter les données personnelles des utilisateurs sans leur consentement, notamment ceux propriétaires d’un appareil Android, son système d’exploitation mobile. Ce dernier équipe plus de 80% des smartphones dans le monde.

Un compte Google est en effet nécessaire sur un smartphone ou une tablette Android pour utiliser les services de l’entreprise américaine (Google Maps, Gmail, etc…) et des applications. Et lorsque l’utilisateur en crée un, il doit accepter des conditions d’utilisation. L’UFC-Que Choisir dénonce le fait que cette acceptation conduit à approuver par défaut les finalités poursuivies par Google dans le cadre du traitement de ses données. Cela concerne le ciblage publicitaire ou encore la géolocalisation. L’association de consommateurs affirme d’ailleurs qu’un smartphone, même immobile, va transmettre sa géolocalisation près de 340 fois par jour.

L’UFC-Que Choisir veut que Google «obtienne un réel consentement de ses utilisateurs pour la collecte et le traitement de leurs données personnelles par ses services et applications». Elle réclame également une indemnisation de 1000 euros pour chaque consommateur lésé pour violation de la vie privée. Elle assure d’ailleurs qu’environ 200 consommateurs sont prêts à s’engager dans cette action de groupe. Toute personne intéressée peut s’y joindre. Cette procédure fait suite à la sanction de la CNIL contre Google en janvier dernier. L’autorité de protection des données a en effet condamné le géant américain à une amende record de 50 millions d’euros pour manquement à ses obligations dans le cadre du RGPD. Elle lui reprochait notamment de forcer le consentement de ses utilisateurs. Google a fait appel de cette sanction.

La 5G aussi pour les bouzeux !

La 5G  aussi pour les bouzeux !

 

Comme l’avait déjà indiqué le Premier ministre, il ne faut guère s’attendre à ce que le câble couvre les zones peu denses. Les alternatives passeront donc par le satellite ou la 5G.

En janvier 2018, l’exécutif a renoncé à d’importantes recettes en prolongeant certaines licences d’utilisation de fréquences mobiles. En contrepartie, les Orange, SFR, Bouygues Telecom et Free se sont engagés à doper leurs investissements dans les zones « blanches » et « grises », où le mobile ne passe pas – ou très mal. Il faut dire que dans ces zones les SMS et autres messages n’atteignent leurs destinataires que des heures après l’émission voire parfois le lendemain ! Ce serait donc une nouvelle évolution que de penser à équiper les régions à faible densité démographique précisément parce que la nouvelle technologie 5 G  permet de s’affranchir encore davantage de la distance. Compte tenu des innombrables applications de la 5G,  ce pourrais être aussi l’occasion d’un réaménagement intelligente du territoire au lieu de concentrer dangereusement activités et populations sur seulement une quinzaine de villes en France.

Voiture autonome partout pour tous : une utopie

Voiture autonome partout pour tous : une utopie

 Après l’emballement médiatique, Anne-Marie Idrac ancienne ministre, ancienne patronne de la SNCF et de la RATP)  qui vient de remettre un rapport sur la question du véhicule autonome refroidit les enthousiasmes : «  C’est indéniable… Il y a eu un atterrissage de tous les acteurs de la voiture autonome sur ce qui avait été promis et sur ce qui sera possible de faire. On arrête de rêver de technologies hors-sol, on parle désormais de choses utiles, concrètes et pragmatiques. Par exemple, l’hypothèse d’une voiture totalement autonome, en toutes circonstances, par tous les temps, ne verra probablement jamais le jour. Le patron de Valéo lui-même a émis des doutes. Extraits de son interview au JDD :

 

À quand la première voiture autonome commercialisée?
La première voiture autonome est déjà là. Nous avons pris une participation de 5% dans une start-up qui s’appelle Navya, dont les véhicules électriques et autonomes, des navettes, circulent à Sion en Suisse, à Confluence à Lyon, à La Défense, dans le Michigan ou à Singapour. En revanche, il faudra attendre encore un peu de temps pour que vous et moi puissions acheter une voiture totalement autonome.

 

Ce sera dans cinq, dix ou vingt ans?
Des voitures partiellement autonomes, ce sera dans quelques années. Vous pourrez déléguer leur conduite à certains moments et dans certaines conditions. Une voiture dans laquelle vous n’aurez ni volant ni pédales, cela va prendre plus de temps. Entre cinq et dix ans sans doute.

 

Laisser un véhicule se garer tout seul dans un parking, est-ce déjà possible?
Il y a déjà un modèle de la classe E de Daimler que vous pouvez envoyer se garer tout seul avec votre smartphone. Nous avons développé ce système avec le constructeur allemand. Valeo et Cisco ont développé une technologie qui permet aux voitures de se garer seules dans un parking. Beaucoup de parkings dans le monde sont intéressés par cette nouvelle technologie, mais cela prendra encore quelque temps avant que l’on passe à la phase commerciale.

 

L’automobile autonome sera-t-elle aussi partagée?
Le sujet de la propriété de la voiture versus la voiture considérée comme un service est un changement sociologique profond. Quand vous ou moi possédons un véhicule, il est utilisé 4 à 5% de son temps. Sinon, il dort dans un garage. Partager l’usage de la voiture, c’est ce que l’on fait avec un taxi ou avec les nouveaux services qui sont apparus comme Uber ou Blablacar. La plus grande innovation d’Uber est que le prix dépend du nombre de personnes ou de la demande. Une innovation absolument fabuleuse qui est rendue possible par des systèmes digitaux.

 

 Est-ce qu’un jour, dans les grandes villes, vous cesserez d’avoir votre automobile comme vous avez cessé d’avoir votre vélo pour utiliser un Vélib’?

Personne ne connaît la réponse à cette question. Le frein est que l’on part tous au travail ou en vacances en même temps.

 

La technologie de l’automobile autonome doit-elle encore progresser?
Les bases sont là mais les logiciels qu’il faut embarquer dans la voiture sont d’une très grande complexité. Il faut encore beaucoup travailler. Nous sommes numéro un mondial pour les caméras, les capteurs ultrason, les radars ou les lidars avec tous les logiciels qui permettent d’interpréter les données. Mais il faut encore redoubler d’efforts pour qu’une voiture soit autonome en toutes circonstances. Un exemple de problème à régler : ces capteurs doivent être utilisables tout le temps. Pour que l’automobile ne soit jamais aveugle, il faut les nettoyer, et cela coûte cher.

 

La voiture autonome a fait entrer les Gafa sur le marché de l’automobile. Vont-ils le changer comme Amazon bouscule la distribution?
L’histoire n’est pas écrite. Pour l’instant, les constructeurs et les géants du digital travaillent souvent ensemble. Mais l’important sera de savoir où se trouvera la valeur. Concevoir et construire une voiture, ce n’est pas si facile que ça. Ces deux mondes se développent en essayant d’entrer dans la mobilité digitale avec leurs armes respectives : le combat est ouvert.

Si les véhicules deviennent propres, tout ira bien?
Oui, la voiture électrique sera un des éléments essentiels de la mobilité urbaine en complément des transports en commun.

 

Comment jugez-vous les politiques lorsqu’ils rendent la circulation plus difficile à Paris?
Joker! Ce n’est pas en fossilisant l’espace urbain que vous assurez son développement économique.

Quelque 414.700 postes avaient ainsi été créés les 18 derniers mois du quinquennat Hollande (de début 2016 à mi 2017) tous secteurs confondus, contre 289.900 sur les 18 premiers de l’ère Macron (de mi 2017 à fin 2018).

 

5G : opération anti-Huawei

5G : opération  anti-Huawei

Officiellement,  la France ne va pas s’opposer à la venue du puissant opérateur chinois. Pourtant en France comme en Europe, les gouvernements s’interrogent sur la place à donner à Huawei dans les futurs réseaux 5G pour deux raisons d’une part parce qu’on craint que les infrastructures, technologiquement à la pointe, soient utilisées à des fins d’espionnage pour le compte de la Chine. D’autre part il y a l’énorme pression des États-Unis qui veut interdire aux Chinois de pénétrer sur les réseaux 5G occidentaux. Les freins mis à la pénétration d’ Huawei passeraient par des obstacles techniques à Huawei   Plus concrètement, le gouvernement songerait à donne plus de pouvoir à l’Agence nationale de la sécurité des systèmes d’information (Anssi), elle-même sous le contrôle de du secrétariat général de la Défense et de la Sécurité nationale (SGDSN). l’Anssi pourrait porter un droit de regard, non seulement sur la 5G, mais aussi sur des équipements déjà présents en France, comme la 3G et la 4G. De cette façon, les autorités françaises pourraient contrôler l’entreprise chinoise sans pour autant déclarer la guerre frontalement à la Chine, avec qui la France souhaite conserver de bonnes relations. À l’inverse, ce n’est pas le cas des États-Unis, qui ont officiellement demandé à leurs alliés de se méfier de Huawei, c’est-à-dire à l’exclure de leur pays respectif. Plusieurs États ont répondu à cet appel avant la France, à l’exemple du Japon qui a pris la décision d’interdire les équipements de la firme ainsi que ceux de ZTE sur le territoire.

Blockchain : quel champ d’application prioritaire

Blockchain : quel champ d’application prioritaire

 

Une tribune intéressante sur le développement la blockchain de Clément Jeanneau, Cofondateur Blockchain Partner, VP Etudes & Prospective qui demande une clarification des priorités après la déclaration du ministre de l’économie sur le sujet. Peut-être cependant, l’application hors fiances de la blockchain est-telle cependant un peu sous-estimée (application dans l’industrie, les services, voire l’agriculture).  

 (Papier de la Tribune)

« A l’heure où le gouvernement prépare une stratégie nationale en matière de blockchain, il devient urgent de s’interroger (ou se réinterroger) sur ce qu’on entend par blockchain.
Comme l’intelligence artificielle, la blockchain est en effet devenue un terme fourre-tout dans lequel chacun y voit ce qu’il veut y voir. Il ne s’agit pas tant de s’accorder sur une définition : l’enjeu n’est pas de savoir si la blockchain se définit avant tout comme base de données, technologie ou mouvement sociétal. La blockchain est devenue une métonymie : lorsqu’il en est question, il faut considérer tout ce que le terme englobe, c’est-à-dire un ensemble d’innovations qui vont bien au-delà d’un simple registre, aussi incorruptible et transparent soit-il. L’essentiel est de définir ce pourquoi cet ensemble d’innovations nous parait important, a fortiori pour la France. Ne pas poser cette vision, c’est se condamner à dresser un ensemble sans cohérence qui échouera à nous mener en position de « leader en matière de blockchain » - l’objectif annoncé par le gouvernement.

Pour ma part ma conviction est claire : les blockchains ouvrent la voie à une nouvelle économie numérique, fondée sur les cryptoactifs. D’autres réponses pourraient être faites. Certains voient les blockchains avant tout comme un outil puissant pour optimiser et sécuriser les processus d’acteurs financiers existants. D’autres valorisent surtout les usages déjà fonctionnels dans différentes industries, notamment en supply chain. Ces bénéfices sont réels, et sont d’ailleurs complémentaires : il ne s’agit pas d’en choisir un au détriment d’autres. Il s’agit de se donner un cap pour savoir vers où nous voulons tendre. Ne pas établir de priorités, c’est déjà faire un choix. En l’occurrence, les pistes qui viennent d’être citées relèvent d’innovation incrémentale (souvent fondée sur des blockchains privées), et non de rupture (fondée sur des blockchains publiques).

Clarifier la vision, dérouler les actions

Or soyons clairs : en très large majorité, les futures licornes de la blockchain s’appuieront sur les blockchains publiques et les crypto-actifs, et non les blockchains privées. C’est du reste déjà le cas pour les licornes du secteur ayant émergées (plateformes d’échange et acteurs du minage). De cette vision découlent cinq points importants.

1/ L’objectif prioritaire devrait être de positionner la France parmi les leaders de cette économie numérique émergente, parfois appelée « crypto-économie » ou « token économie » – ce qui est très différent de « blockchainiser » des activités existantes sans lien avec les cryptoactifs.

2/ Comme Internet avant elle, la blockchain créera de nouvelles verticales. La France ne deviendra pas plus « leader de la blockchain » qu’elle n’est devenue « leader de l’Internet ». Cette expression fera sourire (au mieux…) lorsque l’on s’y repenchera dans dix ans. Ces verticales restent encore à inventer mais certaines sont déjà identifiables, comme l’Open Finance (services financiers décentralisés, ouverts à tous) ou les actifs numériques non-fongibles (au potentiel majeur dans les industries du jeu vidéo et du sport par exemple).

3/ Cette économie numérique s’accompagne de nouveaux modèles d’affaires et fera émerger de nouveaux champions. Ces acteurs pourront être des entreprises classiques (telle que Ledger, en sécurité) comme des organisations d’un nouveau type (réseaux décentralisés, ouverts, dont le business model reposent sur la « token économie »).

4/ Les ICO (…ou les STO) ne sont qu’un pan du sujet. Vouloir devenir leader dans les ICO ou les STO n’a pas vraiment de sens : c’est le leadership dans la crypto-économie qu’il faut viser. Rappelons qu’une entreprise du secteur peut tout à fait réussir sans réaliser d’ICO.

5/ Gare aux fausses bonnes idées sur le sujet environnemental. Croire que l’on pourra devenir leader dans cette économie numérique en évitant de soutenir des projets fondés sur les protocoles aujourd’hui énergivores comme Bitcoin et Ethereum est une chimère. Ce point est fondamental, or la position du gouvernement est ambiguë sur le sujet.

Dès lors, que faire ? D’abord, donc, clarifier la vision. Ensuite, dérouler les actions. Elles pourront s’inspirer du très bon travail réalisé par les députés Person, Mis et La Raudière, synthétisé dans leurs rapports récents. L’une des propositions se distingue : ériger la blockchain en filière prioritaire du fonds pour l’innovation de rupture, et non simplement comme pouvant « faire partie de la deeptech » – ce qui exclurait tout un champ du sujet. Si la blockchain est véritablement considérée comme une priorité, comme le gouvernement l’affirme, alors la cohérence s’impose : il faut aligner les paroles et les actes. »

 

Blockchain et cryptomonnaies : une régulation européenne pour quoi faire ?

Blockchain et cryptomonnaies : une régulation européenne pour quoi faire ?

 

 

La blockchain est une technique sans intermédiaires qui permet de transmettre des informations par blocs et qui normalement est inviolable. Une technique uniquement régulée par sa propre loi (code algorithmique). Les informations peuvent être de différentes natures et pratiquement concerner la totalité des  espaces économiques ou sociaux. Évidemment sont concernées les cryptomonnaies et les crypto actif comme le bitcoin. La France voudrait intervenir pour une régulation à l’échelle européenne voir au-delà d’après le ministre de l’économie “Je vais (…) proposer à mes homologues européens la mise en place d’un cadre unique de régulation des cryptoactifs inspiré de l’expérience française (…) au niveau européen”, a précisé le ministre français de l’Economie et des Finances lors d’une conférence sur la “blockchain” à Bercy. Cela permettrait d’aboutir à “un marché unique de la ‘blockchain’ comme il existe d’autres marchés uniques dans d’autres domaines”, a-t-il estimé. Finalement la technique de scène est un peu comme la technique Internet elle n’a guère de frontières et on voit mal l’intérêt et l’efficience d’une régulation seulement nationale ou même européenne. Par ailleurs le ministre vise sans doute essentiellement le secteur financier afin de distinguer l’usage de la blockchain à usage à des fins de transactions financières, des cryptoactifs. La loi Pacte, adoptée définitivement la semaine dernière, met en place un cadre juridique pour les émissions de cryptomonnaies (ICO, ou offres initiales de jetons). Ce système, visant à protéger les épargnants et rassurer les investisseurs, repose sur la délivrance d’un agrément par l’Autorité des marchés financiers (AMF), pour les émetteurs volontaires. Il est cependant vraisemblable que les crypto menées ne vont pas demeurer dans l’espace marginal qu’elles occupent aujourd’hui et qu’une ou plusieurs d’entre elles pourraient un jour concurrencer les grands menés comme le dollar ou l’euro. La récente chute du bitcoin ne discrédite pas les crypto menées par l’avantage que le dollar ou d’autres qui reposent pour une grande partie sur du vent et de l’endettement. On peut leur reprocher leur cale caractère énergie énergivore mais pas la confiance qui constitue la base du système. Contrairement à d’autres monnaies qu’on prête curieusement par exemple à des taux négatifs  et qui constitue en fait des monnaies de singe.

L’intelligence artificielle : chance ou menace ?

L’intelligence artificielle : chance ou menace ?

  • ·        

 

Lintelligence artificielle constitue-t-elle une chance pour notre économie et où une menace pour les libertés démocratiques. C’était le thème dun débat du Forum Europe 1 organisé au Bataclan. (Source Europe 1) 

« L’intelligence artificielle (IA) souffre-t-elle d’une mauvaise image dans l’Hexagone ? « On vit en France une vraie schizophrénie sur ce sujet », estime Eric Hazan, directeur associé chez McKinsey, cabinet de conseil en intelligence artificielle, interrogé lors du Forum Europe 1 Liberté, Egalité, Fraternité, organisé mardi au Bataclan.

Quatre fois plus de chômage sans l’IA ?  »On veut plus de vie privée et en même temps on est sur trois ou quatre réseaux sociaux. On vit avec le stress d’être écouté et on est bien content d’avoir des logiciels de traduction », énumère ce spécialiste pour qui l’intelligence artificielle est l’un des enjeux économiques majeurs des décennies à venir. « Si on déploie l’Intelligence artificielle, on va croître de 0,1 à 0,2% par an la croissance des pays développés. On créerait quatre fois plus de chômage en n’utilisant pas l’IA. On estime en effet à 5 à 10% des emplois qui seront supprimés à cause de l’IA. Mais il y aura aussi beaucoup de créations d’emploi ». Selon Eric Hazan, les bénéfices pourront toucher tous les secteurs. Détection ultraprécise du diabète, lutte contre le braconnage en Afrique, identification des prémices d’un ouragan, réduction des déchets de production dans l’industrie, analyse des capacités de remboursement de dette des ménages… « L’intelligence artificielle est un facteur de segmentation, de détails dans la compréhension des choses. On peut optimiser énormément de choses », conclut-il.

« La société de consommation existait bien avant l’intelligence artificielle »

Une incitation à la consommation ? L’intelligence artificielle est-elle pour autant une panacée ? Ne menace-t-elle pas notre vie privée et notre liberté ? « Ne risque-t-elle pas de nous pousser à consommer non-stop ? Aujourd’hui, je peux recevoir des publicités (ciblées) dans mes toilettes avec mon téléphone. Cela ne pousse-t-il pas à son maximum notre asservissement à la société de consommation ? », interroge pour sa part David Abiker, journaliste à Europe 1 et animateur du forum Europe 1. « La société de consommation existait bien avant l’intelligence artificielle », balaye pour sa part Eric Hazan, qui reconnaît que les enjeux éthiques sont importants et que l’IA devra être encadrée.

Pour Marie-Laure Denis, présidente de la CNIL, « les consommateurs d’IA doivent avoir conscience que leurs données sont enregistrées, comprendre comment elles sont enregistrées et utilisées » par l’IA. Si elle assure que la France est bien armée pour lutter contre les dérives en matière de protections des données, elle s’étonne encore de recevoir certains types de publicités : « Des publicités pour de l’alcool par exemple. Cela risque de poser problèmes pour ceux qui luttent contre une addiction… »

« L’économie de la connaissance, on y va ».  »Il y a des enjeux éthiques très importants. Si tous les logiciels d’intelligence artificielle sont faits par des hommes blancs, pour des hommes blancs, cela peut poser des problèmes » de discrimination, ajoute pour sa part Olivier Derrien, directeur général de Salesforce, éditeur de logiciels, participants aussi au débat. Mais pour Eric Hazan, toutes ces questions, légitimes, ne freineront pas le développement de l’IA. Elles devront être résolues mais il est désormais impossible de revenir en arrière. « L’intelligence artificielle, l’économie de la connaissance, on y va », conclut-il.

 

Câble Internet : pas pour les zones rurales isolées

Câble Internet : pas pour les zones rurales isolées

 

Les associations de collectivité entendent protester contre les obstacles mis au développement du haut débit notamment à travers des difficultés de financement. Il semble en effet se confirmer que le haut débit sera surtout développé dans les zones denses et que pour le reste les collectivités devront faire appel à des opérateurs et à  des financements privés. Ces collectivités ne devraient pas être surprises car récemment le premier ministre a clairement fait entendre que le câble était destiné aux zones denses et que pour le reste il y aura la possibilité d’utiliser d’autres technologies comme le satellite aux frais  de l’utilisateur avec une allocation de leurs 150 € (ce qui est très loin de couvrir les frais d’installation). Aussi d’utiliser la technique de téléphonie 5G. La promesse de relier chaque Français au câble d’ici 2022 paraît donc complètement illusoire. D’où la protestation des associations :

« Bon nombre de collectivités qui ont fait le choix des RIP (qui permet de solliciter le guichet France très haut débit)  ne peuvent toujours pas accéder aux financements promis par l’État depuis 2017, fustigent-elles dans leur communiqué. Elles sont entravées aujourd’hui dans la poursuite de leurs projets. L’État répète à longueur de temps que les collectivités ont le choix. Les associations les représentants confirment hélas ce qu’elles disent depuis plus d’un an : elles n’ont le choix qu’entre un Amel et un Amel. »

Or les collectivités ont la dent dure contre ce dispositif, sur lequel l’Etat compte pour économiser des deniers publics – puisque dans ce cas, les réseaux sont entièrement financés par le secteur privé.

« Quant aux Amel, qui étaient censés faire faire des économies d’argent public et accélérer les déploiements FttH [fibre jusqu'à l'abonné, NDLR], les territoires concernés sont aujourd’hui dans l’expectative, poursuit le communiqué. Le Premier ministre, qui devait valider les premiers AMEL au début de l’été 2018, n’en a encore signé aucun. Pire, seuls deux avis – assortis de nombreuses réserves – ont été rendus par l’Arcep [le régulateur des télécoms, NDLR] sur les sept Amel officiellement recensés. Les collectivités qui ont positivement répondu pour certaines depuis huit mois se voient abandonnées en rase campagne – sans que l’on sache précisément ce qui bloque – sans calendrier ni perspectives. »

En conséquence, les associations de collectivités « demandent que dans un court délai, l’Etat annonce un calendrier engageant de réouverture du guichet France THD à court terme d’une part, et d’autre part l’arrêt immédiat de la promotion active du dispositif des Amel tant que le Premier Ministre n’aura pas exprimé sa décision s’agissant des sept premiers dossiers en souffrance ». Elles craignent que si la situation reste comme telle, de nombreux territoires se retrouveront sans Internet à très haut débit d’ici à 2022. Ce qui sonnerait l’échec de l’objectif du gouvernement d’apporter à cette date une connexion ultra-rapide à tous les Français.

Cathédrale de Paris : pourquoi autant de temps pour éteindre l’incendie ?

Cathédrale de Paris : pourquoi autant de temps pour éteindre l’incendie ?

 

Il aura fallu de l’ordre de 8 heures pour maitriser l’essentiel de l’incendie de la cathédrale de Paris. Certes les services d’incendie comme d’habitude ont combattu avec courage cette  catastrophe qui aurait pu encore être plus graves si la structure du bâtiment avait été affectée. Pour autant, les journalistes présents sur place eut observé que les pompiers avec leurs lances et leurs échelles avaient bien du mal à atteindre le cœur de l’incendie. Or le feu se développait surtout à une hauteur comprise entre environ 50 et 70 m qui semble la hauteur maximale pouvant être atteints par des lances nécessitant l’intervention humaine. À une période où les technologies se développent dans tous les domaines, on  peut se demander si ces moyens ne devraient pas être davantage automatisés pour atteindre des hauteurs nettement supérieures, cela avec l’appui de caméras et de drones pour les piloter. Aujourd’hui, on construit à des hauteurs  bien supérieures à celle de la cathédrale de Paris, des bâtiments qui peuvent atteindre jusqu’à 200 m en France est bien davantage à l’étranger jusqu’à 1000 m et davantage. La question de la sécurité incendie se trouve posée à de pareilles hauteurs si les moyens actuels se trouvent limités voir inopérants à partir de 70 m. Évidemment on pourrait poser la question du bien-fondé de ces tours dans certaines ont des hauteurs complètement démentes et qui forcément multiplient  les risques en cas de catastrophe. Toutefois pour la cathédrale de Paris, l’architecture peut compliquer l’accession au cœur du foyer concernant la toiture. Une enquête bien sûr sera menée pour tenter d’identifier les causes du sinistre voire les responsabilités. Il n’empêche qu’une réflexion sur la prévention des risques en général pour les bâtiments de grande hauteur mériterait d’être engagée notamment afin d’envisager des équipements contre l’incendie autrement plus puissants, plus efficaces et davantage automatisés.

 

5G : d’abord dans les zones denses

5G : d’abord dans les zones denses

L’autorisation d’exploiter la 5G n’aura pas pour objectif  premier d’aménager le territoire, ce sera surtout l’occasion pour le gouvernement de contribuer à désendetter le pays via des enchères financières. C’est un peu le paradoxe puisque cette technologie était promise à tous précisément pour lutter contre la désertification du territoire et procéder à l’aménagement plus harmonieux. Récemment, le premier ministre a d’ailleurs été clair, ce sera la même philosophie pour le câble. Plus question de permettre l’accès au câble pour tous les Français, seules les zones densifiées pourront être câblées. Concernant la nouvelle technologie de téléphonie 5G, la priorité sera aussi aux zones très denses. En effet les enchères financières vont contraindre les opérateurs à prioriser les territoires les plus rentables pour amortir leurs droits d’acquisition. Il y a « un objectif d’équilibre des recettes pour l’Etat », a affirmé la ministre. « Sur ce point, l’enjeu est de trouver le juste milieu avec l’ampleur des investissements à réaliser par les opérateurs », a-t-elle ajouté. L’équation est simple sur le papier, mais ô combien délicate à définir : si le gouvernement ponctionne trop d’argent aux opérateurs, ceux-ci investiront moins dans les réseaux. Autrement dit, dans ce cas, les Orange, SFR, Bouygues Telecom et Free déploieront leurs antennes et infrastructures de manière prioritaire dans les territoires les plus denses (car les plus rentables), au risque de trop délaisser les zones rurales et les territoires les moins peuplés.

12345...10



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol