Archive pour la Catégorie 'nouvelles technologies'

Page 2 sur 12

Fin de la messagerie Wanadoo ? (Orange)

Fin  de la messagerie  Wanadoo ?  (Orange)

 

Wanadoo est une ancienne messagerie de France Télécom, une entreprise reprise par Orange. Orange qui a imposé sa messagerie tout en assurant la continuité de Wanadoo. Mais avec une certaine réticence, au point maintenant d’organiser progressivement la fin de Wanadoo. On sait qu’en cas de perte d’un mot de passe de messagerie, il est possible de le récupérer ou d’en créer un autre  après demande au gestionnaire de cette messagerie. Ce que fait Orange pour les adresses Mel  « Orange » mais pas pour Wanadoo. Dans beaucoup de cas, les mots de passe sont enregistrés dans les ordinateurs. Il arrive que le disque dur tombe en panne et/ou  que toutes les données disparaissent ; Du coup les mots de passe avec. Or Orange se refuse à réactiver un nouveau mot de passe pour Wanadoo et en profite  pour supprimer le compte dont la gestion n’est consentie que gratuitement. Une curieuse conception de la politique commerciale. On comprend qu’une société fasse évoluer sa gamme de produits, en supprime certains, en crée d’autres mais la moindre des choses est d’aviser les clients avant de fermer brutalement le service. On se demande si Orange n’a pas conserver ses réflexes d’administration en considérant les abonnés comme des usagers captifs et non comme des clients. En tout cas, autant prévenir les vieux utilisateurs de Wanadoo, un jour le compte risque d’être fermé sans préavis ; et avec disparaissent évidemment toutes les adresse des correspondants ! Merci à Orange pour ce respect très approximatif des obligations commerciales. Sans parler des lignes téléphoniques physiques (qu’Orange est supposé entretenir) dont les fils tiennent de nombreux poteaux endommagés !

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La  défense corporatiste de l’ENA

 

 

Dans une interview au journal l’Opinion, l’actuel directeur de l’ENA, Patrick Gérard, défend  avec vigueur cette fabrique d’élites  donc dit-il la France devrait être fière. Une Argumentation de nature très corporatiste qui ne pose absolument pas la problématique du champ et de la nature régalienne de l’État. En effet, c’est parce qu’ils sont beaucoup trop nombreux que les énarques se  reproduisent  dans des structures qu’ils pérennisent et même développent. Il n’y a même pas assez de postes pour caser de manière satisfaisante les élèves. On ajoute donc des directions aux directions, des postes de directeur adjoint à des postes de directeur, bref des structures administratives à des structures administratives quand il faudrait sans doute en réduire la moitié. L’intéressé oublie aussi d’indiquer que les énarques envahissent le monde économique et politique et que l’ENA n’a pas cette vocation première.

Interview

La suppression de l’ENA est à l’ordre du jour. Quels sont les arguments pour la défense de l’école ?

Ce sera évidemment au président de la République et au Premier ministre de prendre des décisions à l’issue du rapport Thiriez. Il m’appartient, comme directeur, de rétablir quelques vérités. Car l’image, souvent répandue, d’une institution coupée des réalités, fournissant des bataillons de hauts fonctionnaires inconscients des difficultés de leurs concitoyens, est tout simplement fausse.

Prenons le symbole des grands corps (Inspection des finances, Cour des comptes, Conseil d’État). Les jeunes gens qui les intègrent ne sont-ils pas assurés d’une belle carrière, confortée par l’entre-soi, du seul fait d’avoir été bien classés à la sortie de l’ENA ?

D’abord, contrairement aux clichés, les énarques ne sont pas de jeunes blancs-becs de 25 ans. Ils ont en moyenne 31 ans et la moitié d’entre eux ont exercé des responsabilités professionnelles avant leur entrée à l’ENA. Sur la question des corps d’inspection et de contrôle, les avis sont partagés. Certains voudraient créer un parcours où les élèves sortant de l’ENA passeraient d’abord cinq ans comme administrateur dans un ministère avant de tenter un nouveau concours, à 35-36 ans, pour intégrer un tel corps. D’autres font valoir que ces corps ont besoin de sang neuf et que dans le secteur privé les cabinets d’audit font confiance aux juniors. Je pense que l’accès direct à ces corps compte pour beaucoup dans l’attractivité de l’école. Mais il faut faire en sorte qu’il y ait davantage de brassage dans leurs effectifs, par exemple en ouvrant ces corps de façon significative aux sous-directeurs d’administration.

Le vrai sujet n’est-il pas le manque de RH dans la fonction publique ?

Sans doute peut-on améliorer la gestion des carrières, les perspectives de mobilité, valoriser davantage le travail des administrateurs civils au cours de leur carrière. On a encore trop tendance à laisser un énarque dans le même service, dans la même administration sans faire de gestion personnalisée.

Le procès en « déconnexion » de la haute fonction publique a resurgi avec la crise des Gilets jaunes…

Ce pays est fier de ses élites culturelles, sportives mais a un peu de mal avec ses élites administratives… Les Français sont-ils mécontents de leurs préfets, de leurs sous-préfets ? De leurs diplomates ? De leurs juges administratifs ? J’analyse plutôt ces critiques comme une demande supplémentaire d’Etat et, donc, un besoin de renforcer la présence des cadres de l’Etat par plus de mobilité sur le terrain.

Le manque de diversité sociale est souvent pointé du doigt. Est-ce cette image de « reproduction des élites » qui colle à l’ENA ?

Première remarque : quarante étudiants sont recrutés via le concours externe aujourd’hui. Ils étaient cent il y a quarante ans, comme à l’époque de la promotion Voltaire. En réduisant les effectifs, on diminue forcément la diversité. L’ENA accueille 26 % d’élèves qui étaient boursiers, plus que d’autres grandes écoles. Mais il faut faire mieux. C’est pourquoi nous ouvrons cette année à Strasbourg – il en existe déjà une à Paris depuis dix ans – une seconde classe prépa « égalité des chances » destinée aux étudiants d’origine modeste, très bons et, si possible, venant de province. Ces diplômés de master sont coachés par nos jeunes anciens élèves. L’idéal serait d’en créer une par région.

Pour quels résultats ?

La plupart réussissent les concours difficiles d’administrateur de l’Assemblée, de l’Institut nationale des études territoriales (INET), de la Banque de France ou de commissaire de police. En moyenne, sur dix-sept candidats de cette classe, un intègre l’ENA. Il subsiste encore une tendance chez ces étudiants, je le regrette, à penser que l’ENA « ce n’est pas pour elles ou eux »… C’est ce plafond de verre et cette autocensure qu’il faut parvenir à percer.

Parmi les pistes évoquées par Frédéric Thiriez pour « décloisonner » : la création d’un enseignement commun à tous les futurs hauts fonctionnaires (ENA, fonction publique territoriale, hospitalière, magistrats, commissaires de police) mais aussi aux quatre corps techniques (Mines, Ponts, armement, Insee). Est-ce une bonne idée ?

C’est une bonne idée d’avoir des enseignements communs. Par exemple, nos élèves travaillent sur les politiques territoriales avec ceux de l’INET et sont en scolarité avec des officiers de gendarmerie ou de l’armée de terre reçus à l’Ecole de guerre. A partir de l’an prochain, ils travailleront aussi avec l’Ecole nationale de la magistrature. En revanche, je verrais trois écueils à rallonger la scolarité d’un an. Celui de créer une sorte de « 6 année de Sciences Po » alors que les élèves, lorsqu’ils arrivent à l’ENA ou dans d’autres grandes écoles, ont envie de se préparer à leur métier. Le risque de renforcer la critique sur le mode : « Ils sont tous formatés de la même façon ». Enfin, toute année supplémentaire a un coût budgétaire… Ma préférence serait d’imaginer des travaux communs pour les élèves quand ils sont en stage.

Emmanuel Macron avait souhaité mettre en place, en début de quinquennat, un « spoil system » à la française. Près de deux tiers des directeurs d’administration centrale ont été changés depuis 2017, moins que sous ses prédécesseurs. La « technostructure » est accusée de « bloquer la France ». A juste titre ?

Les directeurs d’administration centrale ont un devoir de loyauté à l’égard du gouvernement. Quand un ministre donne des ordres, ils sont appliqués. Gérald Darmanin a instauré le prélèvement à la source, Jean-Michel Blanquer le dédoublement des classes dans les zones d’éducation prioritaires, le projet de loi pour la restauration de Notre-Dame de Paris a été écrit en quelques jours. L’image de directeurs plus puissants que les ministres qu’ils voient passer est un cliché.

L’ENA attire-t-elle toujours autant ?

Il n’y a jamais eu autant de candidatures : 1 731 cette année, record depuis 2013 ! Mais il est vrai qu’à Sciences Po comme dans les Instituts d’études politiques en région, les étudiants semblent moins attirés par le service public que par le monde des grandes entreprises, de la communication, de la finance, des start-up. Quand l’Etat, et les fonctionnaires qui le servent, sont critiqués tous les jours, ce n’est pas très engageant pour un jeune d’une vingtaine d’années… Par ailleurs, les vocations pour la politique se raréfient. Depuis la création de l’ENA en 1945, moins de 3 % des anciens élèves ont fait de la politique. Un taux encore plus bas aujourd’hui. Quant au fameux pantouflage, il concerne 20 % des élèves qui, à un moment ou un autre de leur carrière, vont dans le privé. Près de la moitié revient ensuite dans le public.

Finalement, faut-il juste changer le nom de l’ENA ?

La marque ENA bénéficie dans le monde d’un prestige considérable. Oxford, la London school of economics, le MIT n’imaginent pas changer de nom. L’administration française est admirée dans le monde entier pour l’impartialité de son recrutement, sa compétence et son intégrité. Depuis sa création, l’école a formé 3 700 élèves étrangers. Parmi ceux aujourd’hui en fonction : les ambassadeurs du Japon et de Malte en France, l’ambassadeur du Liban, qui était d’ailleurs dans la même promotion qu’Emmanuel Macron, la vice-première ministre des Pays-Bas, deux ministres belges, le directeur de cabinet du Grand-Duc du Luxembourg, le directeur du protocole de l’empereur du Japon, plusieurs dizaines de ministres africains, le secrétaire général du Tribunal constitutionnel de Karlsruhe… Au titre de la formation continue, l’ENA forme chaque année plus de 4 000 auditeurs étrangers.

« L’ENA bashing » serait donc un travers bien français ?

Peut-être… Il faut sans doute améliorer beaucoup de choses, transformer l’école mais faisons attention à ne pas se priver d’un outil précieux.

 

 

Intelligence artificielle: la démocratisation par l’auto apprentissage ?

La spécialiste en intelligence artificielle Nozha Boujemaa décrit l’émergence de l’apprentissage machine automatisé, qui va modifier les métiers liés à l’IA dans une tribune au Monde. Un vision toutefois peut-être un peu rapide, en tout cas qui peut être discutée sur ce qu’on entend vraiment par Intelligence artificielle.« Le développement de l’intelligence artificielle (IA) est assez ironique : il faut beaucoup d’efforts manuels et parfois ad hoc pour la construction de modèles prédictifs précis. Une technologie qui se veut entièrement dans l’automatisation de tâches humaines implique en effet plusieurs étapes fastidieuses : annotation et étiquetage des données d’apprentissage, qui nécessitent parfois un travail humain colossal ; exploration et sélection de données représentatives ; sélection de modèles ; réglages des paramètres du modèle en plus des phases de tests et de généralisation. Le cheminement à travers toute la chaîne de développement est complexe, même pour les spécialistes et les experts en sciences des données. Dans de nombreux contextes industriels, la mise sur le marché d’une solution fondée sur des modèles prédictifs est assez longue.

Cette impasse est en train de disparaître avec l’émergence de l’auto-apprentissage (AutoML, ou Automated Machine Learning), qui consiste à automatiser la recherche de l’architecture optimale d’un réseau de neurones. La maturité technologique de l’IA permet aujourd’hui de mettre au point des architectures de réseaux de neurones profonds plus efficacement que ne le feraient les experts humains, par exemple en reconnaissance d’objets et en vision par ordinateur.

Double ironie : on va pouvoir se passer en partie de certaines expertises en sciences des données et les automatiser. Dans le contexte d’AutoML, les ingénieurs vont pouvoir se consacrer à des phases plus critiques qui ont davantage besoin de l’intelligence humaine, comme l’analyse de situations de métiers complexes et les questions commerciales, au lieu de se perdre dans le processus fastidieux de construction de la solution. En réalité, cette démarche va aider les développeurs non spécialistes des données à réaliser des solutions d’IA plus facilement. Les scientifiques spécialisés vont, eux, pouvoir effectuer un travail complexe plus rapidement, grâce à la technologie AutoML, qui pourrait bien placer l’IA au cœur de l’essor des entreprises.

AutoML est une tendance qui va fondamentalement changer le paysage des solutions fondées sur l’apprentissage par machine. Elle se concentre sur deux aspects : l’acquisition de données et la prédiction. Toutes les étapes qui se déroulent entre ces deux phases seront prises en charge par les processus d’AutoML. Les utilisateurs apportent leur propre jeu de données, identifient les catégories et appuient sur un bouton pour générer un modèle parfaitement entraîné et optimisé, prêt à prédire. Ces approches d’AutoML vont faciliter la démocratisation de l’IA au service du plus grand nombre.

Intelligence artificielle: au niveau de l’humain ? (Yann Le Cun )

Intelligence artificielle: au niveau de l’humain ?

(Yann Le Cun )

Dans une interview aux Échos, Yann Le Cun analyses les possibilités et les limites de l’IA.  Yann Le Cun  est  responsable de la recherche en intelligence artificielle (IA) de Facebook et professeur à New York University, Yann Le Cun a reçu le prix Turing 2019, équivalent du Nobel d’informatique. Il vient de publier un livre retraçant son parcours et ses travaux.

 

Dans votre livre, vous vous montrez fier des progrès accomplis par l’intelligence artificielle (IA). Mais vous dites aussi qu’elle est loin de l’intelligence d’un rat. Diriez-vous, comme un autre expert français, Luc Julia (*), que l’intelligence artificielle n’existe pas ?

Non ! Ce n’est pas qu’elle n’existe pas, mais il y a une confusion fréquente : quand on voit une machine qui a des compétences surhumaines sur une tâche particulière, on lui attribue les compétences qu’elle aurait si cette intelligence venait d’une personne. Et donc on se dit : « la machine peut nous battre à plate couture au jeu de go, donc elle peut nous battre partout » ou bien « elle peut traduire dans une centaine de langues, donc elle est plus intelligente que n’importe quel humain ». Ce n’est pas vrai, car ces systèmes sont très spécialisés, très étroits.

Ce n’est donc pas la même intelligence que les humains…

Certaines personnes estiment que ce qui caractérise l’intelligence humaine, c’est qu’elle est générale. Je dis dans mon livre que ce n’est pas vrai non plus. L’intelligence humaine est, elle aussi, spécialisée, mais moins spécialisée que l’intelligence artificielle. Je crois à ce qu’on appelle l’intelligence artificielle de niveau humain (« human level intelligence »). Pour moi, il ne fait aucun doute que les machines arriveront tôt ou tard à des niveaux d’intelligence aussi performante et générale que les humains et, probablement, nous dépasseront assez vite.

Et l’intelligence de niveau humain, ce serait quoi ? Qu’une machine soit capable de tenir la conversation que nous avons en ce moment ?

Oui, qu’elle puisse faire toutes les tâches intellectuelles que fait un être humain, à peu près aussi bien, à l’exception de ce qui relève de l’expérience humaine.

Pensez-vous que vous verrez bientôt les machines atteindre ce niveau d’intelligence ?

Je pense que je le verrai un jour, mais pas bientôt. C’est un peu difficile de le dire. Il y a des obstacles qu’il faudra franchir, et certaines personnes ne voient pas ces obstacles et pensent qu’il suffira de prendre les techniques actuelles, et d’avoir plus de données et plus de puissance pour arriver à une intelligence de niveau humain. Je n’y crois pas du tout. Je pense qu’il faudra des progrès conceptuels qui sont du ressort de la science, pas de la technologie.

Quel genre de progrès ?

Pour moi, le premier obstacle à franchir est de permettre aux machines d’apprendre par elles-mêmes, un peu à la manière des enfants ou des animaux. Un enfant acquiert une quantité gigantesque de savoirs sur le fonctionnement du monde simplement par l’observation.

Comme celui d’intelligence artificielle, le terme d’apprentissage automatique (« machine learning », en anglais) est trompeur car une machine n’apprend pas du tout comme un humain…

Absolument. Pour qu’une machine reconnaisse des chaises, des chiens ou des chats, il faut d’abord lui montrer des milliers d’images étiquetées, dans chaque catégorie. Alors qu’un petit enfant auquel on montre trois dessins d’un éléphant saura ensuite reconnaître un éléphant dans une photo. Qu’est-ce qui fait qu’il y parvient sans avoir vu des milliers d’images ? Permettre aux machines d’apprendre de cette manière est d’autant plus important que l’on se lance dans des problèmes complexes : on veut apprendre aux voitures à se conduire toutes seules, par exemple, et cela n’est pas possible avec les méthodes traditionnelles.

Comment faire autrement ?

Ce qui manque, c’est de permettre à la machine, par un apprentissage autosupervisé, de se construire un modèle du monde. Qu’elle sache prédire que, si elle roule au bord d’un ravin et qu’elle donne un coup de volant, elle va finir au fond, et que ce n’est pas bon. Apprendre un modèle du monde, cela revient à prédire le futur à partir du passé et du présent, et peut-être d’une séquence d’actions que l’on a l’intention de faire. Pouvoir prédire, c’est un peu l’essence de l’intelligence.

Ce qui est étonnant, en lisant votre livre, c’est à quel point vous êtes fasciné par les neurosciences, par la façon dont le cerveau apprend…

C’est une inspiration. Il y a des gens qui disent que l’on peut faire de l’intelligence artificielle sans se référer du tout à l’intelligence humaine. Cela a été un des courants classiques de l’IA, fondé sur la logique, et cela a conduit aux systèmes experts, qui ont montré leurs limites notamment pour l’apprentissage car il faut entrer toutes les données « à la main ». Et puis il y a l’autre approche, qui consiste à essayer de copier ce qui se passe dans le cerveau. Mais là, il y a un autre danger, qui est de reproduire de trop près ce qui se passe, sans en comprendre les principes.

Les réseaux de neurones profonds, que vous avez contribué à inventer, sont particulièrement performants pour la reconnaissance faciale, qui est en train de se répandre partout, parfois de façon inquiétante. Qu’est-ce que cela vous inspire ?

C’est vrai pour toutes les technologies. Les technologies sont neutres, elles peuvent être utilisées à des fins bénéfiques ou moins bénéfiques. Ce qui fait qu’elles seront principalement utilisées à des fins bénéfiques, c’est la force de nos institutions démocratiques. Ceci dit, si on retourne plusieurs siècles en arrière, personne ne peut contester les bénéfices de l’invention de l’imprimerie, même si elle a permis de disséminer les écrits de Calvin et Luther qui ont causé deux cents ans de persécutions en Europe. C’est vrai que  les systèmes de reconnaissance du visage qui sont utilisés en Chine sont directement inspirés d’un de mes articles sur les réseaux convolutifs publiés en 2014. Mais la même invention sert aussi dans la sécurité routière, pour des systèmes d’aide à la conduite, ou dans l’analyse d’imagerie médicale pour augmenter la fiabilité. Elle sert à beaucoup de choses utiles, y compris chez Facebook pour lutter contre les images terroristes.

 (*) Luc Julia, aujourd’hui responsable de la recherche de Samsung, est à l’origine de Siri, l’assistant vocal d’Apple. Il a publié l’an dernier « L’intelligence artificielle n’existe pas » (First Editions).

« Quand la machine apprend », Yann Le Cun, éditions Odile Jacob, 396 pages, 22,90 euros.

5G : la problématique de sécurité

5G  : la problématique de sécurité

Au-delà du risque chinois représenté notamment par l’opérateur Huawei , Charles Cuvelliez et Jean-Jacques Quisquater, Université de Bruxelles, posent  la problématique globale de sécurité  de cette nouvelle technologie (la Tribune)

 

« Avec son rapport sur la sécurité des réseaux 5G, la Commission européenne a mis un baume d’objectivité sur tout ce qu’on entend à propos de Huawei et ZTE et les activités de ces fournisseurs chinois sur les réseaux 5G qu’ils déploieront en Europe. Pour y arriver, la Commission s’est basée sur l’analyse de risque que chaque Etat membre a dû mener sur la base de sa recommandation sur la cybersécurité des réseaux 5G au début 2019.

Les réseaux 5G ont trois concepts innovants mais avec leur part de nouveaux risques : le premier consiste à déployer le réseau 5G avec des équipements multifonctions qui, selon le logiciel qui l’équipe, aura tel ou tel rôle dans le réseau. Le pilotage se fera aussi par logiciel. A priori, c’est une bonne chose puisque les mises à jour et la correction de bugs (de sécurité) se font facilement par voie logicielle. Mais justement, la mise à jour et le déploiement des dernières versions de logiciels à temps, c’est un talon d’Achille de la sécurité informatique dans les grandes organisations. Cette virtualisation (par voie logicielle) des réseaux va confronter les opérateurs télécom à ce même talon d’Achille mais à une échelle plus grande, sur leur réseau même. Il n’est pas dit, de surcroit, que ce logiciel a été écrit en pensant à la sécurité dès le début. Un acteur perdu dans la chaîne d’intermédiaires peut aussi avoir mis un backdoor qui passera inaperçu et il ne le fera pas forcément sur les ordres d’un Etat d’ailleurs.

Une autre innovation des réseaux 5G, c’est son compartimentage en sous-réseaux indépendants les uns des autres (network slicing) sur lesquels des services très différents en exigence pourront fonctionner. Il faudra, pour cela, que la 5G se déploie profondément dans le réseau et pas uniquement au niveau de l’accès radio, comme c’est prévu dans une première phase. Enfin, troisième innovation, les services clés du réseau ou sa gestion seront de plus en plus assurés aussi à la périphérie du réseau, par des équipements spécialisés et pas uniquement dans le cœur du réseau comme avant (mobile edge computing). Cela veut dire beaucoup plus de contrôle de sécurité à effectuer à cette même périphérie. Ce sont autant de points d’entrée de criminels ou hackers qui prendront le contrôle de ces parties périphériques du réseau.

Cela fera aussi beaucoup de nouveaux acteurs, et donc une complexification de la chaîne de valeur. Si on ne contrôle pas tous ses fournisseurs, si ceux-ci se fournissent et se livrent les uns les autres, le risque de compromission à un moment donné va augmenter. Beaucoup de ces nouveaux acteurs, dit la Commission, n’auront pas la maturité pour s’aligner avec le caractère critique d’une fonction télécom.

Ceci dit, la 5G a aussi été conçue avec des améliorations substantielles de sécurité : l’une d’entre elles sera une procédure plus stricte d’authentification sur l’interface radio mais il y en a d’autres… qui ne doivent pas être activées par défaut. Ce qui fait dire à la Commission qu’un grand rôle est donc dévolu au soin avec lequel l’opérateur configurera son réseau.

Le déploiement des réseaux 5G sera graduel : c’est d’abord au niveau de l’accès radio qu’on la verra. Cette 5G fonctionnera sur un cœur de réseau 4G. Les performances seront améliorées mais la sécurité de ce premier réseau 5G dépendra de ses prédécesseurs, 4G et même 3G. Les faiblesses certes connues de la 3G et de la 4G s’appliqueront à ces premiers réseaux 5G mais à une échelle plus grande. L’interaction entre la 5G et ces vulnérabilités connues pourraient générer des effets collatéraux non prévus. Ce n’est que dans un deuxième temps qu’on verra un réseau 5G jusque dans le cœur du réseau avec, cette fois, les innovations et les nouveaux risques du network slicing, de la conduite des réseaux par logiciel et du mobile edge computing.

Il n’y a pas que l’opérateur mobile ou son fournisseur d’équipement 5G à être concerné par la sécurité du réseau. Il y aura aussi, dit la Commission, la myriade de fabricants d’appareils qui se connecteront au réseau 5G et ce ne seront pas que des smartphones mais des voitures autonomes, des villes avec le concept de smart cities, bref tout ce que le monde comptera d’objets connectés. Et puis il y a les utilisateurs finaux et tous les intermédiaires, industriels ou non, qui utiliseront le réseau.

Opérateurs et équipementiers réseau restent les principaux acteurs pour proposer un réseau 5G sûr, insiste la Commission. Or, ces derniers ne sont pas nombreux : il y a Ericsson, Nokia et Huawei. ZTE, Samsung et Cisco sont aussi de la partie. Il n’y a donc pas plus de 5 acteurs qui concentrent les risques. Car, dit la Commission, il y a une grande diversité dans leur gouvernance. Si Ericsson et Nokia répondent aux critères de bonne gouvernance (transparente) du monde occidental, ZTE et Huawei restent opaques. Et il y a d’autres fournisseurs que ceux-là : qu’on songe à tous les autres sous-traitants des opérateurs (ou des équipementiers) qui fournissent les data centers, l’infrastructure pour gérer le réseau, des fonctions de support… La virtualisation du réseau 5G et la mainmise du logiciel va avoir pour conséquence qu’on confiera plus facilement la gestion de services clés du réseau à des externes. Le veut-on vraiment ? Enfin les usines où se fabriquent en dur les équipements à installer sont aussi hors Europe. Qui contrôle ?

Analyse de risque

Une analyse de risque IT impose de regarder la triade confidentialité, disponibilité et intégrité comparativement à la 5G. Vu la place qu’elle est appelée à prendre dans notre vie, c’est la disponibilité et l’intégrité qui compteront d’abord. La confidentialité, importante, est moins critique.

Qui peut en vouloir aux réseaux 5G ? Pour la Commission, sur la base des retours des Etat membres, c’est la menace d’Etats tiers ou d’acteurs soutenus par des Etats tiers qui arrive en premier. Le raisonnement est simple : ce sont des acteurs qui ont les moyens, les compétences et la motivation d’attaquer des réseaux jusqu’au moment où ils réussissent. Ceci dit les menaces des insiders chez l’opérateur mobile ou les sous-contractants, en relation avec la confidentialité ou la disponibilité, sont une autre grande menace, d’après les Etats membres.

L’introduction de la 5G est une transition plus importante pour les réseaux par rapport au passage à la 3G et à la 4G. La normalisation des réseaux 5G effectuée par le 3GPP ne se préoccupe que de deux familles de fonction les composant : les fonctions cœurs de réseau et la fonction d’accès au réseau radio lui-même. Bien d’autres fonctions, comme le transport, la manière d’interconnecter les réseaux, sa gestion et les services de support comme l’orchestration, la facturation ou le suivi des performances ne sont pas normalisés pour la 5G. Or ils feront tourner aussi la 5G.

Il faut aussi identifier les groupes d’utilisateurs critiques de la 5G : on veut utiliser la 5G pour faire tourner les villes, des industries entières, des services publics critiques car la performance de la 5G le justifie. Mais il faudra sécuriser ces utilisations : on songe aux opérateurs de service essentiels définis par la directive NIS, la protection civile, les services d’urgence, les infrastructures critiques, les services de sécurité,… Prévoiront-ils tous une solution de secours si la 5G tombe en panne ?

Comme pour les clouds, le manque de personnel qualifié pour gérer les réseaux 5G est un autre risque tout comme les faiblesses dans l’implémentation des points de contrôle adéquat ou même la culture de la gestion du risque au sein de l’opérateur mobile. Si les normes 5G du 3GPP ne sont suivies qu’approximativement, c’est un autre risque. Du côté de l’opérateur mobile, les risques portent sur un design et une architecture faiblarde du réseau (absence de mesure d’urgence ou de continuité, faible sécurité physique qui permet d’accéder au réseau en différents points du réseaux, politique trop légère d’accès à distance des composants du réseau pour la maintenance,….). Il faudra aussi sérieusement renforcer les procédures dites de change management pour éviter les erreurs humaines et de configuration.

Enfin, il y a les risques liés aux fournisseurs : c’est là que l’allusion à Huawei est la plus évidente, preuve que son fantôme hante la plupart des Etats membres qui ont répondu. C’est l’interférence entre le fournisseur et son pays d’origine qui est pointée du doigt comme risque majeur : pression du pays sur son fournisseur, absence de contrôle démocratique, lien fort entre le gouvernement et le fournisseur. Dépendre d’un seul fournisseur est aussi un problème pour pouvoir passer à un autre fournisseur en cas de souci. Enfin, la présence d’un nombre limité de fournisseurs peut diminuer l’incitation à développer des produits plus sûrs. Et surtout elle a un impact sur le pouvoir qu’auront les Etats membres et leur autorités nationales. Un petit Etat membre va-t-il vraiment pouvoir faire pression sur un fournisseur mondial pour lui fournir les garanties qu’il exige en sécurité ?

Il y a du pain sur la planche pour la Commission mais c’est la première fois que la préoccupation de sécurité apparaît à un niveau politique à si haut niveau et de manière coordonnée.

 

EU coordinated risk assessment of the cybersecurity of 5G networks, Report 9 October 2019, disponible ici : https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=62132

Mobiles zone rurale : moitié moins de puissance qu’en ville

Mobiles zone rurale : moitié moins de puissance qu’en ville

.

Même si on constate un progrès, la campagne est encore mal desservie et en moyenne ne bénéficie que d’une puissance 50% plus faible qu’en zone dense ; Non seulement le maillage est notoirement plus lâche en zone rurale avec encore des zones blanches, aussi des zones grises où les portables fonctionnent en mode alternatif mais selon la dernière enquête le débit moyen en téléchargement atteint 28 Mbit/s dans les zones rurales. Il s’agit d’une nette amélioration par rapport à 2018, où il n’était que de 14 Mbit/s. Reste que ce chiffre demeure plus de moitié moins important que dans les grandes villes et territoires très densément peuplés, où il se situe à 62 Mbit/s. la zone rurale est mieux desservie mais demeurent des disparités dans la qualité de service ; Des différence qui vont encore s’accentuer avec la 5G qui prioritairement concernera les agglomérations sans parler du câble théoriquement qui devrait desservir tout le territoire mais n’atteindra certainement pas les campanes éloignées compte tenu du coût. Notons que curieusement l’opérateur historique Orange qui d’une certaine manière bénéficie d’un avantage concurrentiel n’est pas celui qui accorde le plus d’importance à l’aménagement du territoire en matière de télécom. En effet dans les campagnes, c’est Bouygues Telecom qui ressort en tête des opérateurs fournissant la meilleure qualité de service. Il se démarque surtout de ses rivaux Orange et SFR pour les services de vidéo en ligne et de navigation Web. Free, qui est arrivé plus tard que ses concurrents dans le mobile et s’est d’abord concentré sur la couverture des grandes villes, ferme logiquement la marche. Dans un communiqué publié ce mardi, Bouygues Telecom s’est félicité de ce résultat.

« Pour la deuxième année consécutive, Bouygues Telecom s’impose donc comme l’opérateur de référence en France pour toutes les villes et tous les villages de moins de 10.000 habitants, s’est réjoui Bouygues Telecom. L’opérateur des territoires propose désormais la qualité et la puissance de son réseau 4G à plus de 99% de la population métropolitaine. »

 

Il faudrait ajouter qu’Orange normalement chargé de l’entretien du réseau cuivre laisse ce dernier dans un état très inquiétant.

Alerte Wanadoo (Orange)

Alerte Wanadoo (Orange)

 

Wanadoo est une ancienne messagerie de France Télécom, une entreprise reprise par Orange. Orange qui a imposé sa messagerie tout en assurant la continuité de Wanadoo. Mais avec une certaine réticence au point maintenant d’organiser progressivement la fin de Wanadoo. On sait qu’en cas de perte d’un mot de passe de messagerie, il est possible de le récupérer ou d’en créer un autre  après demande au gestionnaire de cette messagerie. Ce que fait Orange pour les adresses Mel  « Orange » mais pas pour Wanadoo. Dans beaucoup de cas, les mots de passe sont enregistrés dans les ordinateurs. Il arrive que le disque dur tombe en panne et/ou  que toutes les données disparaissent ; Du coup les mots de passe avec. Or Orange se refuse à réactiver un nouveau mot de passe pour Wanadoo et en profite  pour supprimer le compte dont la gestion n’est consentie que gratuitement. Une curieuse conception de la politique commerciale. On comprend qu’une société fasse évoluer sa gamme de produits, en supprime certains, en créent d’autres mais la moindre des choses est d’aviser les clients avant de fermer brutalement le service. On se demande si Orange n’a pas conserver ses réflexes d’administration en considérant les abonnés comme des usagers captifs et non comme des clients. En tout cas, autant prévenir les vieux utilisateurs de Wanadoo, un jour le compte risque d’être fermé sans préavis ; et avec disparaissent évidemment toutes les adresse des correspondants ! Merci à Orange pour ce respect très approximatif des obligations commerciales. Sans parler des lignes téléphoniques physiques (qu’Orange est supposé entretenir) dont les fils tiennent de nombreux poteaux endommagés !

 

La révolution numérique et l’émergence d’un nouveau concept narcissique

La révolution numérique et l’émergence d’un nouveau 

concept narcissique (Clotilde Leguil)

 

Notre époque favorise un nouveau narcissisme numérique pour  la philosophe et psychanalyste Clotilde Leguil dans son dernier livre « “Je”, une traversée des identités » (PUF). Elle en attribue la cause à un internet de l’intime qui provoque souffrance et enfermement. Car si le narcissisme est nécessaire à la constitution de l’individu, il devient mortifère quand il n’est pas dépassé. Indiscutablement les technologies numériques ont permis des progrès qui rendent possible de s’affranchir d’une certaine manière de l’espace. Elle constitue un moyen d’ouverture sur le monde en favorisant l’accélération des échanges d’informations, de bien et de culture. C’est un changement fondamental aussi dans les conditions de production et de consommation. Des outils qui peuvent permettre un accès sans limite à la formation, à la culture et à l’échange. Mais des outils qui peuvent aussi aliéner quand en fait le sujet utilisateur de ces technologies devient l’unique objet de l’utilisation de ces outils. Le monde virtuel qui l’accompagne constituant une sorte de miroir sujet lui-même. Avec en plus une addiction quasi permanente à ce miroir. (Interview de lobs) extraites :

Vous expliquez que nous vivons dans une période particulièrement propice au narcissisme, quels en sont les symptômes ?

Tout part d’une formule que j’ai découverte par hasard à Venise. Alors que je me surprenais à regarder des touristes se filmant avec leur iPhone plutôt que de contempler la beauté de la ville, j’ai lu un graffiti : « Le narcissisme de masse est le goulag des temps modernes. » Aphorisme que j’ai trouvé poétique et rassemblant quelque chose d’un diagnostic de notre époque. Il ne s’agit pas pour moi de dénoncer le narcissisme en tant que tel. Ce que j’interroge, c’est une nouvelle version du narcissisme au XXIe siècle, liée à la révolution numérique, un narcissisme à la fois globalisé et enfermant.

Aujourd’hui, l’univers d’internet – les réseaux sociaux, les sites de rencontre etc. – capte quasiment l’entièreté de la libido : les foules sont comme hypnotisées par le regard de l’autre qui les contemple derrière son écran. »

Intelligence artificielle : limites, potentiels et dangers

Intelligence artificielle :  limites, potentiels et dangers

 

James Buchanan – Directeur Stratégie, Razorfish Londres, évoque les limites de l’IA.( Dans un article de la Tribune)

 

 

 

« L’intelligence artificielle a tous les attributs d’une grande révolution annoncée. Son potentiel est un peu plus « réel » chaque jour, de l’ordinateur qui bat les meilleurs joueurs de Go à la voiture autonome.  Lors de cette manifestation à laquelle j’ai participé aux côtés de 3 autres experts, j’ai eu l’occasion d’aborder l’impact des services propulsés par l’IA à l’échelle de l’individu. Au cours des cinq dernières années, les objets et services intelligents se sont essayés à tous les aspects de notre vie. Depuis la rencontre amoureuse jusqu’à la livraison, en passant par la finance et le sport, des start-ups anticipent désormais le moindre de nos problèmes et nous proposent des services toujours plus personnalisés à l’aide de l’IA. Sous couvert d’être pratiques, ces services changent notre façon de voir le monde, notre manière de penser et notre propre identité. Quelle valeur accordons-nous à notre libre-arbitre ? Sommes-nous prêts à sacrifier notre autonomie ? Avec l’émergence des machines qui apprennent, notre monde devient de plus en plus inquiétant et étrange, et il est légitime de s’interroger sur son évolution.  C’est maintenant qu’il faut en parler, alors que ces outils sont encore à notre service. Personne ne veut devenir le simple prolongement de chair et d’os d’un algorithme. L’innovation a toujours modifié notre façon de penser : ce que nous créons nous influence en retour. Le cas de l’intelligence artificielle est unique. Elle se matérialise par des outils qui ont leur intelligence propre et ne se laissent pas totalement contrôler. A la poursuite de leur logique interne, ils s’améliorent au contact de millions d’utilisateurs, leur influence croissant avec leur intelligence. Ces services semblent utiles car ils résolvent nos problèmes, révèlent ce qu’il y a de meilleur en nous et minimisent nos insuffisances. Ils nous confèrent quasiment des superpouvoirs. C’est pourtant d’un œil critique que nous devrions considérer cette situation. Dans ce futur algorithmique, qu’est ce qui compte le plus ? Avoir l’opportunité de partager mon point de vue est plutôt un accomplissement pour qui, comme moi, a grandi dans une petite ville. Mais que penser d’un futur où l’IA ne me permettra plus jamais de rencontrer ceux qui ne sont pas d’accord avec moi ? Que penser d’un service financier qui, faisant passer en premier ce qu’il sait être mes intérêts à long-terme, me rendra volontairement difficile la prise de décisions d’impulsion? In fine, peut-on sincèrement croire que « le marché » prendra soin de nous ? L’option de facilité consiste à se concentrer sur les résultats : clients enrichis, volume d’engagement, indice de satisfaction… Des données simples car elles correspondent déjà aux objectifs des entreprises. Elles offrent aussi de la lisibilité sur les variables grâce auxquelles les algorithmes s’améliorent, le reflet d’une culture scientifique dans laquelle ont grandi de nombreux tech-entrepreneurs. Mais laisser de côté toute préoccupation de sécurité devrait pourtant nous inquiéter un peu plus. Même des scientifiques de renom comme Stephen Hawkins admettent que l’intelligence artificielle pourrait bientôt nous échapper… Un autre mot pour « résultat » est « fin », et l’on sait qu’elle ne justifie pas les moyens. Enrichir un client n’est pas un argument valable si, en chemin, vous détériorez un autre aspect de sa vie, ou celle de quelqu’un d’autre, de façon imprévisible. Il y a ensuite le risque de devenir dépendant. Que se passerait-il si tous ces services devenaient soudainement inaccessibles ? Serions-nous livrés à nous-mêmes ? C’est bien une question d’éthique que pose en creux l’IA… Il existe heureusement une alternative. Et si au lieu de se focaliser sur les résultats nous aidions plutôt les gens à devenir un peu plus eux-mêmes ? En encourageant la réflexion et la connaissance de soi, nous donnerions la priorité à l’enseignement plutôt qu’à l’automation. Nous donnerions aux gens les outils pour développer leurs compétences naturelles plutôt que de chercher à les remplacer. Nous passerions probablement plus de temps à réfléchir au rôle que ces services jouent au sein de la société plutôt qu’à ce qu’ils apportent à l’individu isolé. En somme, en faisant moins nous pouvons encourager les autres à en faire plus et à agir de façon éthique et responsable. Mais cela n’arrivera pas par hasard, nous devons passer par un chemin choisi délibérément. Tant dans les instances dirigeantes, où le sujet doit être mis à l’ordre du jour des agendas politiques, qu’auprès des citoyens, nous devons nous assurer que les consciences s’éveillent à ces questions. Asseyons-nous autour d’une table et engageons dès aujourd’hui la discussion sur ce que l’IA peut proposer, non seulement aux personnes que nous sommes, mais aussi à celles que nous voulons devenir. »

Le risque d’un contrôle social généralisé par les nouvelles technologies

 

Le risque d’un contrôle social généralisé par les nouvelles technologies  

Les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Chaque chinois  est suivi et noté ! Grâce aux nouveaux outils technologiques, la Chine développe des systèmes très  sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois disposent d’un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs  à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger. Si  les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

La fibre aussi pour les ruraux?

La fibre aussi  pour les ruraux?

 

Finalement, on va peut-être se préoccuper de ces ruraux qui refusent d’adhérer à la philosophie de la métropolisation. Ils pourraient à nouveau nourrir l’espoir d’être raccordé à la fibre contrairement à ce qu’avait déclaré le Premier ministre qui envisageait d’autres solutions comme le satellite ou la 5G. Le problème c’est  que la 5G ce n’est pas pour demain même si on promet de couvrir toute la France dans des délais raisonnables ! Par ailleurs le réseau cuivre est dans un état lamentable, ce sont souvent les fils qui tiennent les poteaux ! Pour aider à la diffusion de la fibre, le gouvernement a indiqué qu’il allait rouvrir les vannes des subventions publiques pour financer en partie les réseaux de fibre dans les campagnes et territoires ruraux. Pour lancer leurs projets, les collectivités pourront à nouveau demander des aides auprès du « guichet France Très haut débit (THD) », qui a été fermé il y a près de deux ans. Cette mesure était très attendue : dans le cadre du plan France Très haut débit – qui ambitionne d’apporter un Internet fixe ultra-rapide à tous les Français à l’horizon 2022 -, il reste 3 millions de foyers en attente de projet de raccordement.

Initialement, le gouvernement a débloqué 3,3 milliards d’euros pour subventionner les réseaux de fibre dans les campagnes. Ce mercredi, Agnès Pannier-Runacher a affirmé qu’avec cette manne, l’exécutif « [est] en capacité de porter l’ensemble des déploiements ». D’après elle, de nombreux déploiements coûtent moins cher que prévu, et les économies réalisées sont progressivement « recyclées » dans les projets à venir. Selon la ministre, les premiers « recyclages » ont permis d’accoucher d’une enveloppe de 140 millions d’euros, laquelle est immédiatement disponible.

Comment cela est-il possible ? A cause de « l’appétence très forte des investisseurs pour les réseaux numériques », répond Julien Denormandie, le secrétaire d’Etat à la Cohésion des territoires. « Dans beaucoup de réseaux, la part de l’investissement privé est aujourd’hui supérieure à ce qu’elle était par le passé, et à ce que nous prévoyions », explique-t-il.

Les collectivités et les industriels de la fibre dans les campagnes ont beau saluer la réouverture du guichet THD, ils estiment qu’une rallonge financière de l’Etat est aussi urgente que nécessaire. Le chiffre de 600 millions d’euros est souvent évoqué. « A budget constant, l’État ne peut en effet financer que 30% [des] premiers dossiers, écrit le député Patrick Chaize. S’il est bien confirmé que le reliquat du plan France THD soit affecté à hauteur de 140 millions d’euros à l’atteinte de l’objectif du 100% fibre pour tous les Français, il convient donc de prévoir, dans le cadre de la loi de finances, d’une première autorisation de programme de 322 millions d’euros supplémentaires. C’est le faible prix à payer pour ne laisser aucun département sur le carreau. » .

 

 

La fin des « zones blanches » pour bientôt ?

La fin des  « zones blanches » pour bientôt ?

 

Ce sera bientôt la fin des zones blanches d’après le gouvernement. Ce n’est pas la première promesse, les premières datent de plus de 20 ans. D’ailleurs l’échéance est floue : la couverture totale aura lieu dans les toutes prochaines années !  Les zones blanches sont les zones mal ou non couvertes ; L’exemple le plus caricatural c’est d’adresser un message vocal faute de liaison, lequel message vocal (ou SMS) ne parviendra que le lendemain au destinataire. La nature de la couverture téléphonique varie en outre dans le temps et en fonction de la météo et de l’encombrement des communications. D’après Julien Denormandie, 1.171 zones blanches ont aujourd’hui été identifiées et « sont en cours de résorption par les opérateurs ».

Conscient de la grogne et du sentiment de déclassement des Français qui vivent dans ces communes, le ministre a indiqué qu’à l’arrivée d’Emmanuel Macron au pouvoir, l’exécutif a été contraint de redéfinir ce qu’était une zone blanche. De fait, seuls 600 territoires étaient jusqu’alors considérés comme tel. Un chiffre très en-deçà de la réalité. « La définition même de ces zones blanches était biaisée, parce qu’à partir du moment où un opérateur avait un signal, et même si ce signal était très faible, la zone n’était plus considérée comme une zone blanche », souligne Julien Denormandie.

Avec l’Arcep, le régulateur des télécoms, le gouvernement a créé un nouveau référentiel. Désormais, une zone « où il n’y a pas au moins un opérateur de bonne qualité »dixit Julien Denormandie, est estampillée « blanche ». Pour pousser les opérateurs à couvrir ces territoires, le gouvernement a signé un accord, baptisé « New Deal », avec eux, en janvier 2018. En échange de la prolongation d’utilisation de certaines fréquences mobiles, les Orange, SFR, Bouygues Telecom et Free se sont engagés à investir 3 milliards d’euros pour améliorer la couverture du territoire, en particulier dans ces fameuses zones blanches.

L’intelligence artificielle : comment prendre en compte l’intelligence humaine ?

L’intelligence artificielle : comment prendre en compte  l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)

« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.):

le risque d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense. Chaque chinois  est suivi et noté ! Grâce aux nouveaux outils technologiques, la Chine développe des systèmes très  sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très conscients. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Intelligence artificielle : science ou art ?

 

Intelligence artificielle : science ou art ?

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony Retail AI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui s’attarde cependant seulement sur les problèmes méthodologiques et qui n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine, sur les comportements et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

Nouvelles technologies, il n’y a pas que les start-up du numérique !

Nouvelles technologies, il n’y a pas que les start-up du numérique !

Bruno Arabian, Consultant sur le secteur des technologies de santé à l’agence Ulysse Communication constate dans la Tribune l’absence frustrante des biotechnologies et des technologies médicales de la “start-up nation

La liste des Next40 lancée le 18 septembre ne compte aucun entrepreneur de la biotech ou des technologies médicales. Comme si les start-up du numérique incarnaient à elles seules, aux yeux des politiques, l’innovation en France, dénonce Bruno Arabian, consultant en communication du secteur des « Health Techs »

Tribune.

 

 « Le 18 septembre, le président de la République a mis en scène la « start-up nation » et le lancement de Next40, la liste des quarante start-up « à fort potentiel ». La Banque publique d’investissement (BPI) va mobiliser 5 milliards d’euros pour l’innovation. Les dirigeants de start-up du numérique sont aux anges, les banquiers, investisseurs et communicants du numérique le sont tout autant. Car pour la French Tech et notre président, l’innovation en France se limite exclusivement au numérique.

Mais cette belle journée a tout d’un « frichti 3.0 » entre amis. Car pour les représentants d’autres pans entiers de l’innovation en France, cela ressemble plus à un dîner de cons auquel ils n’ont même pas été conviés. C’est notamment le cas du secteur « Health Tech » (biotechnologies et technologies médicales).

Comment accepter l’idée qu’aucune des sociétés des sciences de la vie – dont chacun des fleurons possède plus de brevets que les sélectionnés du Next40 – ne soit de la fête et ne dispose du fameux tampon « future licorne » ?

Certaines ont pourtant levé plusieurs centaines de millions d’euros – le montant des tours de table est pourtant un marqueur primordial pour le milieu de la French Tech. D’autres sont même cotées au Nasdaq, Mecque mondiale de l’innovation. Cette absence est d’autant plus frustrante que la BPI dispose de nombreuses études bien documentées sur le sujet !

 « Le secteur biotech/medtech est encore jeune en France. Il faut lui laisser du temps ! » : C’est l’explication, maintes fois entendue dans les couloirs ministériels. Mais elle est historiquement fausse : ce secteur est né en 1977 à Toulouse, avec Cayla, ou avec Transgene à Strasbourg en 1979… bien avant la naissance des américains Amgen ou Gilead, devenus entre-temps des géants de l’industrie pharmaceutique mondiale.

Pour les représentants d’autres pans entiers de l’innovation en France, cela ressemble plus à un dîner de cons auquel ils n’ont même pas été conviés. C’est notamment le cas du secteur Health Tech …… »

IA : science ou art ?

 

Un  article intéressant de Raphael Bertholet, Vice-Président R&D de Symphony RetailAI France dans le journal la Tribune évoque les possibilités d’intégration de la sensibilité humaine dans l’intelligence artificielle au point que cette dernière pourrait être considérée comme un art. Un article qui toutefois n’évoque pas les phénomènes d’aliénation et de domination de ces nouvelles technologies sur la pensée humaine et pas seulement dans le domaine marchand.

 

 

Tribune

 

« Alors que l’on croyait, il y a encore peu, que l’une des limites de l’IA était la créativité – notamment artistique -, nous savons à présent qu’il n’en est rien et que l’homme peut être challengé aussi dans ce domaine. En témoigne la première exposition qui se tient en ce moment en Angleterre, rassemblant les œuvres d’AI-Da, humanoïde doté d’une intelligence artificielle. Il n’aura fallu que quelques jours pour que tous ses dessins, tableaux et sculptures se vendent, pour plus d’un million d’euros. Preuve, s’il était besoin, que l’IA est un placement d’avenir !

Au-delà de son caractère médiatique, cet évènement montre un point capital : l’IA lève le voile sur des domaines que l’on croyait hors du champ de la rationalité et des sciences, des domaines où seuls l’instinct et le talent humains pouvaient agir et apporter des réponses. L’IA montre que ce n’est pas si vrai et que les algorithmes peuvent, contre certaines certitudes, trouver des réponses à des questions qui étaient censées échapper à la science.

La prévision de la demande est, pour partie, l’un de ces domaines.

Jusqu’à récemment, l’approche en matière de prévision de la demande dans le retail a consisté à s’appuyer sur des outils statistiques et analytiques pour une grande partie des catégories de produits – et sur l’expérience et l’instinct des prévisionnistes pour ce qui sortait du cadre des modèles bien établis.

Bien que très performants, les outils statistiques classiques touchent, en effet, à leurs limites dès que l’on n’est plus dans une situation habituelle. Comment anticiper, par exemple, la demande d’un produit qui va faire l’objet d’une importante promotion le mois prochain alors que le vécu de ce même produit est vide de ce genre d’expérience ? Comment savoir à quel point le lancement d’un nouveau produit – pour lequel il n’y a pas de données existantes – va susciter la demande ?

Pour toutes ces situations inhabituelles pour lesquelles les statistiques ne peuvent plus venir en aide au travail des prévisionnistes, ces derniers se fient généralement à leur expérience. C’est l’intuition qui prend le relai. C’est le point au-delà duquel la prévision de la demande cesse d’être une science et devient un art.

Or c’est précisément ce point où l’IA est aujourd’hui en train de renverser la situation. En analysant des corrélations et des probabilités de corrélations avec d’autres articles, d’autres lieux de vente, d’autres données contextuelles, l’IA va se comporter comme l’instinct ou l’intuition du prévisionniste et permettre à la prévision de la demande de continuer à être une science, là où l’on pensait qu’elle restait un art.

Dans le retail comme ailleurs, la valeur d’une prévision se mesure à sa fiabilité et sa précision. Si la prévision de la demande pour les produits connus atteint des niveaux de précision élevés, celle des produits ou situations inhabituels fait chuter le taux de précision global, qui se heurte à une limite que l’on croyait difficile, pour ne pas dire impossible, à briser.

Parce qu’elle sait non seulement traiter des volumes de données immenses et hétérogènes, mais aussi faire les corrélations qui permettent d’expliquer l’inhabituel, l’IA gomme aujourd’hui cette limite. Elle donne aux prévisionnistes les moyens de passer une étape supérieure majeure dans leur travail, en leur fournissant les pistes et les corrélations qui leur permettent d’expliquer l’inhabituel et en industrialisant le bénéfice de l’intuition pour anticiper, avec une précision inédite, les situations pour lesquelles il n’existe pas ou peu de données directement reliées à l’évènement.

Avec l’IA, le talent des prévisionnistes peut ainsi être mis au profit de cette nouvelle marge de progression du taux de précision des prévisions. Leur intuition servira à proposer et tester de nouvelles données contextuelles aux évènements, de nouveaux attributs descriptifs pour enrichir l’IA et améliorer ses performances. Sans être encore une science exacte, la prévision de la demande s’en rapproche de plus en plus avec l’IA, et pourrait bien tendre à le devenir. »

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Nouvelles technologies (5G, intrenet, console etc.): le risque d’un contrôle social généralisé

Nouvelles technologies (5G, internet, console etc.): le risque d’un contrôle social généralisé

On sait que les Chinois ont déjà développé un système d’information qui permet de contrôler la population, ce qu’elle fait et ce qu’elle pense.  Grâce aux nouveaux outils technologiques, la Chine développe des systèmes encore plus sophistiqués pour suivre encore de plus près le comportement de chacun et l’influencer. En partant d’un banal outil de scoring financier, les chinois bâtissent un puissant système pour noter tous les habitants du pays. Le contrôle social sera un enjeu majeur des prochaines décennies. Et pas seulement en Chine. On sait que la technologie type G5 notamment ou encore les consoles permettront de recueillir une masse d’informations personnelles sur les activités de chacun, les goûts, les affinités, les engagements et les personnalités. Il s’agira en retour de nourrir, grâce à la puissance des nouveaux outils, les facteurs qui influencent la personnalité.

En clair, s’agira de peser sur les comportements et la pensée des citoyens désormais plus ou moins télécommandés sans même qu’ils en soient très confiants. Déjà avec les études marketing actuelles et les outils d’information commerciale, il est possible d’orienter de manière assez significative le choix des ménages. Les produits qu’ils achètent ne se retrouvent pas par hasard chez les consommateurs. On peut le vérifier à travers la modification  des modes de consommation largement influencés par la publicité, les lobbys et les influenceurs à leur service. Mais demain, il ne s’agira pas simplement d’une intervention de la technologie dans le domaine marchand mais comme en Chine d’intervenir sur les comportements et le contenu même de la pensée. Avec de tels outils, la démocratie pourrait être gravement mise en danger, si les nouvelles technologies  ne sont pas régulées, de nouvelles formes de dictatures pourraient apparaître. Justement ce que recherche la Chine pour pérenniser son système de domination et d’aliénation par le parti communiste. Mais un risque qui pourrait affecter d’autres pays comme les États-Unis ou même l’Europe. . Et ce ne sont pas les opinions révélés par les sondages qui s’y opposeront comme le déclarait déjà Bourdieu en 1972 :

« On sait que tout exercice de la force s’accompagne d’un discours visant à légitimer la force de celui qui l’exerce ; on peut même dire que le propre de tout rapport de force, c’est de n’avoir toute sa force que dans la mesure où il se dissimule comme tel. Bref, pour parler simplement, l’homme politique est celui qui dit : « Dieu est avec nous ». L’équivalent de « Dieu est avec nous », c’est aujourd’hui « l’opinion publique est avec nous ». Tel est l’effet fondamental de l’enquête d’opinion : constituer l’idée qu’il existe une opinion publique unanime, donc légitimer une politique et renforcer les rapports de force qui la fondent ou la rendent possible. »

 

Google refuse de payer les éditeurs d’information

Google refuse de payer les éditeurs d’information  

Google refuse tout simplement qui déjà ne paye pas d’impôts à la hauteur de ses activités en Europe, refuse aussi de payer des droits aux producteurs d’information. Pour cela Google a trouvé la combine : le moteur de recherche ne diffusera plus les textes mais uniquement le titre avec le lien URL. Publiée fin juillet et transposant une directive européenne, la loi française créant “un droit voisin au profit des agences de presse et des éditeurs de presse” impose à l’ensemble des plates-formes, réseaux sociaux et autres sites internet de verser une rémunération juste aux médias dont ils utilisent les articles et dont ils tirent d’importants revenus.

 

Pour les recherches liées à l’actualité, qu’elles soient effectuées via le moteur de recherche ou via Google Actualités, par exemple, Google France, filiale d’Alphabet n’affichera plus désormais des extraits de texte ou une vignette photo, mais uniquement par défaut un titre et un lien URL.

“Lorsque la loi française entrera en vigueur, nous n’afficherons plus d’aperçu du contenu en France pour les éditeurs de presse européens, sauf si l’éditeur a fait les démarches pour nous indiquer que c’est son souhait”, peut-on lire dans un billet publié sur le blog de Google France.

“Ce sera le cas pour les résultats des recherches effectuées à partir de tous les services de Google”, est-il précisé.

Les médias pourront cependant choisir s’ils souhaitent ou non que leurs contenus soient accessibles via les services de Google, définir la taille maximale des images miniatures ou encore le nombre maximal de caractères des aperçus des textes.

Le ministre de la Culture Franck Riester, qui a reçu dans la matinée le vice-président de Google en charge de Google Actualités, Richard Gingras, a jugé que la position de Google sur la rémunération n’était “évidemment pas acceptable”, puisque l’objectif politique des textes français et européen est de “permettre un juste partage de la valeur produite, au bénéfice des plates-formes, par les contenus de presse.”

“La définition unilatérale des règles du jeu est contraire à la fois à l’esprit de la directive et à son texte”, déclare le ministre dans son communiqué, en précisant qu’il compte aborder “très prochainement” le sujet avec ses homologues européens afin de “remédier à cette situation”.

La France est le premier pays de l’Union européenne à mettre en place un tel dispositif, alors qu’une directive européenne en ce sens a été adoptée au printemps dernier.

Les géants du net comme Google et Facebook sont régulièrement accusés de capter l’essentiel de la valeur des contenus hébergés ou mis en ligne sur leurs sites, grâce à la publicité et à la monétisation des données personnelles des utilisateurs.

Dans son billet de blog, Google estime au contraire contribuer à soutenir la presse, en contribuant à élargir la visibilité de certains médias et en “orient(ant) les internautes vers les sites d’information, qui en tirent un revenu supplémentaire”.

Fibre dans les campagnes : c’est pas pour demain

Fibre dans les campagnes : c’est pas pour demain

En dépit des déclarations des lobbys et du gouvernement, la fibre optique, ce n’est pas pour demain dans les campagnes. Certes on affirme que l’ensemble du territoire sera couvert pour donner une image d’aménagement équilibré du territoire mais dans les faits il en va autrement.

Pour l’instant le taux de pénétration de la fibre dans les campagnes n’est « que » de 16%, contre 39% dans les grandes villes, et 42% dans les villes moyennes et les périphéries des grandes agglomérations. De toute manière le Premier ministre lui-même avait pris des précautions d’usage en signalant que la volonté était bien d’équiper la plus grande partie de la France avec la fibre mais que d’autres moyens pourraient être utilisés comme le satellite ou encore la 5G pour suppléer à l’absence de câbles dans les zones peu denses. Notons que ces zones peu denses sont parfois dépourvues de couverture 4G  ou de couverture tout court à certains moments.

Les grands opérateurs nationaux, c’est-à-dire Orange, SFR, Bouygues Telecom et Free se livrent à une concurrence féroce pour équiper les infrastructures dans les grandes villes. Mais dans les campagnes, moins peuplées et bien moins rentables, la donne est différente. Comme les grands opérateurs n’ont pas souhaité y aller spontanément, des réseaux dits d’initiative publique (appelés RIP) ont vu le jour. Ici, ce sont les collectivités qui déploient leurs propres réseaux de fibre, en bénéficiant d’aides financières de l’Etat.

Elles font appel à des opérateurs d’infrastructures, qui sont soit des filiales des grands opérateurs (Orange Collectivité ou SFR Collectivité). Soit d’autres acteurs peu connus du grand public, à l’instar de Covage, Axione (qui appartient au groupe Bouygues), Altitude ou TDF. Ces derniers signent ensuite des accords avec les opérateurs de détail, lesquels commercialisent les abonnements. Les campagnes et zones peu peuplées sont un des grands enjeux du déploiement de la fibre et de l’accès à Internet à très haut débit. Ces territoires regroupent 40% de la population. Ils représentent 17 millions de locaux et habitations à raccorder.  Le problème pour nombre de collectivités locales c’est que souvent la facture a pratiquement doublé par rapport aux devis initiaux et que vraisemblablement certaines zones peu denses seront encore abandonnées et où devront se satisfaire de la liaison via le cuivre (par parenthèse dans un état lamentable) et où de la 4G améliorée.

 

 

 

12345...12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol