Archive pour la Catégorie 'nouvelles technologies'

« Combler l’insuffisance numérique »

« Combler l’insuffisance numérique »

Cofondateur et directeur de la recherche de la Fondation Internet Nouvelle Génération (Fing), Jacques-François Marchandise propose des moyens de combler la faille numérique dans une interview à la Tribune.  

- Selon le gouvernement, il y aurait 13 millions de Français « en grande difficulté » avec le numérique. Que vous inspire ce chiffre ?

Ce n’est pas si simple. Je ne suis pas, personnellement, d’accord avec l’approche qui consiste à séparer d’une traite ceux qui maîtrisent le numérique, pour qui tout va bien, et ceux qui ne le maîtrisent pas, pour qui tout va mal. Cette vision des choses, censée mettre en lumière le retard de certains à se saisir du digital n’a pas lieu d’être, puisque les raisons pour lesquelles ils ne sont pas usagers ou éprouvent des difficultés vis-à-vis du numérique sont extrêmement variées.

Comment définissez-vous, alors, l’exclusion numérique ?

Il y en a de nombreuses sortes. Il y a d’abord les fractures principales de la société, c’est-à-dire les difficultés sociales et économiques des gens. Par exemple, si l’on vit en dehors de tout lien social, du circuit économique, et que l’on n’a pas d’emploi, le numérique peut accroître l’isolement, même si l’on utilise un ordinateur depuis vingt ans. C’est ce que certains appellent la « fracture numérique secondaire ». Mais pour certaines personnes confrontées à la perte d’emploi, au départ à la retraite ou à d’autres événements de la vie, le numérique peut a contrario avoir un effet de rattrapage, d’amortisseur et de reconnexion, permettant de rétablir ou de maintenir des liens. Une autre forme d’exclusion numérique est liée à la connaissance et à la capacité d’apprentissage. Ce n’est pas toujours, comme on pourrait le penser, une question d’études ou diplôme : il y a de nombreux exemples d’autodidaxie, plus rarement chez des personnes isolées ; mais il faut aussi avoir « appris à apprendre », comprendre le fonctionnement des moteurs de recherche et la manière dont l’information circule en ligne. Il arrive que des personnes qui ont des formations classiques, des diplômes, soient incompétentes en environnement numérique, parce qu’elles ne comprennent pas forcément que plus l’on pose de questions à un moteur de recherche, plus celui-ci restreint les réponses. Nos étudiants d’aujourd’hui sont encore loin d’être tous à l’aise avec cela.

Quoi qu’il en soit, vous êtes opposé à la « rhétorique du retard », qui cible depuis longtemps certaines populations qui utilisent peu le numérique…

Effectivement. Parce que certaines personnes utilisent parfois des outils non-digitaux pour arriver à leurs fins. Et elles s’en sortent bien mieux comme ça ! Or ces personnes ne sont pas forcément en difficulté vis-à-vis du numérique, même si elles peuvent être considérées comme en dehors. Dans les années 2000, la rhétorique du retard a été utilisée pour expliquer le fait que les Français étaient réticents à abandonner le Minitel pour passer à Internet. Mais si cette situation a duré aussi longtemps, c’est parce que les services Minitel marchaient très bien. Ils n’étaient certes pas aussi sophistiqués qu’aujourd’hui, mais on y trouvait déjà des services bancaires, de la livraison de courses à domicile, et on pouvait trouver très vite beaucoup d’informations utiles, comme des horaires de trains. C’était un retard pour le développement du marché, pas forcément pour les usagers.

Est-ce la raison pour laquelle déterminer les populations vraiment en difficulté vis-à-vis du numérique s’avère difficile ?

Certaines personnes qui n’utilisent que très peu Internet ne sont pas en difficulté avec cet outil. Si elles ont des proches ou des collègues qui s’en servent et peuvent les aider, leur peu d’appétence pour le numérique ne les empêche pas de remplir leur déclaration d’impôts en ligne sans problème, de faire des recherches sur Google ou d’accéder à Wikipedia.

Dans quels cas de figure Internet est-il véritablement source de problèmes ?

Dans une enquête récente, nous avons posé le problème dans l’autre sens. Nous nous sommes demandé dans quels cas de figure le numérique donnait du pouvoir d’agir, dans la vie quotidienne ou les choix personnels. On s’est aperçu que, de manière un peu paradoxale, plus on a d’usages numériques, plus on a d’ennuis. En clair, lorsque certaines personnes se contentent d’aller sur Google et de transférer des photos à des proches, elles ont peu de soucis avec Internet. C’est lorsque l’on a plusieurs dizaines d’usages différents – ce qui est le cas pour un internaute moyen – que les problèmes apparaissent. On perd des documents, on ne sait pas comment publier et dépublier des messages sur certains sites, on est parfois angoissé par certains actes sur une appli bancaire ou en traitant ses impôts… Ces nouveaux embarras numériques, comme je les appelle, concernent les gens qui sont déjà connectés. Ensuite, on a constaté que plus les Français ont d’usages numériques non choisis, plus ils ont des ennuis.

C’est par exemple le cas lorsque l’État impose la dématérialisation de certains services administratifs ou de l’impôt sur le revenu ?

Les démarches administratives en ligne sont difficiles pour beaucoup, alors qu’elles sont très utiles pour d’autres. Avant le numérique, il y a d’abord une fracture administrative, le non-recours aux droits, la difficulté à s’orienter, que la suppression de nombreux guichets physiques risque de ne pas arranger. Le numérique peut être positif s’il atténue les difficultés des gens qui ont du mal avec l’administration. Mais le numérique n’a pas le pouvoir de corriger les acronymes incompréhensibles ou la multiplicité des exceptions des procédures administratives. Il arrive souvent que le passage au numérique soit pensé pour simplifier les démarches. L’idée est, par exemple, de cesser de questionner quelqu’un sur ses enfants alors qu’il a indiqué, au début d’un formulaire, qu’il n’en avait pas. Mais historiquement, chaque service administratif a fait sa cuisine de son côté. Tous les ministères, les administrations territoriales et sociales ont procédé à une intégration verticale du numérique, avec leurs propres règles du jeu, leurs modes de navigation et leurs logiques de conservation des documents. Lesquels sont, en outre, souvent modifiés d’une année sur l’autre. Ce qui, in fine, met beaucoup d’usagers dans une situation difficile.

Le monde des services Internet apparaît au moins aussi compliqué…

C’est l’autre espace numérique avec lequel les internautes peuvent être en grande difficulté. C’est ce que j’appelle la fracture servicielle. Ici, le jeu s’est énormément ouvert ces dernières années. De nombreuses plateformes interviennent dans beaucoup de domaines, comme les services à domicile pour les seniors, les services bancaires, l’assurance, la vente à distance. Le problème, c’est qu’une partie d’entre nous ne sait plus très bien de qui il est client. Pour certains, habitués à s’adresser à des vendeurs dans des boutiques physiques classiques, c’est très déstabilisant, déboussolant, et débouche parfois sur une profonde perte de confiance vis-à-vis de ces nouveaux usages.

Qui est concerné par ces fractures administrative ou servicielle ? On présente souvent les jeunes défavorisés ou les seniors comme les populations les plus déconnectées, ce qui impliquerait de concentrer sur elles les politiques d’inclusion numérique…

Certains disent en effet que, de manière caricaturale, l’inclusion numérique concerne les personnes âgées et les pauvres. Mais dans les deux cas, ce n’est pas tout à fait vrai. Il y a des préjugés sociaux énormes sur les personnes en difficulté économique. Plusieurs études ont montré que les ménages modestes étaient autant – voire plus – équipés en matériel technologique que les ménages plus aisés. Pour y arriver, beaucoup se sont endettés fortement dès le début des années 2000. Ils se disaient que s’ils ne prenaient pas un crédit sur un ordinateur, ils allaient, en gros, mettre en péril l’avenir de leurs enfants… Enfin, les jeunes seniors, eux, constituent, et de loin, la population qui a connu la plus forte augmentation en matière d’usages numériques lors de la dernière décennie. Pourquoi ? Parce que, selon certaines études, ceux qui partent en retraite et sortent d’un environnement professionnel et socialisé se convertissent à Internet pour ne pas se retrouver isolés. En parallèle, certains jeunes ont de réelles difficultés numériques.

Pourquoi ?

Pour diverses raisons. Par exemple, le fait d’exister en ligne suppose d’oser écrire en ligne, ce qui est parfois un problème. Il existe aussi beaucoup d’espaces sociaux numériques dans lesquels la difficulté principale va être la langue – sachant, en outre, qu’on vit dans un pays impitoyable avec l’orthographe. D’autres jeunes, eux, ont du mal à changer de registre en fonction de l’espace numérique (forums, réseaux sociaux, messageries instantanées, e-mails) dans lequel ils se trouvent.

Qui sont alors ceux pour qui Internet pose problème ?

Il existe plusieurs familles de difficultés. Une partie des gens pour qui Internet pose problème considèrent que ce n’est pas de leur époque, que c’est trop compliqué, qu’ils n’y arriveront jamais, qu’ils sont moins bons que les autres. Il y a, ici, une question d’estime de soi. Un autre important facteur d’exclusion numérique, c’est l’isolement tout court. Lorsque l’on n’a pas beaucoup de liens sociaux, un carnet d’adresses pauvre et peu d’échanges avec les autres, on ne sait pas à qui s’adresser pour résoudre ses difficultés sur Internet. Ce qui est intéressant, c’est que, par des biais détournés, le numérique permet de reconstituer un chemin de mise en relation avec autrui. On a par exemple constaté que sur leboncoin.fr, certaines personnes mettent en vente des objets à des prix très bas. Leur véritable objectif n’est pas de vendre, mais d’avoir une interaction physique et sociale avec l’acheteur… Une situation de grave solitude face au numérique, c’est la famille monoparentale, précaire, avec des ennuis qui saturent le temps et l’attention, et personne pour l’aider dans un environnement proche. Ici, la difficulté numérique découle d’abord et avant tout d’un problème social, que l’on soit jeune ou âgé. L’exclusion et l’adolescent isolé dans la cour de récréation sont des problèmes qui n’ont pas magiquement disparu avec le numérique.

Existe-t-il d’autres facteurs de difficulté numérique ?

Il y a le sujet de l’argent et des difficultés économiques. Pendant des années, certains pensaient que pour réduire la fracture numérique, il fallait donner des ordinateurs aux foyers les plus pauvres. Mais ce qu’on constate, c’est qu’il y a déjà du matériel chez les plus défavorisés. En revanche, le prix des abonnements Internet fixe et mobile pose problème. C’est souvent ce qui met en danger le budget des familles les plus pauvres.

Outre les abonnements, il y a encore, notamment dans certains bourgs et villages, des zones blanches où le mobile ne passe pas, et des endroits où se connecter à Internet relève du chemin de croix…

Oui, et cette situation était prévisible il y a vingt ans lorsque les États ont libéralisé le secteur des télécoms. Nous avons créé une situation où l’État n’a pas assez le bénéfice des réseaux les plus solvables dans les zones les plus densément peuplées. Cela l’empêche de réaliser correctement la péréquation dans les campagnes et banlieues moins peuplées et moins rentables, qui intéressent peu – ou pas – les opérateurs privés. Cet ancien choix politique a favorisé la concurrence et le développement numérique, mais laisse le contribuable payer la note des réseaux moins profitables…

Comment, d’après vous, faut-il s’y prendre pour mener une politique d’inclusion numérique efficace ?

Pour y arriver, il faut d’abord utiliser le numérique en articulation plutôt qu’en substitution. Le numérique constitue souvent une stratégie perdante lorsqu’il remplace purement et simplement des interactions existantes. Certaines personnes ne seront pas plus à l’aise qu’avant avec un service entièrement digitalisé parce qu’elles étaient déjà en difficulté précédemment. D’autres personnes, elles, risquent de se retrouver perdues devant un service 100 % en ligne si elles ne bénéficient pas d’aide extérieure ou de médiation pour comprendre comment il fonctionne. D’où l’importance, par exemple, de repenser les médiations sociales et leurs insuffisances au sens large, avec tous les acteurs existants (et pas seulement ceux qui seraient nativement digitaux), en y incluant les médiations numériques. En outre, étant donné que l’isolement constitue un problème majeur, il est fondamental de repenser nos cadres collectifs dans un monde traversé par le numérique. Cela peut permettre, notamment, de mieux former les aidants, les acteurs sociaux et associatifs, aux difficultés numériques – mais aussi de former les acteurs du numérique aux questions sociales.

MINIBIO

Cofondateur et directeur de la recherche de la Fondation Internet nouvelle génération (Fing), Jacques-François Marchandise travaille depuis des années sur la manière dont la société s’approprie les outils digitaux. Il a également fondé, en 1997, le cabinet de conseil en stratégies numériques Items Proposition. Jacques-François Marchandise a notamment participé à la création de plusieurs services numériques, comme celui de servicepublic.fr

Le réseau de Téléphonie fixe à l’abandon

Le réseau de Téléphonie fixe à l’abandon

 

Il est clair que depuis la libéralisation, c’est-à-dire la multiplication des opérateurs de télécom le réseau de téléphonie fixe est dans un état lamentable. Précédemment l’entretien était correctement assuré par France télécom. Depuis France Télécom est devenu Orange et s’est trouvé confronté à une concurrence très agressive. Du coup Orange a pratiquement laissé tomber l’entretien des lignes dont certaines pendouillent même sur le sol où sont rattachés avec des bouts de ficelle à des branches d’arbres. Au premier coup de vent c’est la rupture assurée surtout dans la France périphérique ou l’état des lignes est encore pire que dans les zones agglomérées. Pourtant théoriquement l’entretien du réseau fixe incombe à Orange en tant qu’ coopérateur du service universel. Du coup l’Autorité de régulation des télécoms (Arcep) a mis en demeure Orange, mardi, de respecter son obligation de qualité de service en tant qu’opérateur du service universel du téléphone fixe. Le régulateur a déploré dans un communiqué une « dégradation progressive de la qualité de service » de l’opérateur, censé proposer un service de téléphonie abordable et pour tous. C’est par un arrêté du 27 novembre 2017 que l’ancien France Télécom avait été désigné pour trois ans comme opérateur chargé de fournir les prestations « raccordement » et « service téléphonique » du service universel. Pour étayer ses accusations, l’Arcep cite des critères de qualité de service précis du son cahier des charges, comme le délai maximum pour traiter 85% des dérangements d’abonnés. Il devrait être de 48 heures mais ce délai a atteint 70 heures au premier trimestre 2018, puis 63 heures au deuxième.« Orange doit redresser le tir de toute urgence, dès la fin de l’année. Peu importent les moyens, nous voulons des résultats », a mis en garde le président de l’Arcep Sébastien Soriano, dans un entretien à paraître mercredi dans Le Figaro.

La Blockchain : une vraie révolution (Joseph Lubin)

 La Blockchain : une vraie révolution   (Joseph Lubin)

, le Canadien Joseph Lubin, expert en blockchain, aussi  des premiers milliardaires en cryptomonnaies au monde explique le potentiel révolutionnaire de la Blockchain, (interview la Tribune

 

Comment êtes-vous arrivé dans l’univers de la Blockchain ?

JOSEPH LUBIN - Début 2011, j’ai commencé à beaucoup m’intéresser au livre blanc de Satoshi Nakamoto sur le Bitcoin [paru fin 2008 sous le titre « Un système pair-à-pair de cash électronique »]. Il décrit à la fois la création d’un « jeton de valeur », le Bitcoin, une technologie de base de données de nouvelle génération, la Blockchain, et la « crypto-économie », qui est devenue un sujet d’études. J’ai réalisé que cette technologie pouvait nous aider à tout réinventer, tout reconstruire. J’ai commencé dans la robotique et les réseaux neuronaux, j’ai travaillé pendant 20 ans dans la tech et les logiciels, notamment chez Goldman Sachs, à l’informatique, puis dans un hedge fund, jusqu’à ce que le monde financier commence à s’effondrer. J’étais désenchanté, déçu. J’ai lu tout ce qui existait sur le Bitcoin et la Blockchain, je suis devenu une sorte d’expert. Je n’ai pas pensé lancer une activité dans ce domaine à l’époque, il était clair que cette technologie était encore très immature et allait le rester un moment.

En décembre 2013, à Toronto, j’ai rencontré Anthony Di Iorio, qui travaillait sur un projet de Bitcoin Global Alliance et avait ouvert un lieu, Decentral, où se réunissaient des passionnés pour réfléchir au Bitcoin 2.0. Beaucoup de gens avaient réalisé que la technologie Blockchain devrait servir à de multiples applications au-delà du seul cas d’usage étroit de la monnaie. Anthony m’a fait rencontrer Vitalik Buterin [un jeune programmeur surdoué russo-canadien, ndlr], qui avait cofondé Bitcoin Magazine, et savait expliquer clairement, à seulement 19 ans, des choses très techniques. Il avait écrit une ébauche de livre blanc. Sa vision consistait à séparer cette technologie très compliquée en deux couches, le protocole qui nécessite ce que j’appelle des « prêtres du protocole », des experts très spécialisés capables d’ajouter de nouvelles fonctionnalités, et la couche des applications, où des ingénieurs ordinaires peuvent concevoir et faire tourner toutes sortes de programmes. Trois semaines plus tard, Vitalik avait formalisé le projet Ethereum.

Quel a été votre rôle dans la création d’Ethereum ?

Je suis un des huit cofondateurs d’Ethereum. En janvier 2014, nous avons loué une maison juste avant la grande conférence sur le Bitcoin en Amérique du Nord à Miami, où Vitalik devait présenter publiquement son livre blanc [sous le titre « Une nouvelle génération de plateforme pour les ‘smart contracts’ et les applications décentralisées« , ndlr]. Il y avait déjà beaucoup de buzz sur le projet. Deux codaient, Gavin Woods et Jeff Wilcke, tandis que les autres s’occupaient de toute la documentation et de décisions de conception. Je me suis notamment chargé de la définition de ce que serait le « jeton » d’Ethereum et la vente de ce « token », l’Ether. Nous ne considérions pas cet actif numérique, et ne le considérons toujours pas, comme une crypto-monnaie.

Le réseau Bitcoin a été créé uniquement pour le jeton Bitcoin, alors que nous étions un groupe d’ingénieurs en logiciels qui voulait apporter cette nouvelle sorte de base de données à d’autres ingénieurs. Notre projet consistait à créer une plateforme pour des applications décentralisées et une façon d’indemniser ceux qui allaient partager leurs ressources pour la créer, et aussi leur donner une incitation à sécuriser le réseau.

Il fallait aussi déterminer l’algorithme de consensus [pour valider les transactions], « preuve d’enjeu » ou « preuve de travail », ce dernier a été choisi en l’améliorant. J’ai été aussi impliqué dans la définition de l’écosystème. Ce n’était pas vraiment un business plan, plutôt des lignes directrices. Initialement, nous voulions créer une entreprise, avec une partie à but lucratif et l’autre non. Mais pour des questions de personne, c’est devenu impossible, ce n’était pas viable.

Nous avons créé à Zoug une société Ethereum Switzerland GmbH, pour réaliser la vente de « tokens », et établi également à Zoug la Fondation Ethereum (Stiftung Ethereum), dont la mission est de guider les développements de la plateforme et d’assurer sa maintenance. Nous avons donné 100% du contrôle d’Ethereum GmbH à la Fondation Ethereum. Nous voulions rester hors des États-Unis car nous n’étions pas sûrs de la façon dont notre jeton serait traité là-bas, il risquait d’être perçu comme une nouvelle crypto-monnaie. La Suisse est un pays qui défend la liberté, le vote, la vie privée, son gouvernement est ouvert à la discussion.

Vous êtes parti créer ConsenSys avec quelle vision ?

Je me suis proposé d’être l’avant-poste d’Ethereum à New York : je suis Canadien, mais j’ai passé pas mal de temps là-bas, après mes études à Princeton. J’ai rassemblé des gens pour construire un site d’applications décentralisées, un « DAppStore ». Nous avons commencé à développer des outils comme la suite Truffle [kit pour déployer un "smart contract", un contrat intelligent qui se déclenche automatiquement, sur la Blockchain] et une solution de gestion d’identité numérique, uPort Identity, qui soit meilleure que les mots de passe. L’objectif est d’aider à transformer le Web 2.0 vers un Web 3.0 à l’architecture bien moins centralisée et dont les individus récupèrent le contrôle. Nous croyons beaucoup dans la Blockchain et nous voulons être un catalyseur de cette technologie.

Nous avons dû créer notre propre écosystème, ce qui fait que notre société a une configuration assez insolite et un mode de fonctionnement décentralisé. Nous aimons appeler cela un « maillage » de projets, d’entreprises, qui ont une grande part d’ADN commun. Nous avons démarré un « venture production studio », où l’on incube des projets, que des gens font grandir à l’intérieur de ConsenSys, dont certains sont ensuite scindés et deviennent des startups indépendantes. Nous créons aussi toutes sortes de solutions et d’outils pour faciliter la vie des développeurs qui veulent connecter leurs applications au réseau Ethereum, comme Infura [Infrastructure-as-a-service, solution de dimensionnement pour gérer les pics à l'émission de jetons, par exemple].

Nous avons une division Consulting, qui fait du conseil et du développement logiciel. Nous avons réalisé des pilotes, des « proofs of concept » (PoC) pour des entreprises dans des secteurs variés, l’énergie, la banque, la logistique, la santé, le sport, le secteur public, et dans de nombreux pays, à Dubaï, aux États-Unis, en France. Par exemple, nous avons développé la plateforme de Komgo [entreprise fondée par une quinzaine de groupes, notamment des banques, dont Société Générale, BNP Paribas, et Crédit Agricole, ndlr], dans le financement du commerce international de matières premières. Nous avons aussi travaillé avec des banques centrales, à Singapour et en Afrique du Sud. Cette division, que nous avons dû scinder, a enregistré une croissance très significative.

Nous avons monté la ConsenSys Academy, car nous disposions de beaucoup de matériel de formation de notre activité de conseil et nous avions besoin d’accroître nos capacités en développement : 1.500 personnes sont devenues des développeurs Blockchain grâce à nous.

Nous avons aussi une division Marchés de capitaux qui conçoit notamment une solution de conservation (« custody ») pour les crypto-actifs, Trustology, afin que les institutions financières soient plus à l’aise avec les jetons, les actifs numériques lorsqu’elles décideront d’aller sur ce marché. Nous avons une équipe très solide, dont l’ancien responsable de la technologie chez UBS, Alex Batlin, à Londres, qui annoncera bientôt un partenariat très important.

Lire aussi : Fidelity, premier géant de la finance à sauter le pas du Bitcoin

Enfin, nous avons aussi créé ConsenSys Ventures, notre bras de capital-risque, doté de 50 millions de dollars. Nous avons investi dans 30 entreprises, de petits tickets, de 75.000 à 100.000 dollars en moyenne, parfois ce sont des subventions. Nous avons ouvert en septembre un accélérateur, Tachyon, qui a sélectionné 16 projets qui seront mentorés par des superstars de la Blockchain et du Web 2.0. Il y a un projet français parmi eux, Quidli, un projet génial d’émission dynamique du capital, pour distribuer des parts aux employés.

Vous avez remporté l’appel d’offres de la Commission européenne pour réaliser son observatoire de la Blockchain. Que répondez-vous aux parlementaires français critiquant ce choix d’une « entreprise américaine spécialisée dans la Blockchain Ethereum«  ?

Nous ne sommes pas une société américaine. ConsenSys Inc n’est pas la maison-mère, elle emploie 300 à 400 personnes sur 1.100 employés : c’est ConsenSys AG à Zoug qui chapeaute le tout, elle possède le contrôle de nombreuses entités régionales. Juridiquement, nous sommes une société suisse mais nous sommes en fait une startup internationale, avec des bureaux un peu partout dans le monde : 50 personnes à Paris, autant à Londres, 250 à Dublin, etc. Nous n’extrayons pas de la valeur d’un pays vers un autre.

L’équipe de ConsenSys France a mené la candidature à l’appel d’offres de la Commission européenne pour son observatoire de la Blockchain, je n’étais pas au courant au départ. C’est un projet français avec l’appui des meilleurs experts mondiaux, à travers le maillage de ConsenSys. Il est réalisé en partenariat avec trois universités [Lucerne, Londres et Southampton].

Quant à l’étroitesse éventuelle de notre expertise, nous utilisons Ethereum parce que c’est la Blockchain à l’écosystème le plus puissant et de loin le plus largement utilisé, alors que Bitcoin est une technologie très étroite. Nous sommes convaincus que l’avenir sera un monde de registres interopérables. Nous disposons d’énormément d’expertises car nous avons recruté ces deux dernières années des gens de Deloitte, d’EY, et un des fondateurs de la division Blockchain d’IBM et de la plateforme Hyperledger Fabric, John Wolpert. Nous avons aussi des gens ayant travaillé sur Corda [la plateforme opensource de la startup R3, issue d'un consortium de banques, ndlr]Il n’y a probablement aucune entreprise dans le monde qui dispose d’une expertise aussi large sur la Blockchain que Consensys, à part peut-être Accenture ou l’un des Big Four. Je pense que nous avons l’expertise la plus étendue.

Est-ce vous qui financez seul le développement de ConsenSys sur votre fortune personnelle en ethers ?

ConsenSys est financé en partie par moi, mais aussi par les revenus désormais importants que génèrent certaines de nos activités. Nous ne publions pas de chiffres pour le moment. Nous ne dégageons pas de bénéfice mais si l’on prend en compte les émissions de « jetons », les Initial Coin Offerings (ICO) réalisées par certaines de nos entités, nous sommes en situation de cash-flow positif. Plusieurs activités rapportent des revenus significatifs, des dizaines de millions de dollars pour notre pôle solutions par exemple. Notre équipe « Diligence », qui réalise des audits de sécurité des « smart contracts », est très demandée et obligée de décliner 99% des demandes, ce qui permet de facturer ce travail à des montants élevés.

ConsenSys elle-même pourrait-elle réaliser une ICO, une levée de fonds en crypto-actifs ?

Il n’y a pas d’investisseurs extérieurs, en revanche un bon nombre d’employés ont des parts de capital. Nous préparons déjà la prochaine allocation, notre idée est que tout le monde à ConsenSys devrait en avoir. Nous avons beaucoup réfléchi à l’émission d’un jeton ConsenSys, qu’il s’agisse d’un jeton d’investissement ou d’usage ["utility token" donnant un droit d'usage à des biens ou services à venir] : nous pensons que ce serait probablement un titre financier (« security token »). Mais nous n’avons aucun calendrier arrêté. Nous sommes très occupés sur de nombreux sujets, notre entreprise enregistre une très forte croissance. Avant de pouvoir envisager sérieusement d’émettre notre propre token, il faut que tout soit bien ficelé, que le cadre juridique soit bien stabilisé aussi.

Quelles applications vous semblent les plus convaincantes, les plus adaptées à la Blockchain ?

On pourrait poser la même question au sujet d’Internet : dans quel champ est-ce le plus utilisé ? La Blockchain va pénétrer partout, là où il est nécessaire d’améliorer la confiance, c’est-à-dire à peu près n’importe où et tous les secteurs. Cela peut être pour partager des infrastructures de confiance entre concurrents de manière collaborative. Nous aidons des entreprises établies à bâtir des systèmes plus efficaces pour partager des données de référence, par exemple dans les activités de taux entre institutions financières, ou aussi pour explorer de nouveaux modèles d’affaires. En France, nous connaissons une importante institution financière qui envisage d’entrer dans l’univers des ventes de tokens, Goldman Sachs et Morgan Stanley songent à ouvrir un desk de trading en crypto-actifs. Aux États-Unis, nous allons bientôt sortir une application avec une grande marque de biens de consommation traçant l’origine de différentes matières.

Dans la finance, les infrastructures vont finir par basculer sur la Blockchain. Nous avons aidé Santander à construire un système interbancaire de paiements transfrontaliers s’appuyant sur la technologie Blockchain, qui effectue les règlements en dix secondes. Le responsable de la Blockchain chez Santander, Julio Faura, est parti pour diriger ce projet,Adhara, que nous avons intégré [ConsenSys vient d’y investir 15 millions de dollars, ndlr] : nous utilisons cette infrastructure pour bâtir un système de règlements en temps réel qui « tokenise » [convertit les droits liés à un actif en jetons numériques] de l’argent réel par le biais d’un registre distribué fonctionnant avec des « smart contracts » : les règlements interbancaires, entre établissements qui se font déjà confiance, pourraient ainsi avoir lieu non pas tous les jours mais une fois par semaine ou par mois.

La volatilité des crypto-monnaies, y compris de l’ether, nuit-elle au développement de la Blockchain ?

Vous savez, il y aura tellement de crypto-actifs différents à l’avenir. Cela nous va très bien que l’ether soit utilisé comme une crypto-commodité ou un crypto-actif. Comme tout actif, comme le pétrole par exemple, l’Ether fait l’objet d’échanges, de trading. C’est vrai que son cours est plus volatil mais l’industrie pétrolière est là depuis un moment ! Nous avons de la chance qu’Ethereum ait suscité autant d’engouement dans le monde. Il y a eu des flambées, suivies de corrections, et cela se reproduira encore et encore : c’est ainsi que fonctionne le cycle humain de cupidité et de peur que l’on observe sur les marchés. L’horloge de cette technologie fonctionne beaucoup plus vite qu’en 1999 avec la bulle Internet. Je pense que nous verrons un de ces cycles tous les un ou deux ans.
A chaque fois qu’il se produit une explosion puis un plongeon, cela attire l’attention sur ce que nous faisons. Cela fait plancher des spécialistes ou des étudiants en cybersécurité sur Ethereum. Nous sommes un an après le début du boom sur les crypto et le cours de l’Ether est revenu grosso modo au même niveau [en repli de 20%, ndlr]. Et aujourd’hui, du fait de cette agitation, il y a dix à quinze fois plus de gens dans notre écosystème. Rien n’a ralenti du tout : l’écosystème Ethereum connaît une croissance exponentielle.

Quel est le principal défi posé à la Blockchain ? Sa consommation énergétique?

Non, je pense que ce point sera résolu très vite, d’ici 18 mois à deux ans. Je suis optimiste. Le plus grand problème posé à Ethereum est le passage à l’échelle (« scalability ») d’une part et la facilité d’utilisation pour le grand public d’autre part. La montée en charge d’Ethereum [qui peut traiter actuellement entre 7 et 15 transactions par seconde contre plusieurs milliers pour les systèmes Visa et Mastercard, ndlr], progresse à mesure que l’on avance vers des solutions de nouvelle génération, comme Sharding ["fragmentation" en anglais, processus de vérification des transactions s'appuyant sur une division de la Blockchain en plusieurs fragments, des groupes d'ordinateurs du réseau et non pas tous les nœuds du réseau, ndlr], le protocole Casper et le mécanisme de consensus de « preuve d’enjeu », le projet Plasma qui va créer des réseaux Blockchains au sein d’Ethereum, etc. Tout cela devrait permettre à Ethereum de pouvoir traiter des centaines, des milliers de transactions par seconde. C’est une affaire de semaines, de mois.

Il faut que nous travaillions aussi sur la facilité d’utilisation. Si on vous avait donné un smartphone il y a 15 ans, vous n’auriez pas su quoi en faire, les gestes vous seraient étrangers, pour zoomer, balayer l’écran, etc : Apple a fait un job incroyable en apportant progressivement des innovations. Il faut que nous fassions la même chose : les clés publiques et privées, les adresses des comptes en Ether, sont aujourd’hui utilisables par un public technophile. On doit pouvoir faire en sorte que l’utilisateur non initié ne prenne pas le risque de perdre son identité, il faut des mécanismes de récupération des clés, nous travaillons dessus. La France, un futur leader de la « Blockchain » ?

Quelle est votre vision du marché français, en termes de maturité ?

Aucun marché n’est mature ! En Suisse, beaucoup de projets ont démarré dans sa Crypto-Valley, mais je ne dirais pas qu’elle est en avance sur Paris, Berlin, New York, ou que Zoug est le leader de la Blockchain. C’est un phénomène décentralisé. Curieusement, le bitcoin n’a pas vraiment pris dans la Silicon Valley au départ. Au lancement d’Ethereum, il n’y a eu aucun intérêt là-bas, tellement plus à Berlin, Londres, Paris, New York et Toronto. La Silicon Valley rattrape son retard : il y a désormais une grande vague d’intérêt pour la Blockchain, de nombreux ingénieurs du Web 2.0 s’interrogent sur le tour que prennent les choses et rejoignent des entreprises qui veulent bâtir le Web 3.0, comme nous à ConsenSys.

En France, on trouve beaucoup de gens très solides en technologie. Notre équipe ici à Paris a joué un rôle fondateur depuis plusieurs années. Nos projets, comme la startup Variabl, une plateforme de trading de dérivés, font partie de l’écosystème français de la Blockchain.

Que doit faire la France pour devenir un leader de la Blockchain, comme l’ambitionne le gouvernement ?

Éduquer, former, observer la technologie, autant que possible ne pas se mêler de la technologie et ne pas étouffer l’innovation. Cette technologie va tellement loin, elle va permettre la collaboration et créer la confiance dans des domaines où c’est difficile. Cela va rendre le commerce beaucoup plus fluide. La Blockchain va permettre de tout basculer en version numérique, les certificats et diplômes, le capital, l’identité, etc : ce sera un moteur de croissance important. Les gouvernements devraient créer des programmes pour entrepreneurs, peut-être financer certains projets, subventionner des accélérateurs.

Il n’y a pas vraiment besoin de réglementations nouvelles, elles existent pour la plupart, il faut juste une meilleure compréhension. Par exemple, aux Etats-Unis, la SEC [le gendarme des marchés, ndlr] a décidé que les jetons des ICO sont des titres financiers et va appliquer la réglementation comme elle le fait depuis des décennies. William Hinman le directeur de la division Corporation Finance à la SEC, a déclaré il y a quelques mois qu’il considère l’Ether comme un jeton utilitaire (« utility token »), qu’Ethereum n’est pas une entreprise mais un réseau. Il faut de l’ouverture d’esprit et beaucoup de dialogue.

La Blockchain pourrait rendre la collecte d’impôts beaucoup plus fluide, on pourrait avoir des nœuds de régulation sur le réseau qui surveilleraient les flux, la valeur des transactions et pourraient même en aiguiller une partie directement vers les coffres du gouvernement. Plusieurs pays d’Afrique sont très enthousiasmés par cette idée.

Taxation Gafa : la France pousse, l’Allemagne freine

Taxation Gafa : la France pousse, l’Allemagne freine

Le ministre de l’Économie, Bruno Lemaire,  a défendu avec force la taxation des GAFA  au Parlement européen, à Strasbourg, il a plaidé en faveur d’une «décision claire, nette, forte» de l’UE pour taxer les géants du numérique que sont Google, Amazon, Facebook, Apple (GAFA) et autres plateformes numériques comme YouTube ou Airbnb, qui profitent des disparités du système fiscal européen pour minimiser leurs impôts sur le Vieux Continent.  Mais l’Allemagne, elle a botté en touche.  Surtout soucieuse de ses intérêts économiques, l’Allemagne en quelque sorte botte en touche concernant l’éventuel taxation des GAFA. Sous l’impulsion de la France, l’union européenne veut en effet imposer une fiscalité forfaitaire sur les chiffres d’affaires des grandes plates-formes numériques qui pour l’instant profite par excès de l’optimisation fiscale pour payer le moins d’impôts possibles ou n’ont pas payé du tout. En proposant une taxation mondiale l’Allemagne renvoie aux calendes grecques cette fiscalité sur les plates-formes. En cause, le faite que l’Allemagne craint les sanctions que pourraient prendre les États-Unis à l’égard des importations allemandes déjà menacées par TRUMP. La proposition de la Commission de taxer les Gafa, inspirée et soutenue par la France, est aussi  combattue par l’Irlande où siègent certains groupes visés, ou des pays nordiques comme la Finlande et la Suède qui redoutent les effets sur les secteurs de l’innovation ainsi que d’éventuelles représailles commerciales américaines.  L’Allemagne, initialement du côté de la France, a fait montre d’états d’âme début septembre. Or, les réformes touchant à la fiscalité dans l’Union européenne doivent être approuvées à l’unanimité des États membres. Bruno Le Maire s’est dit «favorable à la proposition de Berlin», d’instaurer «un système mondial plus harmonieux» sur le plan fiscal. «Mais ne rêvons pas, ce n’est pas demain la veille» a-t-il ajouté, sur le plateau de l’émission Dimanche en politique sur France 3. En attendant, le ministre de l’Économie a rappelé qu’il allait se rendre mardi au Parlement européen, à Strasbourg «pour appeler tous les États européens à s’engager sans délai pour conclure sur cette taxation des géants du numérique». Reprenant des idées hexagonales, la Commission européenne a proposé en mars d’instaurer une taxe de 3% sur le chiffre d’affaires généré par les services numériques des entreprises (dont le chiffre d’affaires annuel mondial dépasse 750 millions d’euros et dont les revenus dans l’Union européenne excèdent 50 millions d’euros). Au total, environ 200 groupes pourraient être concernés par une telle taxation, dont le rendement s’élèverait à près de cinq milliards d’euros à l’échelle européenne.Bruno Le Maire s’est fixé l’objectif d’une adoption du texte au plus tard début 2019 «Comment peut-on accepter que des millions de consommateurs européens donnent gratuitement leurs données sans qu’il y ait au passage une taxe?», a-t-il demandé devant deux commissions parlementaires. «Soit l’UE est libre, soit elle est vassale. Moi je crois en une Europe libre, souveraine», a-t-il ajouté pour convaincre son assemblée.

Décentraliser Internet (Tim Berners-Lee)

Décentraliser Internet (Tim Berners-Lee)

 

C’est  Tim Berners-Lee, le père fondateur du World Wide Web, Internet qui le dit, internet  fait fausse route en l’état actuel. L’informaticien britannique, a appelé jeudi 18 octobre à une décentralisation d’Internet lors d’une keynote donnée à Las Vegas. 

« Aujourd’hui, beaucoup de gens me posent souvent la même question : « la chose que tu as créée il a des années de ça, est-ce que tu penses toujours que c’est une bonne idée ? » Et bien, c’est très difficile d’y répondreQuand j’ai commencé à créer le WWW, l’esprit était très différent d’aujourd’hui : c’était utopique. (…) Quand le premier blog est arrivé, et que les gens ont réalisé qu’ils pouvaient juste allumer un ordinateur, se connecter à Internet, utiliser des logiciels… Alors tout le monde était très excité…. « Aujourd’hui, les gens sont sur Facebook. Ce qui font et ce qu’ils voient sur Internet est déterminé par l’algorithme de Facebook, qui en profite pour en extraire des données extrêmement précieuses pour savoir qui ils sont et ce qu’ils aiment. (Le réseau social) les utilise ensuite pour proposer de la publicité ciblée, et même, leur dire pour quel candidat ils devraient voter aux prochaines élections », a-t-il taclé. A propos du scandale Analytica «La réaction des gens a été de s’inquiéter pour l’abus réalisé sur leurs propres données, ce n’était pas de s’inquiéter qu’une (élection présidentielle) a pu être manipulée avec de la data ». Le fondateur d’Internet,  travaille sur un  projet en open source, baptisé « Solid« . Pour « redonner le pouvoir » aux internautes sur leurs données. « Peut-être que les premiers utilisateurs monteront à bord du projet pour protéger davantage leurs données », a estimé ce jeudi matin Tim Berners-Lee.  »Petit à petit, les gens disposeront sur Internet d’un espace autonome permettant de restaurer la confiance avec les applications qu’ils utilisent », sans craindre un usage détourné de leurs données.

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.

Peer Tube pour contrer les GAFA

Peer Tube pour contrer les  GAFA

Peer Tube pour contrer You Tube de Google Pierre, c’est le projet de Yves Gosset, directeur de Framasoft, association française qui milite pour le développement de logiciels libres (interview la Tribune)

Pourquoi vouloir créer un « You Tube décentralisé » ?

PIERRE-YVES GOSSET - Framasoft veut sensibiliser à la concentration des services sur Internet. En 2014, nous avons lancé la campagne « Dégooglisons Internet » pour démontrer que le logiciel libre est une alternative crédible à l’hyperpuissance des GAFA (Google, Apple, Facebook, Amazon). Framasoft propose depuis une dizaine de services alternatifs par an : outils de stockage, de cartographie, d’éditing, de jeux… Mais nous n’avions toujours pas d’alternative vidéo.

YouTube est un acteur incontournable, en situation de quasi-monopole (ndlr : la plateforme de Google revendique 1,8 milliard d’utilisateurs par mois et 400 heures de vidéo mises enligne chaque minute sur YouTube dans le monde). Cette concentration pose de nombreux problèmes. Par exemple, son algorithme cherche à retenir le plus longtemps possible les internautes sur sa plateforme, en lui faisant visionner des vidéos qui font le buzz. Plus l’internaute est captif, plus il visionnera de publicités et donc, générera des revenus pour Google. Autre problème : la censure que peut instaurer Google en décidant ce qui est acceptable de diffuser ou pas. C’est donc son point de vue, en tant qu’entreprise américaine, qui s’impose au reste du monde. Dans cette logique-là, YouTube peut décider de la démonétisation de certaines vidéos, en les privant de pub. Cela entraîne une perte de revenus pour les créateurs de contenus. En France, cela a récemment été le cas pour des YouTubeuses qui évoquaient leurs règles ou le corps féminin dans des vidéos ne contenant pourtant aucune image choquante.

En l’absence de modération unique, PeerTube ne risque-t-il pas de voir proliférer les contenus pornographiques ou extrémistes, véritable fléau actuel pour les plateformes ? Comment la modération est-elle régie sur PeerTube ?

Chaque administrateur s’occupe de la modération au sein de son instance. En cas de poursuites judiciaires, la responsabilité est attribuée dans un premier temps à l’internaute qui a publié la vidéo, puis à l’hébergeur. Avec les logiciels libres, nous voulons redonner le pouvoir aux gens. Cela passe donc par un partage de responsabilité, qui permet de faire réfléchir davantage aux contenus publiés sur la Toile. Forcément, nous sommes conscients que certains utilisateurs pourront mal utiliser PeerTube… Pour autant, faut-il priver tous les autres internautes d’un espace d’expression ? Non. Nous ne sommes pas des anarchistes : nous ne souhaitons pas que Peer Tube devienne une jungle, où n’importe qui fait n’importe quoi. Mais nous voulons avant tout donner la possibilité aux gens de pouvoir s’exprimer librement sur Internet.

Pour attirer les utilisateurs, Peer Tube a besoin de contenu. Depuis mars, vous revendiquez déjà 32.000 vidéos en ligne et près d’un million de vues. En l’absence de monétisation, comment comptez-vous attirer les créateurs de contenus ?

Framasoft s’est toujours positionné comme étant antipub. C’est pourquoi il n’y a pas de monétisation par la pub prévue pour l’instant. En revanche, il est déjà possible de soutenir les créateurs grâce à des dons. Dès 2019, un plug-in sera disponible et permettra à chaque instance d’instaurer de la publicité, ou non, sur ses vidéos. Le choix sera laissé aux administrateurs. Évidemment, les YouTubeurs-stars comme Cyprien et Norman n’auront aucun intérêt à venir sur Peer Tube. Nous nous intéressons aux vidéastes déçus de YouTube, cherchant à maîtriser davantage leur outil de diffusion et leurs données.

Framasoft fédère naturellement un public technophile. Les compétences techniques requises pour créer une instance, ou proposer de nouvelles fonctionnalités, sont-elles un frein au recrutement de nouveaux utilisateurs ?

L’objectif de Peer Tube n’est pas de faire des millions de vues, mais de permettre de s’émanciper de YouTube. Côté utilisateur, mettre en ligne une vidéo sur Peer Tube est aussi simple et rapide que sur YouTube. Côté administrateur, il est vrai qu’il faut certaines connaissances techniques. La marche à l’entrée reste compliquée, mais pas insurmontable. Il est toujours possible de se regrouper pour demander un coup de main à un connaisseur, voire même, payer un développeur pour le faire à sa place.

Google: nouvelle affaire Analytica ?

Google: nouvelle affaire Analytica ?

Les données de 500 000 utilisateurs détournées chez Google. Le problème a été découvert et corrigé en mars dans le cadre d’un audit interne des procédures de partage des données avec d’autres applications, a expliqué le groupe américain sur un blog. Aucun développeur extérieur n’a exploité cette faille, ni fait un usage inapproprié des données concernées, selon les conclusions de l’audit.

L’action d’Alphabet, le groupe propriétaire de Google, a terminé en baisse de 1,02% sur le Nasdaq à 1.155,92 dollars après cette annonce.

Quelques minutes avant, le Wall Street Journal avait rapporté que Google avait choisi dans un premier temps de ne pas rendre publique la découverte de la faille de sécurité en raisons des craintes d’une enquête des autorités de tutelle du groupe.

Le quotidien cite dans son article des sources non identifiées et une note interne à Google rédigée par les services juridiques à l’attention des hauts dirigeants du groupe.

D’après le journal, cette note mettait en garde sur le fait que la divulgation de ce problème susciterait probablement “un intérêt immédiat des autorités réglementaires” et entraînerait des comparaisons avec le détournement de données personnelles d’utilisateurs de Facebook par le cabinet de conseil politique Cambridge Analytica.

Toujours selon le WSJ, un comité interne a pris la décision de ne pas informer les utilisateurs, et il a informé de son choix le directeur général de Google, Sundar Pichai.

 

Le mythe de la voiture autonome ?

Le mythe  de la voiture autonome ?

 

Elan Musk, le très médiatique patron de Tesla avait en quelque sorte inventé la mode : la généralisation de la voiture autonome et même du voyage dans la lune. Un exhibitionnisme médiatique surtout destiné à récolter des fonds mêmes si on ne peut contester certains succès techniques. Par contre la gestion financière a fait tomber Elan Musk  rétrogradé au rang de directeur mais toujours aussi contesté. Mais le mythe a été repris par nombre de constructeurs en mal d’images après les tricheries constatées concernant les émissions polluantes. Chacun promet la voiture autonome pour demain alors que vraisemblablement il ne faudra pas compter sur sa généralisation avant 30 ou 40 ans : c’est-à-dire le temps aussi équipé l’infrastructure afin que l’automobile circule dans les meilleurs conditions de sécurité, c’est-à-dire en quasi site propre. Pourtant pas de quoi refroidir les ardeurs des autres constructeurs en mal d’innovations réelles comme la voiture électrique à prix abordable. Cette prédiction de la voiture autonome pour demain ressemble un peu à celle du règne de l’intelligence artificielle qui va supprimer toute intervention humaine dans les processus de production et de distribution. Bien sûr on ne saurait refuser les progrès que permet la technologie mais il faut mesurer leurs conséquences une fois insérée dans des systèmes complexes. Il y a longtemps que des transports fonctionnent de manière presque autonome comme les métros, les tramways ou encore les trains entre parenthèses pour le TGV par exemple le conducteur n’a pas été supprimé pour des raisons techniques mais pour des questions psychologiques vis-à-vis des voyageurs.

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

La maison connectée : c’est pas pour demain !

 

 

  •  

 

C’est le résultat d’une étude qui démontre que les Français demeurent relativement prudents par rapport aux perspectives de connexion de leur logement. Les lobbys en domotique ne cessent de vanter la grande révolution numérique y compris pour tous les services et activités de la maison. Seront connectée d’après eux, la gestion de l’électricité, la sécurité, le chauffage, l’eau est bien sûr la machine à café et plus généralement la préparation des repas, bien d’autres aspects encore avec les enceintes. Le problème c’est que tout cela n’est pas gratuit. Les Français dépensent déjà des sommes non négligeables en outils et services informatiques. Ces services dont certains d’ailleurs peuvent être discutables ont un coût et forcément un prix et dans un contexte économique où le pouvoir d’achat se resserre l’équipement en domotique n’est pas forcément prioritaire. Il est surtout réservé aux ménages aisés.  reste aussi la question de l’intrusion de services informatiques dans la vie privée. Car qu’on le veuille ou non ces données seront récupérées à, analysées et exploitées à des fins commerciales de sorte que rien n’échappera concernant la vie familiale et intime. Selon le dernier baromètre Qualitel-Ipsos, le logement connecté reste un phénomène très minoritaire en France. Seuls 3 logements sur 10 possèdent au moins un équipement connecté et même le service le plus «populaire», l’alerte anti-intrusion, ne concerne que 21% des lieux de vie. Certes, le phénomène s’accentue avec le temps: 54% des logements de moins de 5 ans disposent d’au moins un service connecté, mais les Français ne semblent pas vraiment avoir le feu sacré sur ce sujet. . Les trois quarts des sondés considèrent ainsi que «des prix trop élevés les dissuaderaient d’équiper leur logement en objets connectés». Une perception confirmée par le fait que ces produits sont effectivement l’apanage des foyers les plus aisés: 16% des foyers disposant de moins de 3000€/mois disposent d’au moins deux équipements connectés contre 35% de ceux pouvant compter sur plus de 5000€/mois.

 

Incident Facebook: une faille ou du business ?

Incident Facebook: une faille ou du business ?

 

- Le secrétaire d’Etat français au Numérique ouvre la boîte de pandore à propos des facteurs explicatifs concernant le pillage de données 50 millions d’abonnés. On sait que Facebook constitue une plate-forme d’échanges d’infos entre amis qui livrent des données personnelles particulièrement intéressantes pour la publicité ciblée. On ne peut en effet adresser de publicité tout le temps et sur tout aux 2 milliards d’abonnés de Facebook. Le coût serait insupportable pour les annonceurs. Du coup il faut extraire de cet immense fichier des échantillons homogènes par pays, par produit, par comportement par catégorie socio professionnelle etc. Ces fichiers coûtent une fortune et c’est le cœur du business de Facebook. Du coup le secrétaire d’État français au numérique n’exclut pas la possibilité que le pillage des données vienne même de l’intérieur de Facebook comme cela a déjà été le cas.  “J’ai regardé dans le détail (…) comment Facebook expliquait cette faille. C’est une faille extrêmement complexe. C’est-à-dire qu’il ne s’agit pas d’une faille simple ou d’un hack qui utilise des failles déjà très connues”, a déclaré Mounir Mahjoubi à Radio J. “C’est une vraie construction; quelqu’un y a passé beaucoup de temps”, a-t-il ajouté. “Ça veut dire soit un génie, soit une organisation très structurée, soit (…) quelqu’un de l’intérieur.”Il n’a pas exclu non plus qu’un “grand pays” puisse être derrière cet incident qualifié par le PDG de Facebook, Mark Zuckerberg, de “très sérieux problème de sécurité». Selon Mounir Mahjoubi, Facebook France n’a pas été en mesure à ce stade de dire si des internautes français ont été affectés et dans quelle mesure. “J’ai fait partie des 90 millions de comptes qui ont été déconnectés d’urgence dans la journée d’avant-hier”, a cependant ajouté le secrétaire d’Etat. “Je pense donc avoir la preuve que des comptes français sont concernés.”

Facebook siphonne les infos pour la pub ciblée

Facebook siphonne les infos pour la pub ciblée

On le savait depuis longtemps, Facebook est un réseau au demeurant assez indigent (sauf exception) qui n’a d’autre but que de faire étalage de données privées de 2 milliards de personnes.  Des données récupérées pour Facebook pour faire de la pub ; le plus souvent pour vendre à prix d’or les fichiers de consommateurs ainsi constitués. Des informations qui valent des dizaines millions pour les annonceurs.  En outre pour la première fois, Facebook a admis jeudi utiliser le numéro de téléphone fourni par ses utilisateurs afin de sécuriser leur compte – et pour lequel ils ne consentent pas à une utilisation publicitaire. Le fleuron de Silicon Valley a ainsi confirmé les résultats d’une étude réalisée par des chercheurs des universités américaines de Northeastern et de Princeton, et révélée par le site spécialisé Guizmodo. Autrement dit : les utilisateurs qui souhaitent avoir un compte plus sécurisé doivent, paradoxalement, consentir à un compromis en matière de confidentialité pour que les annonceurs les identifient plus facilement. En effet, Facebook permet aux utilisateurs qui le souhaitent de fournir un numéro de téléphone. En cas d’activité suspecte repérée, comme un piratage de compte par exemple, le réseau social peut ainsi alerter rapidement l’utilisateur par SMS. Le hic : Facebook n’indique pas explicitement à l’utilisateur que son numéro peut être récupéré par des annonceurs, selon sa politique de gestion des données. Tout cela, à l’insu des intéressés. Il leur est donc impossible de faire supprimer les données personnelles pillées ou d’empêcher les annonceurs de les utiliser. Ce profil, réalisé à partir d’un faisceau d’informations récoltées par des moyens indirects, est surnommé le shadow profile (profil fantôme).

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune )

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

 

 

 

Presse : vers la fin du papier ?

Presse : vers la fin du papier ?

On pourrait bien s’orienter assez rapidement vers la fin de la presse sur papier voire même de certains médias classiques notamment régionaux. Les médias classiques qui résistent le mieux aussi bien sur papier que par voie numérique sont les médias qui apportent une certaine valeur ajoutée comme le Figaro, le Monde, l’équipe ou encore le Parisien. Certes on ne peut sans doute pas comparer le lecteur Figaro,  du Monde à celui du Parisien ou de 20 minutes car la demande d’information est très différente ; relativement approfondie dans un cas et assez superficielle dans l’autre. Près de 60% des Français lisent des articles issus de quotidiens ou de magazines sur leur smartphone. Ils n’étaient que 47% en septembre 2017. Les grandes marques de la presse quotidienne nationale dominent le palmarès mais il faut prendre en compte une consultation de plus en plus importante de sites de second rang mais dont la ligne éditoriale et plus indépendante et plus élaborée. La presse quotidienne nationale domine le classement des marques de presse les plus lues. Les magazines sont en embuscade, mais ils ont subi une érosion de leur lectorat entre avril et juin: -3,7% pour Femme Actuelle (6e avec 18,8 millions de lecteurs), -4% pour Télé Loisirs (même audience, 7e), -6,8% pour Marmiton (14 millions, 9e), -4% pour Voici (13,8 millions, 11e). Du côté des newsmagazines, Le Point a perdu 1,4 million de lecteurs en trois mois pour un total de 9,9 millions. Libération en a aussi perdu 1,2 million, à 8,6 millions de lecteurs. Décrochage également pour Courrier International, avec 1,6 million de lecteurs en moins, à 4,7 millions. A contrario, Public a gagné un million de lecteurs en un trimestre (9,1 millions). C’est la plus grosse progression du panel aux côtés de Sud-Ouest, qui a trouvé 920.000 lecteurs de plus (7,5 millions).

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

Prospective dans rétroviseur : En 2025, les machines traiteront la majorité des tâches courantes

.

Comme la mode est à la survalorisation  de l’intelligence artificielle, tout est bon pour démontrer que la plupart des emplois seront demain automatisés. Ce que rapporte aujourd’hui le Figaro en se fondant sur une étude du le Forum économique mondial qui  prévoit qu’en 2025 les machines accompliront plus de tâches que les humains, contre 29 % actuellement. À noter d’abord le degré de précision de 29 % de tâches qui seraient accomplies par les machines, une précision qui fait douter de la pertinence scientifique de l’étude. Certes l’intelligence artificielle via  notamment la numérisation et la robotisation va continuer de remplacer des tâches précédemment effectuées de manière manuelle. Mais le processus n’est pas nouveau, il y a longtemps que la machine a remplacé l’homme pour  certaines tâches. Un seul exemple, dans les années 50 il fallait plusieurs personnes pour exploiter une surface agricole d’une dizaine d’hectares. Aujourd’hui une seule personne suffit pour 200 ha (tout dépend évidemment de la nature des productions certaine à haute valeur ajoutée nécessitant davantage de main-d’œuvre que d’autres). On constate le même processus dans nombreuse filières y compris dans l’artisanat ou le commerce. Le couvreur ou le boucher ne travaille plus de la même manière. Pour assurer sans doute le citoyen l’étude du forum économique mondial considère cependant que le bilan global des emplois sera positif avec environ 60 millions d’emplois supplémentaires. Un chiffre encore tout à fait approximatif voir fantaisiste car il s’agit de prendre en compte évidemment les conditions d’évolution des processus de production mais aussi la transformation de la nature de ces productions. Or d’ici une quinzaine d’années on produira des biens dont on ne connaît pas aujourd’hui la nature pour la moitié. Si l’étude ne cache pas que la prudence doit être de rigueur dans ce tournant majeur lié à la quatrième révolution industrielle, les chiffres d’impact qu’elle avance sont plus optimistes que dans une précédente étude de 2016. Le problème c’est que personne ne peut réellement avancer des arguments pertinents pour être optimiste ou pessimiste.

 

 

 

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Téléphone : la fin des lignes fixes ? (Orange)

Téléphone : la fin  des lignes fixes ? (Orange)

 

 

C’est la fin annoncée des lignes fixes de téléphone traditionnelles  encore utilisées par environ 10 millions de personnes. Désormais on passera progressivement par  l’utilisation obligatoire d’une box avec évidemment abonnement Internet. En clair il s’agit d’une manière habile d’augmenter les prix des communications. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet, le 15 novembre prochain, Orange va cesser de commercialiser des lignes fixes, selon Le Parisien. Les fameuses prises en «T» qui ornent les murs de tous les foyers français ne serviront plus à rien. Toutefois les lignes des 9,4 millions de foyers qui utilisent encore un téléphone fixe ne seront pas brusquement coupées cet automne. La transition des réseaux d’hier à ceux d’aujourd’hui se fera progressivement et s’étalera sur plusieurs années. Mi-novembre, seuls les nouveaux clients d’Orange ou ceux qui déménagent ne pourront plus être reliés par le réseau téléphonique commuté (RTC), les lignes téléphoniques traditionnelles. Ils pourront s’abonnement. Cela vise essentiellement des personnes âgées et où qui refuse de s’abonner à Internet continuer à téléphoner via une ligne fixe, mais il faudra alors s’équiper d’une box. Ils devront donc obligatoirement souscrire à un abonnement internet. Ensuite, entre 2023 et 2028, le réseau sera coupé progressivement, groupes de communes après groupes de communes.

L’État assure que le service universel du téléphone va perdurer. «L’État est le garant de ce service afin que chaque Français ait accès à un service téléphonique de qualité à un prix raisonnable», confie Delphine Gény-Stephann, secrétaire d’État auprès du ministre de l’Économie, au Parisien. Depuis février, l’opérateur historique a d’ailleurs mené une expérimentation en Bretagne où les clients de quatorze communes devaient déjà se passer du réseau traditionnel. Un test passé avec succès, selon Orange. L’opération risque toutefois d’être un peu plus complexe pour les professionnels. De fait, une grande partie des terminaux de paiement par cartes fonctionnent encore via le vieux réseau téléphonique. Toute l’infrastructure est à remettre à plat. Il en va de même pour les systèmes de surveillance des ascenseurs, les réseaux de télésurveillance, les fax… La liste de secteurs concernés est longue.

 

Gafa, l’Inde veut contrôler les données

Gafa, l’Inde veut contrôler les données

 

Un projet de loi indien vise à réguler très sévèrement le stockage des données des CAF à et autres plates-formes ; il propose notamment de rendre obligatoire, pour les sociétés étrangères, le stockage des données personnelles des utilisateurs indiens – issues des réseaux sociaux, des moteurs de recherche ou encore des plateformes de e-commerce – sur son sol. Les données devront également être rendues accessibles aux autorités locales en cas d’enquête. L’Inde marche ainsi dans les pas de son voisin chinois, qui, en rendant son marché difficile d’accès, a favorisé l’émergence des géants Alibaba et Tencent. La deuxième économie mondiale a notamment adopté une législation similaire en novembre 2016, forçant les entreprises étrangères à stocker sur son territoire les données des internautes chinois. Ainsi, Apple a construit son premier data center en Chine, et a confié la gestion des données de ses utilisateurs à un partenaire local. Ce projet de loi arrive au moment où le régulateur indien des télécoms menace d’interdire l’accès au réseau mobile national aux iPhone. Depuis deux ans, Apple refuse de rendre disponible au téléchargement une application anti-spam, développée sous l’égide du gouvernement indien. Cette application a officiellement été créée pour lutter contre le démarchage téléphonique abusif – très répandu dans le pays – en filtrant les messages et les appels indésirables. De son côté, le fabricant d’iPhone suspecte l’appli de siphonner massivement les données personnelles des utilisateurs… Apple dispose de six mois pour se conformer aux exigences du régulateur, avant de se voir couper l’accès au réseau, rendant ses téléphones inutilisables.

 

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol