Archive pour la Catégorie 'nouvelles technologies'

La montée du télétravail

La montée du  télétravail

 Le télétravail a progressé en 2018 dans le secteur privé, où 29% des salariés l’ont pratiqué de façon occasionnelle ou régulière, contre 25% en 2017, selon une étude Ifop pour Malakoff Médéric Humanis publiée mercredi. Le télétravail est une pratique de plus en plus courante dans le secteur privé. En moyenne, les salariés usant de cette pratique ont télétravaillé 7 jours par mois et « presque huit sur dix sont satisfaits ou très satisfaits de leur pratique du télétravail », a souligné Anne-Sophie Godon, directrice innovation de Malakoff Médéric Humanis. Le domicile « reste le lieu prépondérant » où s’exerce le télétravail (92% des télétravailleurs), a-t-elle précisé. Mais les salariés peuvent aussi le pratiquer dans « un tiers lieu » (21% y ont recours), comme un café ou un espace de travail partagé. Leur entreprise peut aussi leur permettre de télétravailler dans un « bureau satellite » (35%), c’est-à-dire dans un autre site de la même société. Le télétravail est développé « surtout dans les plus grandes entreprises », a relevé Mme Godon. Ainsi près de la moitié (49%) des télétravailleurs sont employés dans des sociétés de plus de 1.000 salariés. Les ordonnances de l’automne 2017, qui ont réformé le Code du travail et simplifié le recours au télétravail, « sont plutôt une incitation à étendre le télétravail » là où « il existait » déjà, a-t-elle ajouté.  Plus de cinq télétravailleurs sur dix (51%) sont des cadres, quasiment tous (97%) sont en CDI, 45% sont âgés de 35 à 49 ans, et plus de trois sur dix (34%) vivent en Ile-de-France. Pourquoi demander à télétravailler ? D’abord pour « réduire ou supprimer » les trajets entre le domicile et le lieu de travail, répondent plus de la moitié des télétravailleurs (54%). « Comme l’an dernier », le temps consacré au transport est le premier sujet de motivation, a souligné Mme Godon.

 

Les plates-formes numériques favorisent des choix irrationnels (Julien Mendoza)

Les  plates-formes numériques favorisent  des choix irrationnels  (Julien Mendoza)

C’est l’avis du consultant Julien Mendoza dans une tribune au Monde (extraits)

«  Standard, héritée d’un monde pauvre en information, le mécanisme de sélection est celui du prix, supposant que l’individu est rationnel et que le prix reflète toute l’information du produit : un produit de bonne qualité vaudra plus cher qu’un produit identique de mauvaise qualité. Dans une économie numérique, où l’attention est la ressource rare, la valeur se déplace vers la sélection de la bonne information. C’est-à-dire celle qui sera en mesure de capter l’attention des utilisateurs et d’influencer leurs décisions, leurs jugements. Le modèle économique des plates-formes, qui domine cette économie numérique, se traduit schématiquement par la mise en relation de l’offre et de la demande en exploitant les effets de réseaux. Par exemple, plus il y aura de chauffeurs Uber, plus l’intérêt à utiliser l’application sera fort car l’utilisateur trouvera un chauffeur plus facilement. Pour que ces effets de réseaux aient un réel impact, il est nécessaire que les utilisateurs soient actifs sur le service. C’est pourquoi ces modèles d’affaires s’appuient sur des biais cognitifs, qui ont pour double effet de capter l’attention et… de rendre les choix irrationnels. En s’appuyant sur l’illusion du contrôle, biais cognitif mis en évident par Ellen Langer (« The Illusion of Control », Journal of Personality and Social Psychology n° 32/2), 1975), on comprend mieux pourquoi Google change régulièrement ses paramètres de confidentialité pour, affirme-t-il, donner plus de contrôle aux utilisateurs. Cette volonté de transparence trompe le consommateur, qui croit maîtriser l’usage de ses données, alors qu’il ne les contrôle pas. En prenant une métaphore darwinienne, les entreprises du numérique cherchent à s’approprier ce qui sélectionne, car, ainsi, elles contrôlent l’information diffusée. Tous ces modèles reposent sur de savants algorithmes, qui visent à sélectionner la meilleure information pour aider, voire influencer, l’utilisateur dans ses choix. La sélection est donc au cœur des modèles d’affaires. Celui qui survit est celui qui trouvera la meilleure sélection. Google a triomphé de Yahoo car son algorithme sélectionnait l’information la plus pertinente pour les utilisateurs….. ».

Le sulfureux réseau Facebook écrase la concurrence

Le sulfureux réseau Facebook écrase la concurrence

Le réseau le plus sulfureux à savoir Facebook écrase la concurrence avec 2,3 milliards d’utilisateurs dans le monde, il est suivi de YouTube avec 1,9 milliards. Un réseau qui n’est pas comparable puisque consacré essentiellement à la musique. Vient ensuite le réseau WhatsApp avec 1 ,5  milliards, puis Messenger avec 1 , 3, Wechat avec 1 million et Instagram avec aussi 1 million ; les autres réseaux sont en dessous du million. Facebook présente un caractère particulièrement sulfureux d’abord sur le plan déontologique puisqu’il a été prouvé qu’il recueille le maximum d’informations sur les abonnés  pour les revendre ensuite à des fins commerciales voir même politiques comme aux États-Unis. Un réseau également sulfureux où on trouve parfois le meilleur mais écrasé par la médiocrité globale d’un réseau d’amis virtuels qui n’ont pas grand-chose à échanger hormis leurs propres photos, celle de leurs chiens et des commentaires infantiles. Globalement, ce réseau est plutôt utilisé par des abonnés au profil beauf, les plus jeunes utilisent Instagram et les  plus vieux Tweeter. Bien que certains réseaux soient utiles pour des échanges dans le domaine technique, socio-économique ou associatif pour l’essentiel, Facebook est utilisé comme un miroir pour l’abonné afin de se regarder lui-même de manière favorable en souhaitant que son avis soit partagé par les autres. Bref c’est le degré zéro de ce qui s’appelle pourtant un réseau social dont la réalité est très virtuelle. Notons aussi que la plupart de ces réseaux sont détenus par les américains dont la préoccupation est davantage commerciale que culturelle ou sociétale. Par ailleurs ces réseaux oublient aussi de payer les impôts sur les activités commerciales qu’il développe dans chacun des pays. Ces réseaux présentent toutefois une fragilité en raison précisément du caractère assez virtuel. Ils ne sont pas à l’abri de l’éclatement d’une bulle ou de leur remplacement par un autre service à beaucoup plus grande valeur ajoutée.

Intelligence artificielle : L’analyse prédictive la nouvelle mode

Intelligence artificielle : L’analyse prédictive la nouvelle mode

 

 

  • Dans un papier (sponsorisé par Orange !) l’intelligence artificielle est encore mise à toutes les sauces ; cette fois au service de l’analyse prédictive, la nouvelle mode. Une mode pourtant ancienne puisqu’il s’agit ni plus ni moins que d’exploiter des statistiques. L’analyse prédictive utilise en effet différentes méthodologies statistiquse à partir de données et de la théorie des jeux qui analysent des faits présents et passés pour faire des hypothèses prédictives. En faite une analyse de données passées en tenant compte des comportements pour faire de la prospective au service par exemple d’études de marché, de suivi d’installation ou encore de suivi de la santé. Un mélange de technologies nouvelles de l’information articulée avec une analyse des statistiques et des comportements. Pas vraiment un exploit de l’intelligence artificielle car ces techniques statistiques sont connues depuis au moins 30 ans.
  • (Extrait de l’article de l’article)

 

« Les avancées de l’intelligence artificielle (IA) conjuguées au big data ouvrent sans cesse de nouvelles perspectives. Parmi elles : l’analyse prédictive. De plus en plus performante grâce au machine learning, cette dernière est capable, en croisant des données de différentes sources, de prédire l’impact de phénomènes ou d’inventer de nouveaux services. Portrait d’une technologie de prédiction qui ne laisse rien au hasard.

Des progrès époustouflants… fondés sur la confiance des clients

Les progrès des modèles prédictifs s’accélèrent et génèrent sans cesse de nouvelles applications dans de nombreux secteurs économiques. En matière d’agriculture, il est ainsi possible d’anticiper les dépenses énergétiques des machines et d’être alerté en cas de besoin d’une maintenance préventive. Citons aussi le compteur intelligent Linky qui permet de fournir des recommandations pour optimiser la consommation grâce aux données collectées. Sans oublier l’industrie automobile et les véhicules connectés, qui marient intelligence artificielle et data science pour toujours plus d’autonomie. L’analyse prédictive repose sur l’exploitation de la data en échange d’un service facilitateur à valeur ajoutée pour les clients. La question de la confiance est donc primordiale. Un environnement où les utilisateurs peuvent partager leurs données en toute sécurité et confidentialité est crucial pour la réussite des modèles prédictifs. Le RGPD* va dans ce sens.

E-santé : quand l’IA aide à la prévention

L’IA et ses capacités prédictives améliorent la qualité des soins, la prévention ou l’aide au diagnostic du médecin. Un exemple ? La prévention de crises de certaines maladies et la télémédecine. Les poussées de rhumatismes inflammatoires peuvent ainsi être détectées grâce à un capteur d’activité sur le patient, couplé au machine learning. Les data scientists des Orange Labs, en partenariat avec l’hôpital de la Pitié-Salpêtrière et Sanoïa, ont développé un modèle repérant ces poussées avec une fiabilité de 96 %.

Maintenance prédictive : vers une industrie et une énergie intelligentes

Dans le secteur industriel, l’IA permet également, grâce aux modèles prédictifs, de prévoir les pannes avant qu’elles ne se produisent. L’ascensoriste ThyssenKrupp peut ainsi remplacer les pièces avant leur usure.

Autre exemple : le fabricant de chaudières et chauffe-eau à gaz, e.l.m. leblanc, propose grâce à l’IoT et l’IA un service de contrôle à distance et de maintenance curative et prédictive de ses chaudières. La solution déployée collecte les données de la chaudière et alerte les techniciens en cas de problème. Leurs interventions sont plus efficaces, car l’IA permet de cibler les causes probables du dysfonctionnement en analysant les données en temps réel. La plateforme génère aussi elle-même des alertes par anticipation, via des algorithmes de maintenance prédictive.

Smart city : l’IA au service des citoyens

L’IA permet aussi aux collectivités d’optimiser la performance énergétique des bâtiments publics et de simplifier l’usage des services de la collectivité, comme les transports. Un exemple : la commune de Cenon, près de Bordeaux, a installé des capteurs connectés dans les chaudières des bâtiments municipaux les plus énergivores pour améliorer leur performance énergétique.

Ressources humaines : quand le recrutement passe au 4.0

En matière de gestion des ressources humaines, l’analyse prédictive peut aider à prévoir les évolutions du marché de l’emploi, comme chez Adecco. Mais aussi à recruter les candidats possédant les comportements et soft skills adéquats pour un poste, grâce notamment à l’analyse de données et des tests de personnalité.

Autre application RH : anticiper des risques d’absentéisme en croisant des données épidémiologiques, de santé et de transports pour faire de la prévention.

Retail : prédire pour toujours plus personnaliser

Connaître le parcours client est la clé du succès dans le domaine du retail. Les modèles prédictifs par l’analyse et le croisement des données permet aux acteurs du secteur de pousser automatiquement des produits potentiellement pertinents aux consommateurs. Une société de l’agroalimentaire pourrait ainsi suggérer des listes de courses en fonction des données remontées par un réfrigérateur connecté par exemple. Avec l’accord et la confiance du client, il est aussi possible de croiser des données de l’entreprise avec des informations disponibles en open data. Résultats : des recommandations personnalisées, de loisirs, de sports, de vêtements, de voyages… ». Finalement surtout des études de marché ! »

5G : des mesures pour contrôler Huawei

5G : des mesures  pour contrôler Huawei

- Le gouvernement envisage  enfin de prendre une série de mesures visant à limiter le déploiement de l’équipementier télécoms chinois Huawei en France, surtout sur  la 5G. La question de la norme 5G est en effet entrée dans une phase de véritable guerre entre les Etats Unis et la Chine (l’Europe étant à la traine faute de politique commune). L’enjeu est technologique mais aussi économique et sociétal. En effet,  il ne s’agit pas seulement d’un réseau téléphonique mais d’un système qui interviendra dans de nombreuses fonctions des systèmes de production et de consommation. L’impact économique sera énorme puisque la 5G sera au cœur de la plupart des activités humaines. (Énergie, transports, santé, services, consommation etc.) Enfin et peut-être surtout, ce sera un moyen de recueillir un nombre incalculable de données sur le comportement des ménages et des citoyens voir d’espionner. Sans doute pourquoi les États-Unis et d’autres pays s’opposent à la norme chinoise et en particulier à  Huawei, la plus puissante entreprise. Si pour les réseaux 3G et 4G, la guerre des équipementiers se jouait principalement entre Américains et Européens, pour la 5G, il faudra compter avec les géants chinois, Huawei en tête, à la croissance encore plus voyante côté réseaux qu’elle ne l’est côté smartphones. De quoi expliquer en partie que la Chine soit le pays qui investit aujourd’hui le plus dans la 5G : Pékin aurait prévu d’investir plus de 400 milliards de dollars dans son déploiement d’ici 2020. Alors certes, l’échelle géographique explique en partie des chiffres qui donnent le tournis, mais pas seulement. Aux États-Unis, on a décidé de traiter la 5G comme une question stratégique, et pas seulement commerciale. Face à une Chine qui fait donc du nouveau réseau une tête de pont pour pousser ses champions locaux, Donald Trump a confirmé l’interdiction faite aux opérateurs américains de construire leurs réseaux avec des matériels Huawei.  L’année dernière, une étude de la CTIA, le syndicat des industriels du mobile aux États-Unis, avait chiffré l’avantage que le pays avait gagné à se lancer très tôt dans la 4G, avantage estimé à 125 milliards de dollars pour l’économie américaine. En France, on envisage de prendre des mesures d’agrément pour bloquer  Huawei. L’une des mesures envisagées consisterait en une extension du pouvoir d’agrément de l’ANSI, l’Agence nationale de la sécurité des systèmes d’information. Avec un chiffre d’affaires de 93 milliards de dollars (81,7 milliards d’euros) en 2017, Huawei est le premier équipementier télécoms mondial, mais plusieurs pays occidentaux redoutent que Pékin n’utilise ses infrastructures à des fins d’espionnage. Aucune preuve n’a jusque-là été apportée pour étayer ces soupçons et le groupe a réfuté à de nombreuses reprises ces accusations. La controverse a toutefois conduit plusieurs pays occidentaux à restreindre l’accès à leurs marchés pour la téléphonie de cinquième génération (5G).

Télécoms : la guerre de la 5G

Télécoms : la guerre de la 5G

 

La question de la norme 5G est entrée dans une phase de véritable guerre entre les Etats Unis et la Chine (l’Europe étant à la traine faute de politique commune). L’enjeu est technologique mais aussi économique et sociétal. En effet,  il ne s’agit pas seulement d’un réseau téléphonique mais d’un système qui interviendra dans de nombreuses fonctions des systèmes de production et de consommation. L’impact économique sera énorme puisque la 5G sera au cœur de la plupart des activités humaines. (Énergie, transports, santé, services, consommation etc.) Enfin et peut-être surtout, ce sera un moyen de recueillir un nombre incalculable de données sur le comportement des ménages et des citoyens voir d’espionner. Sans doute pourquoi les États-Unis et d’autres pays s’opposent à la norme chinoise et en particulier à  Huawei, la plus puissante entreprise. Si pour les réseaux 3G et 4G, la guerre des équipementiers se jouait principalement entre Américains et Européens, pour la 5G, il faudra compter avec les géants chinois, Huawei en tête, à la croissance encore plus voyante côté réseaux qu’elle ne l’est côté smartphones. De quoi expliquer en partie que la Chine soit le pays qui investit aujourd’hui le plus dans la 5G : Pékin aurait prévu d’investir plus de 400 milliards de dollars dans son déploiement d’ici 2020. Alors certes, l’échelle géographique explique en partie des chiffres qui donnent le tournis, mais pas seulement.

Aux États-Unis, on a décidé de traiter la 5G comme une question stratégique, et pas seulement commerciale. Face à une Chine qui fait donc du nouveau réseau une tête de pont pour pousser ses champions locaux, Donald Trump a confirmé l’interdiction faite aux opérateurs américains de construire leurs réseaux avec des matériels Huawei.  L’année dernière, une étude de la CTIA, le syndicat des industriels du mobile aux États-Unis, avait chiffré l’avantage que le pays avait gagné à se lancer très tôt dans la 4G, avantage estimé à 125 milliards de dollars pour l’économie américaine. En France, la prochaine étape sur la route de la 5G sera la mise aux enchères des fréquences par l’ARCEP, notre gendarme des télécoms, à l’été prochain.

 

La maison connectée : un fantasme pour l’instant !

La maison connectée : un fantasme pour l’instant !

 

 

C’est le résultat d’une étude qui démontre que les Français demeurent relativement prudents par rapport aux perspectives de connexion de leur logement. Les lobbys en domotique ne cessent de vanter la grande révolution numérique y compris pour tous les services et activités de la maison. Seront connectée d’après eux, la gestion de l’électricité, la sécurité, le chauffage, l’eau est bien sûr la machine à café et plus généralement la préparation des repas, bien d’autres aspects encore ave les enceintes. Le problème c’est que tout cela n’est pas gratuit. Les Français dépensent déjà des sommes non négligeables en outils et services informatiques. Ces services dont certains d’ailleurs peuvent être discutables ont un coût et forcément un prix et dans un contexte économique où le pouvoir d’achat se resserre l’équipement en domotique n’est pas forcément prioritaire. Il est surtout réservé aux ménages aisés.  Reste aussi la question de l’intrusion de services informatiques dans la vie privée. Car qu’on le veuille ou non ces données seront récupérées à, analysées et exploitées à des fins commerciales de sorte que rien n’échappera concernant la vie familiale et intime. Selon le dernier baromètre Qualitel-Ipsos, le logement connecté reste un phénomène très minoritaire en France. Seuls 3 logements sur 10 possèdent au moins un équipement connecté et même le service le plus «populaire», l’alerte anti-intrusion, ne concerne que 21% des lieux de vie. Certes, le phénomène s’accentue avec le temps: 54% des logements de moins de 5 ans disposent d’au moins un service connecté, mais les Français ne semblent pas vraiment avoir le feu sacré sur ce sujet. . Les trois quarts des sondés considèrent ainsi que «des prix trop élevés les dissuaderaient d’équiper leur logement en objets connectés». Une perception confirmée par le fait que ces produits sont effectivement l’apanage des foyers les plus aisés: 16% des foyers disposant de moins de 3000€/mois disposent d’au moins deux équipements connectés contre 35% de ceux pouvant compter sur plus de 5000€/mois.

Facebook, réseaux sociaux : l’auberge espagnole

Facebook, réseaux sociaux : l’auberge espagnole

 

Pour les Français c’est un peu comme à  la Samaritaine, on n’y trouve un peu tout,  le meilleur et le pire.  Pour preuve certains  sites et autres forums sont considérés comme des vecteurs d’intox. . Les réseaux sociaux sont particulièrement visés par les internautes, une critique justifiée dans la mesure où dominent souvent les avis partisans, les informations approximatives voire  la manipulation. Pas étonnant dans la mesure les sites constituent un véritable maquis de quelque 5 millions d’émetteurs. Sur ces 5 millions sans doute à peine quelques centaines présentent  sans doute un intérêt. Ceci étant les Français considère que globalement Internet constitue une source d’information utile.

Usage d’Internet en France

  • 85% des Français ont accès à Internet
  • 74% y accèdent tous les jours – 95% des 18-24 ans
  • En moyenne, on passe 18 heures par semaine sur Internet
  • 93% ont un mobile, 65% un smartphone, 82% un ordinateur, 40% une tablette
  • En moyenne, on passe 58 minutes par jour sur l’Internet mobile
  • 55% des Français utilisent un navigateur, 48% téléchargent des applications
  • 60% des Français ont effectué au moins un achat en ligne en 2016
  • 25% utilisent Internet pour leur recherche d’emploi
  • 56% sont inscrits sur au moins un réseau social
  • En moyenne, on passe 1h16 par jour sur les réseaux sociaux

 

Selon la 6e édition du baromètre publié lundi par l’Acsel (association de l’économie du numérique)  et La Poste, trois Français sur quatre n’ont pas confiance dans les informations qu’ils trouvent sur les réseaux sociaux. Si 75% des Français disent avoir confiance dans les informations des sites de médias en ligne traditionnels, ils ne sont plus que 32% pour celles trouvées sur les forums, et ce chiffre tombe à 25% pour les informations circulant sur les réseaux sociaux. Seule une minorité de personnes estime que les informations trouvées sur Facebook, Twitter ou encore LinkedIn sont neutres (27%) et fiables (29%). Facebook en particulier est un réseau voyou dont l’objet est surtout de récupérer des données personnelles pour les vendre à des fins commerciales ou même politiques. Un réseau par ailleurs d’une grande pauvreté sur le plan informationnel plutôt utilisé par des ados prolongés. Les plus jeunes préférant par exemple Instagram les moins jeunes tweeter.

Télécoms : la guerre de la 5G

Télécoms : la guerre de la 5G

 

La question de la norme 5G est entrée dans une phase de véritable guerre entre les Etats Unis et la Chine (l’Europe étant à la traine faute de politique commune). L’enjeu est technologique mais aussi économique et sociétal. En effet,  il ne s’agit pas seulement d’un réseau téléphonique mais d’un système qui interviendra dans de nombreuses fonctions des systèmes de production et de consommation. L’impact économique sera énorme puisque la 5G sera au cœur de la plupart des activités humaines. (Énergie, transports, santé, services, consommation etc.) Enfin et peut-être surtout, ce sera un moyen de recueillir un nombre incalculable de données sur le comportement des ménages et des citoyens voir d’espionner. Sans doute pourquoi les États-Unis et d’autres pays s’opposent à la norme chinoise et en particulier à  Huawei, la plus puissante entreprise. Si pour les réseaux 3G et 4G, la guerre des équipementiers se jouait principalement entre Américains et Européens, pour la 5G, il faudra compter avec les géants chinois, Huawei en tête, à la croissance encore plus voyante côté réseaux qu’elle ne l’est côté smartphones. De quoi expliquer en partie que la Chine soit le pays qui investit aujourd’hui le plus dans la 5G : Pékin aurait prévu d’investir plus de 400 milliards de dollars dans son déploiement d’ici 2020. Alors certes, l’échelle géographique explique en partie des chiffres qui donnent le tournis, mais pas seulement.

Aux États-Unis, on a décidé de traiter la 5G comme une question stratégique, et pas seulement commerciale. Face à une Chine qui fait donc du nouveau réseau une tête de pont pour pousser ses champions locaux, Donald Trump a confirmé l’interdiction faite aux opérateurs américains de construire leurs réseaux avec des matériels Huawei.  L’année dernière, une étude de la CTIA, le syndicat des industriels du mobile aux États-Unis, avait chiffré l’avantage que le pays avait gagné à se lancer très tôt dans la 4G, avantage estimé à 125 milliards de dollars pour l’économie américaine. En France, la prochaine étape sur la route de la 5G sera la mise aux enchères des fréquences par l’ARCEP, notre gendarme des télécoms, à l’été prochain.

« Combler l’insuffisance numérique »

« Combler l’insuffisance numérique »

Cofondateur et directeur de la recherche de la Fondation Internet Nouvelle Génération (Fing), Jacques-François Marchandise propose des moyens de combler la faille numérique dans une interview à la Tribune.  

- Selon le gouvernement, il y aurait 13 millions de Français « en grande difficulté » avec le numérique. Que vous inspire ce chiffre ?

Ce n’est pas si simple. Je ne suis pas, personnellement, d’accord avec l’approche qui consiste à séparer d’une traite ceux qui maîtrisent le numérique, pour qui tout va bien, et ceux qui ne le maîtrisent pas, pour qui tout va mal. Cette vision des choses, censée mettre en lumière le retard de certains à se saisir du digital n’a pas lieu d’être, puisque les raisons pour lesquelles ils ne sont pas usagers ou éprouvent des difficultés vis-à-vis du numérique sont extrêmement variées.

Comment définissez-vous, alors, l’exclusion numérique ?

Il y en a de nombreuses sortes. Il y a d’abord les fractures principales de la société, c’est-à-dire les difficultés sociales et économiques des gens. Par exemple, si l’on vit en dehors de tout lien social, du circuit économique, et que l’on n’a pas d’emploi, le numérique peut accroître l’isolement, même si l’on utilise un ordinateur depuis vingt ans. C’est ce que certains appellent la « fracture numérique secondaire ». Mais pour certaines personnes confrontées à la perte d’emploi, au départ à la retraite ou à d’autres événements de la vie, le numérique peut a contrario avoir un effet de rattrapage, d’amortisseur et de reconnexion, permettant de rétablir ou de maintenir des liens. Une autre forme d’exclusion numérique est liée à la connaissance et à la capacité d’apprentissage. Ce n’est pas toujours, comme on pourrait le penser, une question d’études ou diplôme : il y a de nombreux exemples d’autodidaxie, plus rarement chez des personnes isolées ; mais il faut aussi avoir « appris à apprendre », comprendre le fonctionnement des moteurs de recherche et la manière dont l’information circule en ligne. Il arrive que des personnes qui ont des formations classiques, des diplômes, soient incompétentes en environnement numérique, parce qu’elles ne comprennent pas forcément que plus l’on pose de questions à un moteur de recherche, plus celui-ci restreint les réponses. Nos étudiants d’aujourd’hui sont encore loin d’être tous à l’aise avec cela.

Quoi qu’il en soit, vous êtes opposé à la « rhétorique du retard », qui cible depuis longtemps certaines populations qui utilisent peu le numérique…

Effectivement. Parce que certaines personnes utilisent parfois des outils non-digitaux pour arriver à leurs fins. Et elles s’en sortent bien mieux comme ça ! Or ces personnes ne sont pas forcément en difficulté vis-à-vis du numérique, même si elles peuvent être considérées comme en dehors. Dans les années 2000, la rhétorique du retard a été utilisée pour expliquer le fait que les Français étaient réticents à abandonner le Minitel pour passer à Internet. Mais si cette situation a duré aussi longtemps, c’est parce que les services Minitel marchaient très bien. Ils n’étaient certes pas aussi sophistiqués qu’aujourd’hui, mais on y trouvait déjà des services bancaires, de la livraison de courses à domicile, et on pouvait trouver très vite beaucoup d’informations utiles, comme des horaires de trains. C’était un retard pour le développement du marché, pas forcément pour les usagers.

Est-ce la raison pour laquelle déterminer les populations vraiment en difficulté vis-à-vis du numérique s’avère difficile ?

Certaines personnes qui n’utilisent que très peu Internet ne sont pas en difficulté avec cet outil. Si elles ont des proches ou des collègues qui s’en servent et peuvent les aider, leur peu d’appétence pour le numérique ne les empêche pas de remplir leur déclaration d’impôts en ligne sans problème, de faire des recherches sur Google ou d’accéder à Wikipedia.

Dans quels cas de figure Internet est-il véritablement source de problèmes ?

Dans une enquête récente, nous avons posé le problème dans l’autre sens. Nous nous sommes demandé dans quels cas de figure le numérique donnait du pouvoir d’agir, dans la vie quotidienne ou les choix personnels. On s’est aperçu que, de manière un peu paradoxale, plus on a d’usages numériques, plus on a d’ennuis. En clair, lorsque certaines personnes se contentent d’aller sur Google et de transférer des photos à des proches, elles ont peu de soucis avec Internet. C’est lorsque l’on a plusieurs dizaines d’usages différents – ce qui est le cas pour un internaute moyen – que les problèmes apparaissent. On perd des documents, on ne sait pas comment publier et dépublier des messages sur certains sites, on est parfois angoissé par certains actes sur une appli bancaire ou en traitant ses impôts… Ces nouveaux embarras numériques, comme je les appelle, concernent les gens qui sont déjà connectés. Ensuite, on a constaté que plus les Français ont d’usages numériques non choisis, plus ils ont des ennuis.

C’est par exemple le cas lorsque l’État impose la dématérialisation de certains services administratifs ou de l’impôt sur le revenu ?

Les démarches administratives en ligne sont difficiles pour beaucoup, alors qu’elles sont très utiles pour d’autres. Avant le numérique, il y a d’abord une fracture administrative, le non-recours aux droits, la difficulté à s’orienter, que la suppression de nombreux guichets physiques risque de ne pas arranger. Le numérique peut être positif s’il atténue les difficultés des gens qui ont du mal avec l’administration. Mais le numérique n’a pas le pouvoir de corriger les acronymes incompréhensibles ou la multiplicité des exceptions des procédures administratives. Il arrive souvent que le passage au numérique soit pensé pour simplifier les démarches. L’idée est, par exemple, de cesser de questionner quelqu’un sur ses enfants alors qu’il a indiqué, au début d’un formulaire, qu’il n’en avait pas. Mais historiquement, chaque service administratif a fait sa cuisine de son côté. Tous les ministères, les administrations territoriales et sociales ont procédé à une intégration verticale du numérique, avec leurs propres règles du jeu, leurs modes de navigation et leurs logiques de conservation des documents. Lesquels sont, en outre, souvent modifiés d’une année sur l’autre. Ce qui, in fine, met beaucoup d’usagers dans une situation difficile.

Le monde des services Internet apparaît au moins aussi compliqué…

C’est l’autre espace numérique avec lequel les internautes peuvent être en grande difficulté. C’est ce que j’appelle la fracture servicielle. Ici, le jeu s’est énormément ouvert ces dernières années. De nombreuses plateformes interviennent dans beaucoup de domaines, comme les services à domicile pour les seniors, les services bancaires, l’assurance, la vente à distance. Le problème, c’est qu’une partie d’entre nous ne sait plus très bien de qui il est client. Pour certains, habitués à s’adresser à des vendeurs dans des boutiques physiques classiques, c’est très déstabilisant, déboussolant, et débouche parfois sur une profonde perte de confiance vis-à-vis de ces nouveaux usages.

Qui est concerné par ces fractures administrative ou servicielle ? On présente souvent les jeunes défavorisés ou les seniors comme les populations les plus déconnectées, ce qui impliquerait de concentrer sur elles les politiques d’inclusion numérique…

Certains disent en effet que, de manière caricaturale, l’inclusion numérique concerne les personnes âgées et les pauvres. Mais dans les deux cas, ce n’est pas tout à fait vrai. Il y a des préjugés sociaux énormes sur les personnes en difficulté économique. Plusieurs études ont montré que les ménages modestes étaient autant – voire plus – équipés en matériel technologique que les ménages plus aisés. Pour y arriver, beaucoup se sont endettés fortement dès le début des années 2000. Ils se disaient que s’ils ne prenaient pas un crédit sur un ordinateur, ils allaient, en gros, mettre en péril l’avenir de leurs enfants… Enfin, les jeunes seniors, eux, constituent, et de loin, la population qui a connu la plus forte augmentation en matière d’usages numériques lors de la dernière décennie. Pourquoi ? Parce que, selon certaines études, ceux qui partent en retraite et sortent d’un environnement professionnel et socialisé se convertissent à Internet pour ne pas se retrouver isolés. En parallèle, certains jeunes ont de réelles difficultés numériques.

Pourquoi ?

Pour diverses raisons. Par exemple, le fait d’exister en ligne suppose d’oser écrire en ligne, ce qui est parfois un problème. Il existe aussi beaucoup d’espaces sociaux numériques dans lesquels la difficulté principale va être la langue – sachant, en outre, qu’on vit dans un pays impitoyable avec l’orthographe. D’autres jeunes, eux, ont du mal à changer de registre en fonction de l’espace numérique (forums, réseaux sociaux, messageries instantanées, e-mails) dans lequel ils se trouvent.

Qui sont alors ceux pour qui Internet pose problème ?

Il existe plusieurs familles de difficultés. Une partie des gens pour qui Internet pose problème considèrent que ce n’est pas de leur époque, que c’est trop compliqué, qu’ils n’y arriveront jamais, qu’ils sont moins bons que les autres. Il y a, ici, une question d’estime de soi. Un autre important facteur d’exclusion numérique, c’est l’isolement tout court. Lorsque l’on n’a pas beaucoup de liens sociaux, un carnet d’adresses pauvre et peu d’échanges avec les autres, on ne sait pas à qui s’adresser pour résoudre ses difficultés sur Internet. Ce qui est intéressant, c’est que, par des biais détournés, le numérique permet de reconstituer un chemin de mise en relation avec autrui. On a par exemple constaté que sur leboncoin.fr, certaines personnes mettent en vente des objets à des prix très bas. Leur véritable objectif n’est pas de vendre, mais d’avoir une interaction physique et sociale avec l’acheteur… Une situation de grave solitude face au numérique, c’est la famille monoparentale, précaire, avec des ennuis qui saturent le temps et l’attention, et personne pour l’aider dans un environnement proche. Ici, la difficulté numérique découle d’abord et avant tout d’un problème social, que l’on soit jeune ou âgé. L’exclusion et l’adolescent isolé dans la cour de récréation sont des problèmes qui n’ont pas magiquement disparu avec le numérique.

Existe-t-il d’autres facteurs de difficulté numérique ?

Il y a le sujet de l’argent et des difficultés économiques. Pendant des années, certains pensaient que pour réduire la fracture numérique, il fallait donner des ordinateurs aux foyers les plus pauvres. Mais ce qu’on constate, c’est qu’il y a déjà du matériel chez les plus défavorisés. En revanche, le prix des abonnements Internet fixe et mobile pose problème. C’est souvent ce qui met en danger le budget des familles les plus pauvres.

Outre les abonnements, il y a encore, notamment dans certains bourgs et villages, des zones blanches où le mobile ne passe pas, et des endroits où se connecter à Internet relève du chemin de croix…

Oui, et cette situation était prévisible il y a vingt ans lorsque les États ont libéralisé le secteur des télécoms. Nous avons créé une situation où l’État n’a pas assez le bénéfice des réseaux les plus solvables dans les zones les plus densément peuplées. Cela l’empêche de réaliser correctement la péréquation dans les campagnes et banlieues moins peuplées et moins rentables, qui intéressent peu – ou pas – les opérateurs privés. Cet ancien choix politique a favorisé la concurrence et le développement numérique, mais laisse le contribuable payer la note des réseaux moins profitables…

Comment, d’après vous, faut-il s’y prendre pour mener une politique d’inclusion numérique efficace ?

Pour y arriver, il faut d’abord utiliser le numérique en articulation plutôt qu’en substitution. Le numérique constitue souvent une stratégie perdante lorsqu’il remplace purement et simplement des interactions existantes. Certaines personnes ne seront pas plus à l’aise qu’avant avec un service entièrement digitalisé parce qu’elles étaient déjà en difficulté précédemment. D’autres personnes, elles, risquent de se retrouver perdues devant un service 100 % en ligne si elles ne bénéficient pas d’aide extérieure ou de médiation pour comprendre comment il fonctionne. D’où l’importance, par exemple, de repenser les médiations sociales et leurs insuffisances au sens large, avec tous les acteurs existants (et pas seulement ceux qui seraient nativement digitaux), en y incluant les médiations numériques. En outre, étant donné que l’isolement constitue un problème majeur, il est fondamental de repenser nos cadres collectifs dans un monde traversé par le numérique. Cela peut permettre, notamment, de mieux former les aidants, les acteurs sociaux et associatifs, aux difficultés numériques – mais aussi de former les acteurs du numérique aux questions sociales.

MINIBIO

Cofondateur et directeur de la recherche de la Fondation Internet nouvelle génération (Fing), Jacques-François Marchandise travaille depuis des années sur la manière dont la société s’approprie les outils digitaux. Il a également fondé, en 1997, le cabinet de conseil en stratégies numériques Items Proposition. Jacques-François Marchandise a notamment participé à la création de plusieurs services numériques, comme celui de servicepublic.fr

Le réseau de Téléphonie fixe à l’abandon

Le réseau de Téléphonie fixe à l’abandon

 

Il est clair que depuis la libéralisation, c’est-à-dire la multiplication des opérateurs de télécom le réseau de téléphonie fixe est dans un état lamentable. Précédemment l’entretien était correctement assuré par France télécom. Depuis France Télécom est devenu Orange et s’est trouvé confronté à une concurrence très agressive. Du coup Orange a pratiquement laissé tomber l’entretien des lignes dont certaines pendouillent même sur le sol où sont rattachés avec des bouts de ficelle à des branches d’arbres. Au premier coup de vent c’est la rupture assurée surtout dans la France périphérique ou l’état des lignes est encore pire que dans les zones agglomérées. Pourtant théoriquement l’entretien du réseau fixe incombe à Orange en tant qu’ coopérateur du service universel. Du coup l’Autorité de régulation des télécoms (Arcep) a mis en demeure Orange, mardi, de respecter son obligation de qualité de service en tant qu’opérateur du service universel du téléphone fixe. Le régulateur a déploré dans un communiqué une « dégradation progressive de la qualité de service » de l’opérateur, censé proposer un service de téléphonie abordable et pour tous. C’est par un arrêté du 27 novembre 2017 que l’ancien France Télécom avait été désigné pour trois ans comme opérateur chargé de fournir les prestations « raccordement » et « service téléphonique » du service universel. Pour étayer ses accusations, l’Arcep cite des critères de qualité de service précis du son cahier des charges, comme le délai maximum pour traiter 85% des dérangements d’abonnés. Il devrait être de 48 heures mais ce délai a atteint 70 heures au premier trimestre 2018, puis 63 heures au deuxième.« Orange doit redresser le tir de toute urgence, dès la fin de l’année. Peu importent les moyens, nous voulons des résultats », a mis en garde le président de l’Arcep Sébastien Soriano, dans un entretien à paraître mercredi dans Le Figaro.

La Blockchain : une vraie révolution (Joseph Lubin)

 La Blockchain : une vraie révolution   (Joseph Lubin)

, le Canadien Joseph Lubin, expert en blockchain, aussi  des premiers milliardaires en cryptomonnaies au monde explique le potentiel révolutionnaire de la Blockchain, (interview la Tribune

 

Comment êtes-vous arrivé dans l’univers de la Blockchain ?

JOSEPH LUBIN - Début 2011, j’ai commencé à beaucoup m’intéresser au livre blanc de Satoshi Nakamoto sur le Bitcoin [paru fin 2008 sous le titre « Un système pair-à-pair de cash électronique »]. Il décrit à la fois la création d’un « jeton de valeur », le Bitcoin, une technologie de base de données de nouvelle génération, la Blockchain, et la « crypto-économie », qui est devenue un sujet d’études. J’ai réalisé que cette technologie pouvait nous aider à tout réinventer, tout reconstruire. J’ai commencé dans la robotique et les réseaux neuronaux, j’ai travaillé pendant 20 ans dans la tech et les logiciels, notamment chez Goldman Sachs, à l’informatique, puis dans un hedge fund, jusqu’à ce que le monde financier commence à s’effondrer. J’étais désenchanté, déçu. J’ai lu tout ce qui existait sur le Bitcoin et la Blockchain, je suis devenu une sorte d’expert. Je n’ai pas pensé lancer une activité dans ce domaine à l’époque, il était clair que cette technologie était encore très immature et allait le rester un moment.

En décembre 2013, à Toronto, j’ai rencontré Anthony Di Iorio, qui travaillait sur un projet de Bitcoin Global Alliance et avait ouvert un lieu, Decentral, où se réunissaient des passionnés pour réfléchir au Bitcoin 2.0. Beaucoup de gens avaient réalisé que la technologie Blockchain devrait servir à de multiples applications au-delà du seul cas d’usage étroit de la monnaie. Anthony m’a fait rencontrer Vitalik Buterin [un jeune programmeur surdoué russo-canadien, ndlr], qui avait cofondé Bitcoin Magazine, et savait expliquer clairement, à seulement 19 ans, des choses très techniques. Il avait écrit une ébauche de livre blanc. Sa vision consistait à séparer cette technologie très compliquée en deux couches, le protocole qui nécessite ce que j’appelle des « prêtres du protocole », des experts très spécialisés capables d’ajouter de nouvelles fonctionnalités, et la couche des applications, où des ingénieurs ordinaires peuvent concevoir et faire tourner toutes sortes de programmes. Trois semaines plus tard, Vitalik avait formalisé le projet Ethereum.

Quel a été votre rôle dans la création d’Ethereum ?

Je suis un des huit cofondateurs d’Ethereum. En janvier 2014, nous avons loué une maison juste avant la grande conférence sur le Bitcoin en Amérique du Nord à Miami, où Vitalik devait présenter publiquement son livre blanc [sous le titre « Une nouvelle génération de plateforme pour les ‘smart contracts’ et les applications décentralisées« , ndlr]. Il y avait déjà beaucoup de buzz sur le projet. Deux codaient, Gavin Woods et Jeff Wilcke, tandis que les autres s’occupaient de toute la documentation et de décisions de conception. Je me suis notamment chargé de la définition de ce que serait le « jeton » d’Ethereum et la vente de ce « token », l’Ether. Nous ne considérions pas cet actif numérique, et ne le considérons toujours pas, comme une crypto-monnaie.

Le réseau Bitcoin a été créé uniquement pour le jeton Bitcoin, alors que nous étions un groupe d’ingénieurs en logiciels qui voulait apporter cette nouvelle sorte de base de données à d’autres ingénieurs. Notre projet consistait à créer une plateforme pour des applications décentralisées et une façon d’indemniser ceux qui allaient partager leurs ressources pour la créer, et aussi leur donner une incitation à sécuriser le réseau.

Il fallait aussi déterminer l’algorithme de consensus [pour valider les transactions], « preuve d’enjeu » ou « preuve de travail », ce dernier a été choisi en l’améliorant. J’ai été aussi impliqué dans la définition de l’écosystème. Ce n’était pas vraiment un business plan, plutôt des lignes directrices. Initialement, nous voulions créer une entreprise, avec une partie à but lucratif et l’autre non. Mais pour des questions de personne, c’est devenu impossible, ce n’était pas viable.

Nous avons créé à Zoug une société Ethereum Switzerland GmbH, pour réaliser la vente de « tokens », et établi également à Zoug la Fondation Ethereum (Stiftung Ethereum), dont la mission est de guider les développements de la plateforme et d’assurer sa maintenance. Nous avons donné 100% du contrôle d’Ethereum GmbH à la Fondation Ethereum. Nous voulions rester hors des États-Unis car nous n’étions pas sûrs de la façon dont notre jeton serait traité là-bas, il risquait d’être perçu comme une nouvelle crypto-monnaie. La Suisse est un pays qui défend la liberté, le vote, la vie privée, son gouvernement est ouvert à la discussion.

Vous êtes parti créer ConsenSys avec quelle vision ?

Je me suis proposé d’être l’avant-poste d’Ethereum à New York : je suis Canadien, mais j’ai passé pas mal de temps là-bas, après mes études à Princeton. J’ai rassemblé des gens pour construire un site d’applications décentralisées, un « DAppStore ». Nous avons commencé à développer des outils comme la suite Truffle [kit pour déployer un "smart contract", un contrat intelligent qui se déclenche automatiquement, sur la Blockchain] et une solution de gestion d’identité numérique, uPort Identity, qui soit meilleure que les mots de passe. L’objectif est d’aider à transformer le Web 2.0 vers un Web 3.0 à l’architecture bien moins centralisée et dont les individus récupèrent le contrôle. Nous croyons beaucoup dans la Blockchain et nous voulons être un catalyseur de cette technologie.

Nous avons dû créer notre propre écosystème, ce qui fait que notre société a une configuration assez insolite et un mode de fonctionnement décentralisé. Nous aimons appeler cela un « maillage » de projets, d’entreprises, qui ont une grande part d’ADN commun. Nous avons démarré un « venture production studio », où l’on incube des projets, que des gens font grandir à l’intérieur de ConsenSys, dont certains sont ensuite scindés et deviennent des startups indépendantes. Nous créons aussi toutes sortes de solutions et d’outils pour faciliter la vie des développeurs qui veulent connecter leurs applications au réseau Ethereum, comme Infura [Infrastructure-as-a-service, solution de dimensionnement pour gérer les pics à l'émission de jetons, par exemple].

Nous avons une division Consulting, qui fait du conseil et du développement logiciel. Nous avons réalisé des pilotes, des « proofs of concept » (PoC) pour des entreprises dans des secteurs variés, l’énergie, la banque, la logistique, la santé, le sport, le secteur public, et dans de nombreux pays, à Dubaï, aux États-Unis, en France. Par exemple, nous avons développé la plateforme de Komgo [entreprise fondée par une quinzaine de groupes, notamment des banques, dont Société Générale, BNP Paribas, et Crédit Agricole, ndlr], dans le financement du commerce international de matières premières. Nous avons aussi travaillé avec des banques centrales, à Singapour et en Afrique du Sud. Cette division, que nous avons dû scinder, a enregistré une croissance très significative.

Nous avons monté la ConsenSys Academy, car nous disposions de beaucoup de matériel de formation de notre activité de conseil et nous avions besoin d’accroître nos capacités en développement : 1.500 personnes sont devenues des développeurs Blockchain grâce à nous.

Nous avons aussi une division Marchés de capitaux qui conçoit notamment une solution de conservation (« custody ») pour les crypto-actifs, Trustology, afin que les institutions financières soient plus à l’aise avec les jetons, les actifs numériques lorsqu’elles décideront d’aller sur ce marché. Nous avons une équipe très solide, dont l’ancien responsable de la technologie chez UBS, Alex Batlin, à Londres, qui annoncera bientôt un partenariat très important.

Lire aussi : Fidelity, premier géant de la finance à sauter le pas du Bitcoin

Enfin, nous avons aussi créé ConsenSys Ventures, notre bras de capital-risque, doté de 50 millions de dollars. Nous avons investi dans 30 entreprises, de petits tickets, de 75.000 à 100.000 dollars en moyenne, parfois ce sont des subventions. Nous avons ouvert en septembre un accélérateur, Tachyon, qui a sélectionné 16 projets qui seront mentorés par des superstars de la Blockchain et du Web 2.0. Il y a un projet français parmi eux, Quidli, un projet génial d’émission dynamique du capital, pour distribuer des parts aux employés.

Vous avez remporté l’appel d’offres de la Commission européenne pour réaliser son observatoire de la Blockchain. Que répondez-vous aux parlementaires français critiquant ce choix d’une « entreprise américaine spécialisée dans la Blockchain Ethereum«  ?

Nous ne sommes pas une société américaine. ConsenSys Inc n’est pas la maison-mère, elle emploie 300 à 400 personnes sur 1.100 employés : c’est ConsenSys AG à Zoug qui chapeaute le tout, elle possède le contrôle de nombreuses entités régionales. Juridiquement, nous sommes une société suisse mais nous sommes en fait une startup internationale, avec des bureaux un peu partout dans le monde : 50 personnes à Paris, autant à Londres, 250 à Dublin, etc. Nous n’extrayons pas de la valeur d’un pays vers un autre.

L’équipe de ConsenSys France a mené la candidature à l’appel d’offres de la Commission européenne pour son observatoire de la Blockchain, je n’étais pas au courant au départ. C’est un projet français avec l’appui des meilleurs experts mondiaux, à travers le maillage de ConsenSys. Il est réalisé en partenariat avec trois universités [Lucerne, Londres et Southampton].

Quant à l’étroitesse éventuelle de notre expertise, nous utilisons Ethereum parce que c’est la Blockchain à l’écosystème le plus puissant et de loin le plus largement utilisé, alors que Bitcoin est une technologie très étroite. Nous sommes convaincus que l’avenir sera un monde de registres interopérables. Nous disposons d’énormément d’expertises car nous avons recruté ces deux dernières années des gens de Deloitte, d’EY, et un des fondateurs de la division Blockchain d’IBM et de la plateforme Hyperledger Fabric, John Wolpert. Nous avons aussi des gens ayant travaillé sur Corda [la plateforme opensource de la startup R3, issue d'un consortium de banques, ndlr]Il n’y a probablement aucune entreprise dans le monde qui dispose d’une expertise aussi large sur la Blockchain que Consensys, à part peut-être Accenture ou l’un des Big Four. Je pense que nous avons l’expertise la plus étendue.

Est-ce vous qui financez seul le développement de ConsenSys sur votre fortune personnelle en ethers ?

ConsenSys est financé en partie par moi, mais aussi par les revenus désormais importants que génèrent certaines de nos activités. Nous ne publions pas de chiffres pour le moment. Nous ne dégageons pas de bénéfice mais si l’on prend en compte les émissions de « jetons », les Initial Coin Offerings (ICO) réalisées par certaines de nos entités, nous sommes en situation de cash-flow positif. Plusieurs activités rapportent des revenus significatifs, des dizaines de millions de dollars pour notre pôle solutions par exemple. Notre équipe « Diligence », qui réalise des audits de sécurité des « smart contracts », est très demandée et obligée de décliner 99% des demandes, ce qui permet de facturer ce travail à des montants élevés.

ConsenSys elle-même pourrait-elle réaliser une ICO, une levée de fonds en crypto-actifs ?

Il n’y a pas d’investisseurs extérieurs, en revanche un bon nombre d’employés ont des parts de capital. Nous préparons déjà la prochaine allocation, notre idée est que tout le monde à ConsenSys devrait en avoir. Nous avons beaucoup réfléchi à l’émission d’un jeton ConsenSys, qu’il s’agisse d’un jeton d’investissement ou d’usage ["utility token" donnant un droit d'usage à des biens ou services à venir] : nous pensons que ce serait probablement un titre financier (« security token »). Mais nous n’avons aucun calendrier arrêté. Nous sommes très occupés sur de nombreux sujets, notre entreprise enregistre une très forte croissance. Avant de pouvoir envisager sérieusement d’émettre notre propre token, il faut que tout soit bien ficelé, que le cadre juridique soit bien stabilisé aussi.

Quelles applications vous semblent les plus convaincantes, les plus adaptées à la Blockchain ?

On pourrait poser la même question au sujet d’Internet : dans quel champ est-ce le plus utilisé ? La Blockchain va pénétrer partout, là où il est nécessaire d’améliorer la confiance, c’est-à-dire à peu près n’importe où et tous les secteurs. Cela peut être pour partager des infrastructures de confiance entre concurrents de manière collaborative. Nous aidons des entreprises établies à bâtir des systèmes plus efficaces pour partager des données de référence, par exemple dans les activités de taux entre institutions financières, ou aussi pour explorer de nouveaux modèles d’affaires. En France, nous connaissons une importante institution financière qui envisage d’entrer dans l’univers des ventes de tokens, Goldman Sachs et Morgan Stanley songent à ouvrir un desk de trading en crypto-actifs. Aux États-Unis, nous allons bientôt sortir une application avec une grande marque de biens de consommation traçant l’origine de différentes matières.

Dans la finance, les infrastructures vont finir par basculer sur la Blockchain. Nous avons aidé Santander à construire un système interbancaire de paiements transfrontaliers s’appuyant sur la technologie Blockchain, qui effectue les règlements en dix secondes. Le responsable de la Blockchain chez Santander, Julio Faura, est parti pour diriger ce projet,Adhara, que nous avons intégré [ConsenSys vient d’y investir 15 millions de dollars, ndlr] : nous utilisons cette infrastructure pour bâtir un système de règlements en temps réel qui « tokenise » [convertit les droits liés à un actif en jetons numériques] de l’argent réel par le biais d’un registre distribué fonctionnant avec des « smart contracts » : les règlements interbancaires, entre établissements qui se font déjà confiance, pourraient ainsi avoir lieu non pas tous les jours mais une fois par semaine ou par mois.

La volatilité des crypto-monnaies, y compris de l’ether, nuit-elle au développement de la Blockchain ?

Vous savez, il y aura tellement de crypto-actifs différents à l’avenir. Cela nous va très bien que l’ether soit utilisé comme une crypto-commodité ou un crypto-actif. Comme tout actif, comme le pétrole par exemple, l’Ether fait l’objet d’échanges, de trading. C’est vrai que son cours est plus volatil mais l’industrie pétrolière est là depuis un moment ! Nous avons de la chance qu’Ethereum ait suscité autant d’engouement dans le monde. Il y a eu des flambées, suivies de corrections, et cela se reproduira encore et encore : c’est ainsi que fonctionne le cycle humain de cupidité et de peur que l’on observe sur les marchés. L’horloge de cette technologie fonctionne beaucoup plus vite qu’en 1999 avec la bulle Internet. Je pense que nous verrons un de ces cycles tous les un ou deux ans.
A chaque fois qu’il se produit une explosion puis un plongeon, cela attire l’attention sur ce que nous faisons. Cela fait plancher des spécialistes ou des étudiants en cybersécurité sur Ethereum. Nous sommes un an après le début du boom sur les crypto et le cours de l’Ether est revenu grosso modo au même niveau [en repli de 20%, ndlr]. Et aujourd’hui, du fait de cette agitation, il y a dix à quinze fois plus de gens dans notre écosystème. Rien n’a ralenti du tout : l’écosystème Ethereum connaît une croissance exponentielle.

Quel est le principal défi posé à la Blockchain ? Sa consommation énergétique?

Non, je pense que ce point sera résolu très vite, d’ici 18 mois à deux ans. Je suis optimiste. Le plus grand problème posé à Ethereum est le passage à l’échelle (« scalability ») d’une part et la facilité d’utilisation pour le grand public d’autre part. La montée en charge d’Ethereum [qui peut traiter actuellement entre 7 et 15 transactions par seconde contre plusieurs milliers pour les systèmes Visa et Mastercard, ndlr], progresse à mesure que l’on avance vers des solutions de nouvelle génération, comme Sharding ["fragmentation" en anglais, processus de vérification des transactions s'appuyant sur une division de la Blockchain en plusieurs fragments, des groupes d'ordinateurs du réseau et non pas tous les nœuds du réseau, ndlr], le protocole Casper et le mécanisme de consensus de « preuve d’enjeu », le projet Plasma qui va créer des réseaux Blockchains au sein d’Ethereum, etc. Tout cela devrait permettre à Ethereum de pouvoir traiter des centaines, des milliers de transactions par seconde. C’est une affaire de semaines, de mois.

Il faut que nous travaillions aussi sur la facilité d’utilisation. Si on vous avait donné un smartphone il y a 15 ans, vous n’auriez pas su quoi en faire, les gestes vous seraient étrangers, pour zoomer, balayer l’écran, etc : Apple a fait un job incroyable en apportant progressivement des innovations. Il faut que nous fassions la même chose : les clés publiques et privées, les adresses des comptes en Ether, sont aujourd’hui utilisables par un public technophile. On doit pouvoir faire en sorte que l’utilisateur non initié ne prenne pas le risque de perdre son identité, il faut des mécanismes de récupération des clés, nous travaillons dessus. La France, un futur leader de la « Blockchain » ?

Quelle est votre vision du marché français, en termes de maturité ?

Aucun marché n’est mature ! En Suisse, beaucoup de projets ont démarré dans sa Crypto-Valley, mais je ne dirais pas qu’elle est en avance sur Paris, Berlin, New York, ou que Zoug est le leader de la Blockchain. C’est un phénomène décentralisé. Curieusement, le bitcoin n’a pas vraiment pris dans la Silicon Valley au départ. Au lancement d’Ethereum, il n’y a eu aucun intérêt là-bas, tellement plus à Berlin, Londres, Paris, New York et Toronto. La Silicon Valley rattrape son retard : il y a désormais une grande vague d’intérêt pour la Blockchain, de nombreux ingénieurs du Web 2.0 s’interrogent sur le tour que prennent les choses et rejoignent des entreprises qui veulent bâtir le Web 3.0, comme nous à ConsenSys.

En France, on trouve beaucoup de gens très solides en technologie. Notre équipe ici à Paris a joué un rôle fondateur depuis plusieurs années. Nos projets, comme la startup Variabl, une plateforme de trading de dérivés, font partie de l’écosystème français de la Blockchain.

Que doit faire la France pour devenir un leader de la Blockchain, comme l’ambitionne le gouvernement ?

Éduquer, former, observer la technologie, autant que possible ne pas se mêler de la technologie et ne pas étouffer l’innovation. Cette technologie va tellement loin, elle va permettre la collaboration et créer la confiance dans des domaines où c’est difficile. Cela va rendre le commerce beaucoup plus fluide. La Blockchain va permettre de tout basculer en version numérique, les certificats et diplômes, le capital, l’identité, etc : ce sera un moteur de croissance important. Les gouvernements devraient créer des programmes pour entrepreneurs, peut-être financer certains projets, subventionner des accélérateurs.

Il n’y a pas vraiment besoin de réglementations nouvelles, elles existent pour la plupart, il faut juste une meilleure compréhension. Par exemple, aux Etats-Unis, la SEC [le gendarme des marchés, ndlr] a décidé que les jetons des ICO sont des titres financiers et va appliquer la réglementation comme elle le fait depuis des décennies. William Hinman le directeur de la division Corporation Finance à la SEC, a déclaré il y a quelques mois qu’il considère l’Ether comme un jeton utilitaire (« utility token »), qu’Ethereum n’est pas une entreprise mais un réseau. Il faut de l’ouverture d’esprit et beaucoup de dialogue.

La Blockchain pourrait rendre la collecte d’impôts beaucoup plus fluide, on pourrait avoir des nœuds de régulation sur le réseau qui surveilleraient les flux, la valeur des transactions et pourraient même en aiguiller une partie directement vers les coffres du gouvernement. Plusieurs pays d’Afrique sont très enthousiasmés par cette idée.

Taxation Gafa : la France pousse, l’Allemagne freine

Taxation Gafa : la France pousse, l’Allemagne freine

Le ministre de l’Économie, Bruno Lemaire,  a défendu avec force la taxation des GAFA  au Parlement européen, à Strasbourg, il a plaidé en faveur d’une «décision claire, nette, forte» de l’UE pour taxer les géants du numérique que sont Google, Amazon, Facebook, Apple (GAFA) et autres plateformes numériques comme YouTube ou Airbnb, qui profitent des disparités du système fiscal européen pour minimiser leurs impôts sur le Vieux Continent.  Mais l’Allemagne, elle a botté en touche.  Surtout soucieuse de ses intérêts économiques, l’Allemagne en quelque sorte botte en touche concernant l’éventuel taxation des GAFA. Sous l’impulsion de la France, l’union européenne veut en effet imposer une fiscalité forfaitaire sur les chiffres d’affaires des grandes plates-formes numériques qui pour l’instant profite par excès de l’optimisation fiscale pour payer le moins d’impôts possibles ou n’ont pas payé du tout. En proposant une taxation mondiale l’Allemagne renvoie aux calendes grecques cette fiscalité sur les plates-formes. En cause, le faite que l’Allemagne craint les sanctions que pourraient prendre les États-Unis à l’égard des importations allemandes déjà menacées par TRUMP. La proposition de la Commission de taxer les Gafa, inspirée et soutenue par la France, est aussi  combattue par l’Irlande où siègent certains groupes visés, ou des pays nordiques comme la Finlande et la Suède qui redoutent les effets sur les secteurs de l’innovation ainsi que d’éventuelles représailles commerciales américaines.  L’Allemagne, initialement du côté de la France, a fait montre d’états d’âme début septembre. Or, les réformes touchant à la fiscalité dans l’Union européenne doivent être approuvées à l’unanimité des États membres. Bruno Le Maire s’est dit «favorable à la proposition de Berlin», d’instaurer «un système mondial plus harmonieux» sur le plan fiscal. «Mais ne rêvons pas, ce n’est pas demain la veille» a-t-il ajouté, sur le plateau de l’émission Dimanche en politique sur France 3. En attendant, le ministre de l’Économie a rappelé qu’il allait se rendre mardi au Parlement européen, à Strasbourg «pour appeler tous les États européens à s’engager sans délai pour conclure sur cette taxation des géants du numérique». Reprenant des idées hexagonales, la Commission européenne a proposé en mars d’instaurer une taxe de 3% sur le chiffre d’affaires généré par les services numériques des entreprises (dont le chiffre d’affaires annuel mondial dépasse 750 millions d’euros et dont les revenus dans l’Union européenne excèdent 50 millions d’euros). Au total, environ 200 groupes pourraient être concernés par une telle taxation, dont le rendement s’élèverait à près de cinq milliards d’euros à l’échelle européenne.Bruno Le Maire s’est fixé l’objectif d’une adoption du texte au plus tard début 2019 «Comment peut-on accepter que des millions de consommateurs européens donnent gratuitement leurs données sans qu’il y ait au passage une taxe?», a-t-il demandé devant deux commissions parlementaires. «Soit l’UE est libre, soit elle est vassale. Moi je crois en une Europe libre, souveraine», a-t-il ajouté pour convaincre son assemblée.

Décentraliser Internet (Tim Berners-Lee)

Décentraliser Internet (Tim Berners-Lee)

 

C’est  Tim Berners-Lee, le père fondateur du World Wide Web, Internet qui le dit, internet  fait fausse route en l’état actuel. L’informaticien britannique, a appelé jeudi 18 octobre à une décentralisation d’Internet lors d’une keynote donnée à Las Vegas. 

« Aujourd’hui, beaucoup de gens me posent souvent la même question : « la chose que tu as créée il a des années de ça, est-ce que tu penses toujours que c’est une bonne idée ? » Et bien, c’est très difficile d’y répondreQuand j’ai commencé à créer le WWW, l’esprit était très différent d’aujourd’hui : c’était utopique. (…) Quand le premier blog est arrivé, et que les gens ont réalisé qu’ils pouvaient juste allumer un ordinateur, se connecter à Internet, utiliser des logiciels… Alors tout le monde était très excité…. « Aujourd’hui, les gens sont sur Facebook. Ce qui font et ce qu’ils voient sur Internet est déterminé par l’algorithme de Facebook, qui en profite pour en extraire des données extrêmement précieuses pour savoir qui ils sont et ce qu’ils aiment. (Le réseau social) les utilise ensuite pour proposer de la publicité ciblée, et même, leur dire pour quel candidat ils devraient voter aux prochaines élections », a-t-il taclé. A propos du scandale Analytica «La réaction des gens a été de s’inquiéter pour l’abus réalisé sur leurs propres données, ce n’était pas de s’inquiéter qu’une (élection présidentielle) a pu être manipulée avec de la data ». Le fondateur d’Internet,  travaille sur un  projet en open source, baptisé « Solid« . Pour « redonner le pouvoir » aux internautes sur leurs données. « Peut-être que les premiers utilisateurs monteront à bord du projet pour protéger davantage leurs données », a estimé ce jeudi matin Tim Berners-Lee.  »Petit à petit, les gens disposeront sur Internet d’un espace autonome permettant de restaurer la confiance avec les applications qu’ils utilisent », sans craindre un usage détourné de leurs données.

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.

Peer Tube pour contrer les GAFA

Peer Tube pour contrer les  GAFA

Peer Tube pour contrer You Tube de Google Pierre, c’est le projet de Yves Gosset, directeur de Framasoft, association française qui milite pour le développement de logiciels libres (interview la Tribune)

Pourquoi vouloir créer un « You Tube décentralisé » ?

PIERRE-YVES GOSSET - Framasoft veut sensibiliser à la concentration des services sur Internet. En 2014, nous avons lancé la campagne « Dégooglisons Internet » pour démontrer que le logiciel libre est une alternative crédible à l’hyperpuissance des GAFA (Google, Apple, Facebook, Amazon). Framasoft propose depuis une dizaine de services alternatifs par an : outils de stockage, de cartographie, d’éditing, de jeux… Mais nous n’avions toujours pas d’alternative vidéo.

YouTube est un acteur incontournable, en situation de quasi-monopole (ndlr : la plateforme de Google revendique 1,8 milliard d’utilisateurs par mois et 400 heures de vidéo mises enligne chaque minute sur YouTube dans le monde). Cette concentration pose de nombreux problèmes. Par exemple, son algorithme cherche à retenir le plus longtemps possible les internautes sur sa plateforme, en lui faisant visionner des vidéos qui font le buzz. Plus l’internaute est captif, plus il visionnera de publicités et donc, générera des revenus pour Google. Autre problème : la censure que peut instaurer Google en décidant ce qui est acceptable de diffuser ou pas. C’est donc son point de vue, en tant qu’entreprise américaine, qui s’impose au reste du monde. Dans cette logique-là, YouTube peut décider de la démonétisation de certaines vidéos, en les privant de pub. Cela entraîne une perte de revenus pour les créateurs de contenus. En France, cela a récemment été le cas pour des YouTubeuses qui évoquaient leurs règles ou le corps féminin dans des vidéos ne contenant pourtant aucune image choquante.

En l’absence de modération unique, PeerTube ne risque-t-il pas de voir proliférer les contenus pornographiques ou extrémistes, véritable fléau actuel pour les plateformes ? Comment la modération est-elle régie sur PeerTube ?

Chaque administrateur s’occupe de la modération au sein de son instance. En cas de poursuites judiciaires, la responsabilité est attribuée dans un premier temps à l’internaute qui a publié la vidéo, puis à l’hébergeur. Avec les logiciels libres, nous voulons redonner le pouvoir aux gens. Cela passe donc par un partage de responsabilité, qui permet de faire réfléchir davantage aux contenus publiés sur la Toile. Forcément, nous sommes conscients que certains utilisateurs pourront mal utiliser PeerTube… Pour autant, faut-il priver tous les autres internautes d’un espace d’expression ? Non. Nous ne sommes pas des anarchistes : nous ne souhaitons pas que Peer Tube devienne une jungle, où n’importe qui fait n’importe quoi. Mais nous voulons avant tout donner la possibilité aux gens de pouvoir s’exprimer librement sur Internet.

Pour attirer les utilisateurs, Peer Tube a besoin de contenu. Depuis mars, vous revendiquez déjà 32.000 vidéos en ligne et près d’un million de vues. En l’absence de monétisation, comment comptez-vous attirer les créateurs de contenus ?

Framasoft s’est toujours positionné comme étant antipub. C’est pourquoi il n’y a pas de monétisation par la pub prévue pour l’instant. En revanche, il est déjà possible de soutenir les créateurs grâce à des dons. Dès 2019, un plug-in sera disponible et permettra à chaque instance d’instaurer de la publicité, ou non, sur ses vidéos. Le choix sera laissé aux administrateurs. Évidemment, les YouTubeurs-stars comme Cyprien et Norman n’auront aucun intérêt à venir sur Peer Tube. Nous nous intéressons aux vidéastes déçus de YouTube, cherchant à maîtriser davantage leur outil de diffusion et leurs données.

Framasoft fédère naturellement un public technophile. Les compétences techniques requises pour créer une instance, ou proposer de nouvelles fonctionnalités, sont-elles un frein au recrutement de nouveaux utilisateurs ?

L’objectif de Peer Tube n’est pas de faire des millions de vues, mais de permettre de s’émanciper de YouTube. Côté utilisateur, mettre en ligne une vidéo sur Peer Tube est aussi simple et rapide que sur YouTube. Côté administrateur, il est vrai qu’il faut certaines connaissances techniques. La marche à l’entrée reste compliquée, mais pas insurmontable. Il est toujours possible de se regrouper pour demander un coup de main à un connaisseur, voire même, payer un développeur pour le faire à sa place.

Google: nouvelle affaire Analytica ?

Google: nouvelle affaire Analytica ?

Les données de 500 000 utilisateurs détournées chez Google. Le problème a été découvert et corrigé en mars dans le cadre d’un audit interne des procédures de partage des données avec d’autres applications, a expliqué le groupe américain sur un blog. Aucun développeur extérieur n’a exploité cette faille, ni fait un usage inapproprié des données concernées, selon les conclusions de l’audit.

L’action d’Alphabet, le groupe propriétaire de Google, a terminé en baisse de 1,02% sur le Nasdaq à 1.155,92 dollars après cette annonce.

Quelques minutes avant, le Wall Street Journal avait rapporté que Google avait choisi dans un premier temps de ne pas rendre publique la découverte de la faille de sécurité en raisons des craintes d’une enquête des autorités de tutelle du groupe.

Le quotidien cite dans son article des sources non identifiées et une note interne à Google rédigée par les services juridiques à l’attention des hauts dirigeants du groupe.

D’après le journal, cette note mettait en garde sur le fait que la divulgation de ce problème susciterait probablement “un intérêt immédiat des autorités réglementaires” et entraînerait des comparaisons avec le détournement de données personnelles d’utilisateurs de Facebook par le cabinet de conseil politique Cambridge Analytica.

Toujours selon le WSJ, un comité interne a pris la décision de ne pas informer les utilisateurs, et il a informé de son choix le directeur général de Google, Sundar Pichai.

 

Le mythe de la voiture autonome ?

Le mythe  de la voiture autonome ?

 

Elan Musk, le très médiatique patron de Tesla avait en quelque sorte inventé la mode : la généralisation de la voiture autonome et même du voyage dans la lune. Un exhibitionnisme médiatique surtout destiné à récolter des fonds mêmes si on ne peut contester certains succès techniques. Par contre la gestion financière a fait tomber Elan Musk  rétrogradé au rang de directeur mais toujours aussi contesté. Mais le mythe a été repris par nombre de constructeurs en mal d’images après les tricheries constatées concernant les émissions polluantes. Chacun promet la voiture autonome pour demain alors que vraisemblablement il ne faudra pas compter sur sa généralisation avant 30 ou 40 ans : c’est-à-dire le temps aussi équipé l’infrastructure afin que l’automobile circule dans les meilleurs conditions de sécurité, c’est-à-dire en quasi site propre. Pourtant pas de quoi refroidir les ardeurs des autres constructeurs en mal d’innovations réelles comme la voiture électrique à prix abordable. Cette prédiction de la voiture autonome pour demain ressemble un peu à celle du règne de l’intelligence artificielle qui va supprimer toute intervention humaine dans les processus de production et de distribution. Bien sûr on ne saurait refuser les progrès que permet la technologie mais il faut mesurer leurs conséquences une fois insérée dans des systèmes complexes. Il y a longtemps que des transports fonctionnent de manière presque autonome comme les métros, les tramways ou encore les trains entre parenthèses pour le TGV par exemple le conducteur n’a pas été supprimé pour des raisons techniques mais pour des questions psychologiques vis-à-vis des voyageurs.

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Intelligence artificielle : grosses offres d’emplois

Intelligence artificielle : grosses offres d’emplois

La demande a plus que doublé en 2017 par rapport à l’année précédente, a annoncé l’APEC jeudi.

Au total, l’APEC a diffusé 2.398 offres de postes de cadres en intelligence artificielle l’an dernier, contre 1.127 offres en 2016, précises l’association dans une étude sur la « tendance des métiers dans l’industrie ».

« Les opportunités d’emploi sont réelles auprès des entreprises de services du numérique (ESN), des cabinets de conseil et gestion des entreprises ou d’ingénierie-recherche et développement », selon les résultats de cette étude. Au cours des années 2016 et 2017, quatre offres d’emploi de cadres en intelligence artificielle sur dix (42%) provenaient de « sociétés d’activités informatiques (ESN notamment) », principale source de ces offres, « loin devant les activités de conseil et gestion des entreprises (19%) et les sociétés d’ingénierie-recherche et développement (11%) », souligne l’APEC. Au cours des années 2016 et 2017, « près des deux tiers » (63%) des offres ont été émises par des entreprises installées en Île-de-France, loin devant les autres régions, selon l’étude. Viennent ensuite Auvergne-Rhône-Alpes et Occitanie, qui rassemblent à elles deux « 16% des offres ».

12345...8



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol