Archive pour le Tag 'numérique'

Un fonds de 100 milliards d’euros pour le numérique

Un fonds de 100 milliards d’euros pour le numérique

 

l’Europe pourrait lancer un fonds de 100 milliards d’euros pour soutenir les nouvelles technologies de communication. On sait que l’union européenne est complètement absente du club des géants du numérique et que ces géants du numérique risquent  de mettre sous tutelle les économies sans parler de leur influence au plan culturel voire politique. L’objectif : financer les startups européennes « à fort potentiel » destinées à devenir des géants dans leur domaine, et des technologies de rupture qui pourraient potentiellement créer de nouveaux standards mondiaux, dans un certain nombre d’industries identifiées comme prioritaires. Si le détail ce ces secteurs n’a pas été révélé, l’Europe a déjà identifié le stockage de l’énergie, la cybersécurité, le spatial ou encore l’intelligence artificielle comme des enjeux prioritaires.

Le site Politico révèle l’information sur la base d’un rapport fleuve de 173 pages. Le document étale une stratégie agressive, qui vise à la fois à contrer la politique commerciale agressive de Donald Trump, et à répondre aux géants américains de la tech, dont les pratiques fiscales irritent de plus en plus le Vieux continent, à l’image de la France qui y a répondu en lançant une « taxe Gafa » controversée. Pour ne plus être une colonie numérique des géants américains qui se sont imposés dans les usages, ce « fonds européen pour le futur » serait financé par le budget européen alloué au financement de l’innovation et de la recherche.

« L’Europe ne dispose pas de tels groupes. Cela représente un risque pour la croissance, l’emploi et son influence dans des secteurs stratégiques clefs », estime le rapport.

L’idée serait donc à la fois de créer des alternatives européennes aux géants actuels de la tech, mais surtout de permettre à l’Europe d’ouvrir la voie en imposant les standards technologiques de demain, comme Nokia a su le faire en s’appuyant sur la technologie mobile GSM.

Reste à éliminer les résistances de certains ultralibéraux de l’union européenne pour aller dans le sens de ce projet. Si les services de la Commission européenne n’hésitent plus à envisager la création d’un fonds souverain européen – une idée débattue depuis des années mais qui effraie les pays les plus libéraux -, Bruxelles a tenu à refroidir les ardeurs. Des porte-paroles ont affirmé que le rapport  »n’a pas été examiné par la Commission » et encore moins par l’équipe de transition de la nouvelle présidente Ursula von der Leyen.

La révolution numérique favorise un nouveau concept narcissique (Clotilde Leguil)

 La révolution numérique favorise un nouveau  concept narcissique (Clotilde Leguil)

 

Notre époque favorise un nouveau narcissisme numérique pour  la philosophe et psychanalyste Clotilde Leguil dans son dernier livre « “Je”, une traversée des identités » (PUF). Elle en attribue la cause à un internet de l’intime qui provoque souffrance et enfermement. Car si le narcissisme est nécessaire à la constitution de l’individu, il devient mortifère quand il n’est pas dépassé. Indiscutablement les technologies numériques ont permis des progrès qui rendent possible de s’affranchir d’une certaine manière de l’espace. Elle constitue un moyen d’ouverture sur le monde en favorisant l’accélération des échanges d’informations, de bien et de culture. C’est un changement fondamental aussi dans les conditions de production et de consommation. Des outils qui peuvent permettre un accès sans limite à la formation, à la culture et à l’échange. Mais des outils qui peuvent aussi aliéner quand en fait le sujet utilisateur de ces technologies devient l’unique objet de l’utilisation de ces outils. Le monde virtuel qui l’accompagne constituant une sorte de miroir sujet lui-même. Avec en plus une addiction quasi permanente à ce miroir. (Interview de lobs) extraites : 

Vous expliquez que nous vivons dans une période particulièrement propice au narcissisme, quels en sont les symptômes ?

Tout part d’une formule que j’ai découverte par hasard à Venise. Alors que je me surprenais à regarder des touristes se filmant avec leur iPhone plutôt que de contempler la beauté de la ville, j’ai lu un graffiti : « Le narcissisme de masse est le goulag des temps modernes. » Aphorisme que j’ai trouvé poétique et rassemblant quelque chose d’un diagnostic de notre époque. Il ne s’agit pas pour moi de dénoncer le narcissisme en tant que tel. Ce que j’interroge, c’est une nouvelle version du narcissisme au XXIe siècle, liée à la révolution numérique, un narcissisme à la fois globalisé et enfermant.

Aujourd’hui, l’univers d’internet – les réseaux sociaux, les sites de rencontre etc. – capte quasiment l’entièreté de la libido : les foules sont comme hypnotisées par le regard de l’autre qui les contemple derrière son écran. »

Le « numérique », quelles définitions et quelles conséquences ?

Le « numérique », quelles définitions et quelles conséquences ?

 

Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal  s’interroge dans la tribune sur la définition générale du numérique et surtout sur ses usages. Une analyse intéressante mais qui est loin d’être exhaustive. «

 

« Nous  parlons de plus en plus de « numérique » en substantivant un adjectif qui – initialement – comporte une signification technique précise et qui devient désormais davantage un phénomène culturel qu’une notion liée à des outils technologiques particuliers. Cette universalisation du numérique nous permet de comprendre des changements qui affectent l’ensemble de notre société et notre façon de penser, comme l’a bien expliqué notamment Milad Doueihi par son concept de « culture numérique ».

Cet usage pose pourtant un problème majeur : nous avons de plus en plus tendance à penser « le numérique » comme un phénomène uniforme et homogène (sur ce sujet, il est intéressant de lire le débat entre Morozov et Johnson) alors que, de toute évidence, il ne l’est pas. « Le » numérique n’existe pas en tant que tel. Il existe de nombreuses pratiques, usages, outils et environnements différents, chacun fondé sur des principes particuliers, chacun promouvant des valeurs spécifiques et entraînant des conséquences caractéristiques.

Le fait de penser « le numérique » comme un tout nous amène souvent à exprimer des jugements de valeur qui font abstraction des caractéristiques propres à des outils ou pratiques distincts : inévitablement donc, le jugement se radicalise, s’uniformise, se généralise en perdant tout son sens et sa cohérence vis-à-vis du particulier. « Le numérique » devient ainsi tantôt synonyme d’émancipation et de liberté, tantôt synonyme de contrôle et d’assujettissement : en somme, le numérique est bien ou le numérique est mal. D’un côté les technoptimistes, de l’autre les technophobes.

Les modes changent : nous sommes passés d’un technoptimisme généralisé à une technophobie universelle. Dans les années 1990, le discours des optimistes semblait prévaloir : de la déclaration de l’indépendance du cyberespace de John Perry Barlow aux discours d’émancipation transhumanistes, en passant pas les merveilles de la virtualisation.

Depuis quelques années, il semblerait que la mode ait changé : il faut être critique vis-à-vis du numérique. Les grands gourous du numérique sont les premiers à le blâmer : de Bill Gates à Tim Berners-Lee, en passant par Jimmy Wales… Le discours critique est aussi porté par les intellectuels - Morozov est devenu le porte-drapeau de ce mouvement, avec des arguments que je partage dans l’ensemble – ou des universitaires. Des critiques philosophiques approfondies ont été développées, consacrées à des phénomènes particuliers – je pense en premier lieu à la fine analyse que Gérard Wormser propose de Facebook.

Il me semble cependant nécessaire de différencier – et ainsi d’identifier – les aspects du « fait numérique » qui peuvent et doivent nous faire peur. Bien que j’ai toujours rejeté cette opposition entre optimistes et technophobes, je conserve néanmoins une préférence pour les optimistes – encore aujourd’hui alors que cette posture est passée de mode. J’ai tendance à être en accord avec les analyses de Pierre Lévy qui soulignent le fait toujours d’actualité que plusieurs idéaux utopistes, qui portaient le développement informatique dans les années 1990, sont encore présents et en vigueur. Cependant, dans les dernières années – probablement aussi du fait que je suis devenu le père de deux enfants -, je suis de plus en plus angoissé, non pas par « le numérique » en général, mais par la place dans nos vies à laquelle accède – notamment via certaines technologies numériques – un nombre très restreint de sociétés privées : celles qu’on a commencé à appeler les GAFAM pour se référer à Google, Apple, Facebook, Amazon et Microsoft, sachant que cet acronyme est devenu une métonymie pour inclure également les nouveaux acteurs comme Netflix, Airbnb, Uber, etc.

Cette influence ne dépend pas « du numérique », mais de certains usages spécifiques : plus précisément des usages de logiciels et de matériels propriétaires. Et, plus important, ces usages ne sont pas inévitables, mais on fait, hélas, trop peu – ou presque rien – pour les contrer, alors qu’il serait facile de mettre en place des mécanismes et dispositifs de protection de l’espace public.

Concrètement, le fléau dont nous sommes victimes est représenté par le fait que dans tous les domaines, de la vie privée à la vie publique en passant par l’activité professionnelle, nous sommes encouragés à utiliser des solutions propriétaires : MacOs, iOS, Windows, Word, Adobe, Facebook, WhatsApp, Skype, Gmail, Outlook… Ce problème n’émane pas, à mon sens, des entreprises – dont l’objectif principal est, évidemment, de vendre leurs produits -, mais du manque quasi total de sensibilité des institutions publiques et privées et de l’absence de littéracie numérique pour les usagers.

Quelques exemples :

  • nous utilisons des systèmes d’exploitation propriétaires – MacOS et Windows – alors que nous pourrions utiliser des systèmes d’exploitation libres ;
  • nous utilisons des dispositifs portables propriétaires sans nous soucier des conséquences ;
  • nous utilisons des applications mobiles alors que nous pourrions utiliser des services web ;
  • nous utilisons des logiciels propriétaires alors que nous pourrions utiliser des solutions libres ;
  • nous ne nous posons pas de questions sur les pilotes qui font fonctionner les dispositifs de nos ordinateurs alors que nous pourrions choisir les dispositifs en fonction de la transparence de leur conception.

Ce sont fondamentalement les revendications de la Free Software Foundation qui n’ont malheureusement que trop peu d’impact sur les pratiques.

Or deux considérations :

  • ces pratiques sont très dangereuses ;
  • il serait très facile de les changer.

Il me semble, en d’autres termes, que, le fait de penser « le numérique » comme quelque chose d’uniforme nous empêche de cerner le véritable problème et de chercher des solutions. Être génériquement technophobes est une posture qui n’amène à rien : cela revient à un nostalgique « o tempora o mores » qui plonge dans une inactivité abrupte. Des positions du type : « le numérique doit/ne doit pas être utilisé par les enfants » me semblent juste stupides. Elles réunissent des réalités hétérogènes qui n’ont aucun rapport entre elles : « le numérique » ? Quels outils ? Quelles plates-formes ? Quels environnements ? Quels dispositifs ? Identifier des problèmes spécifiques est sans doute plus complexes : cela demande une étude et une compréhension du fait numérique dans sa diversité, une analyse des enjeux liés à un logiciel, à un format, à un protocole qui demandent du temps et de l’expertise. Mais cela permet de trouver des alternatives et des solutions concrètes.

_________

Par Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal

La version originale de cet article a été publiée sur The Conversation

Taxe sur les géants du numérique votée

Taxe sur les géants du numérique votée

 

 

En attendant que l’OCDE traite cette affaire (l’union européenne a botté en touche !), l’Assemblée nationale a voté lundi soir en première lecture l’instauration d’une taxe sur les géants mondiaux du numérique, qui doit faire de la France un des pays pionniers en la matière. 26 entreprises devront cette année reverser 3% du chiffre d’affaires réalisé en France au fisc, dans le cadre de la taxe Gafa qui doit être appliquée de façon rétrospective au 1er janvier 2019. (Selon une étude du cabinet juridique et fiscal Taj)

La taxe, annoncée en décembre en réponse notamment au mouvement des «gilets jaunes», doit concerner les entreprises qui réalisent un chiffre d’affaires sur leurs activités numériques de 750 millions d’euros dans le monde et de plus de 25 millions d’euros en France. L’étude Taj a mis en évidence les sociétés qui remplissent ces critères.

• Vente de biens: Alibaba, Amazon, Apple, Ebay, Google, Groupon, Rakuten, Schibsted, Wish, Zalando.

• Intermédiaire de services: Amadeus, Axel Springer, Booking, Expedia, Match.com, Randstad, Recruit, Sabre, Travelport Worldwide, Tripadvisor, Uber.

• Publicité en ligne: Amazon, Criteo, Ebay, Facebook, Google, Microsoft, Twitter, Verizon.

Parmi tous ces futurs payeurs, les entreprises françaises sont bien présentes. Criteo est une pépite de la «French Tech»: fondée en 2005 par trois Français, elle est cotée au Nasdaq et emploie 2700 personnes dans le monde pour un chiffre d’affaires de 966 millions de dollars (hors reversements). L’entreprise est spécialisée dans le marketing personnalisé à partir des données des internautes, notamment leur historique de navigation. Un secteur d’activité visé expressément par Bruno Le Maire, qui évoque le ciblage publicitaire et «la revente de données personnelles à des fins publicitaires». «Nous visons en premier lieu les plateformes qui touchent une commission pour mettre en relation des clients et des entreprises», ajoutait le ministre au début du mois.

 

Les députés ont approuvé par 55 voix contre 4 et 5 abstentions l’article du projet de loi porté par le ministre de l’Economie Bruno Le Maire instaurant cette «taxe Gafa» à la française, qui suscite la désapprobation de Washington.

 

Mutation numérique des médias ou disparition

Mutation  numérique des médias ou disparition

La question qui se pose est de savoir si les médias classiques  sont capables de se moderniser grâce au numérique, au net et à l’intelligence artificielle ou  vont disparaître. C’est l’interrogation de la commission européenne qui a rendu public un rapport intitulé « quelle souveraineté médiatique pour l’Europe ». La question comporte des aspects économiques et techniques mais ne traite pas du contenu éditorial. Or l’un des problèmes majeurs des médias classiques provient du fait qu’ils sont désormais dans les mains des financiers. La plupart de ces grands médias se ressemblent  d’ailleurs. Pour l’essentiel ils reprennent les dépêches d’agence, du pouvoir,  des entreprises et autres groupes de pressions. Le travail d’enquête proprement dit et d’analyse est réduit à pas grand-chose. C’est surtout la crédibilité qui est en cause plus encore que le mode de production. Pour s’en persuader,  il suffit de lire la version Web des journaux qui est le plus souvent d’une grande pauvreté. Sans parler de la reprise systématique des orientations du pouvoir en place aussi bien dans  les médias publics que les médias privés. Pour tout dire du fait des pressions financières ou tout simplement par autocensure, la ligne éditoriale s’aligne sur des intérêts dominants. Pas sûr que le rapport européen et le plan de soutien qui propose soit de nature à sortir les médias classiques de la crise. En tout cas le rapport préconise un soutien financier avec la création d’un fonds européen d’un montant d’un milliard d’euros sur cinq ans, renouvelable. Le but est de financer des médias pour la création de projets innovants basés sur l’IA, la Blockchain ou les neurosciences. Le texte incite également à allouer 3% du programme « Horizon Europe » – destiné à la recherche et doté de 100 milliards d’euros – aux médias et industries créatives. L’objectif est de réduire la dépendance aux Gafa (Google, Apple, Facebook, Amazon), qui proposent déjà des fonds dans le domaine. Par exemple, Google a lancé en 2015 un appel à projet baptisé « Google News initiative » (anciennement Digital News Initiative). En 2018, le géant américain a sélectionné 98 projets dans 28 pays européens, distribuant 21,2 millions d’euros – ce qui porte à 115,2 millions d’euros le montant total de son financement. Il faut ajouter à cela que les GAFA à sont assez mécontents du concept de droit voisin qui va les contraindre à rétribuer les auteurs d’images et d’articles et en plus d’être responsable de la vérification des droits d’auteur. Du coup chez les géants de l’informatique envisage de créer leurs propres informations en ayant notamment recours à l’intelligence artificielle. La bataille du secteur de l’information européenne est donc loin d’être gagnée surtout contre la médiocre qualité de la production actuelle.

Transformation numérique des médias ou disparition

Transformation numérique des médias ou disparition

La question qui se pose est de savoir si les médias classiques  sont capables de se moderniser grâce au numérique, au net  et à l’intelligence artificielle ou  vont disparaître. C’est l’interrogation de la commission européenne qui a rendu public un rapport intitulé « quelle souveraineté médiatique pour l’Europe ». La question comporte des aspects économiques et techniques mais ne traite pas du contenu éditorial. Or l’un des problèmes majeurs des médias classiques provient du fait qu’ils sont désormais dans les mains des financiers. La plupart de ces grands médias se ressemblent  d’ailleurs. Pour l’essentiel ils reprennent les dépêches d’agence, du pouvoir,  des entreprises et autres groupes de pressions. Le travail d’enquête proprement dit et d’analyse est réduit à pas grand-chose. C’est surtout la crédibilité qui est en cause plus encore que le mode de production. Pour s’en persuader il suffit de lire la version Web des journaux qui est le plus souvent d’une grande pauvreté. Sans parler de la reprise systématique des orientations du pouvoir en place aussi bien dans  les médias publics que les médias privés. Pour tout dire du fait des pressions financières ou tout simplement par autocensure, la ligne éditoriale s’aligne sur des intérêts dominants. Pas sûr que le rapport européen et le plan de soutien qui propose soit de nature à sortir les médias classiques de la crise. En tout cas le rapport préconise un soutien financier avec la création d’un fonds européen d’un montant d’un milliard d’euros sur cinq ans, renouvelable. Le but est de financer des médias pour la création de projets innovants basés sur l’IA, la Blockchain ou les neuro-sciences. Le texte incite également à allouer 3% du programme « Horizon Europe » – destiné à la recherche et doté de 100 milliards d’euros – aux médias et industries créatives. L’objectif est de réduire la dépendance aux Gafa (Google, Apple, Facebook, Amazon), qui proposent déjà des fonds dans le domaine. Par exemple, Google a lancé en 2015 un appel à projet baptisé « Google News initiative » (anciennement Digital News Initiative). En 2018, le géant américain a sélectionné 98 projets dans 28 pays européens, distribuant 21,2 millions d’euros – ce qui porte à 115,2 millions d’euros le montant total de son financement. Il faut ajouter à cela que les GAFA à sont assez mécontents du concept de droits voisins qui va les contraindre à rétribuer les auteurs d’images et d’articles et en plus d’être responsable de la vérification des droits d’auteur. Du coup chez géant de l’informatique envisage de créer leurs propres informations en ayant notamment recours à l’intelligence artificielle. La bataille du secteur de l’information européenne est donc loin d’être gagnée surtout contre la médiocre qualité de la production actuelle.

Démocratie numérique: la grande trouille des élites

Démocratie numérique: la grande trouille des élites

 

 

 

 

De manière plus ou moins larvée  est en train de monter une contestation par les élites de la démocratie numérique. Une attitude à la fois réactionnaire et corporatiste un peu de même nature que la critique qui portait sur l’intérêt du chemin de fer par exemple au début du XXe siècle ou plus loin sur l’imprimerie. D’un certain point de vue,  la plupart du temps les technologies sont neutres, tout dépend de leur usage. La critique s’appuie surtout sur le manque de transparence de l’information et le développement de fake news et de la haine sur certains réseaux sociaux. . Certes on ne peut contester que le net constitue une sorte d’auberge espagnole où se côtoient le pire et le meilleur, l’intelligence et la nullité parfois même l’insulte et la haine (comme sur certains réseaux sociaux). Mais la mise en cause répond aussi à une sorte de réflexe corporatiste de la part des élites qui n’apprécient pas sans doute que la connaissance puisse être accessible à tous et que chacun puisse devenir aussi un citoyen réellement actif et conscient. Ainsi on entend souvent des phrases du type : « chaque internaute se prend pour un journaliste ou pour un expert » ! La remarque est particulièrement excessive car il n’y a pas de la part des internautes une volonté générale d’être plus pertinents que ne  le seraient les médias classiques ou les spécialistes d’un sujet. La réaction des internautes correspond d’abord à un phénomène d’appropriation des problématiques posées par les principaux enjeux de société ensuite sur la volonté d’apporter une contribution sans doute parfois et même assez souvent insuffisamment pertinente. Ceci étant même si 80 % de ses contributions présentent  un intérêt très secondaire voir aucun intérêt du tout, reste 10 ou 20 % qui ont ainsi multiplié par 100, par 1000 ou  par 10 000 les sources classiques d’informations et de connaissances. D’abord un extraordinaire progrès pour l’accès à cette connaissance. Ensuite un outil de communication et de vie démocratique. Bref un phénomène qui remet en cause les espaces protégés des journalistes, des experts, aussi des politiques. Justement parce que précisément des internautes possèdent un savoir-faire journalistique certain, voir la multitude de sites d’information par exemple aussi la possibilité pour des experts non labellisés d’apporter un éclairage qui ne s’inscrit pas forcément dans la mode du moment. Il est clair que les journalistes classiques et les experts patentés sont bousculés dans leur zone de confort et de certitude. Si leurs remarques vis-à-vis de nombreuses déviances  d’Internet sont   justifiées, pour autant la technologie ne doit pas être condamnée de manière aussi simpliste. On peut notamment imaginer que des progrès seront réalisés en matière de déontologie pour éviter le développement d’excès comme la haine ou l’intox.  La vraie démocratie passe d’abord par un développement de la connaissance et l’outil numérique y contribue.

Démocratie numérique : la grande trouille des élites

Démocratie numérique : la grande trouille des élites

 

 

 

 

De manière plus ou moins larvée,  est en train de monter une contestation par les élites de la démocratie numérique. Une attitude à la fois réactionnaire et corporatiste un peu de même nature que la critique qui portait sur l’intérêt du chemin de fer par exemple au début du XXe siècle. La critique s’appuie surtout sur le manque de transparence de l’information et le développement de fake news. Certes on ne peut contester que le net constitue une sorte d’auberge espagnole où se côtoient le pire et le meilleur, l’intelligence et la nullité parfois même l’insulte et la haine. Mais la mise en cause répond aussi à une sorte de réflexe corporatiste de la part des élites qui n’apprécient pas sans doute que la connaissance puisse être accessible à tous et que chacun puisse devenir aussi un citoyen réellement actif et conscient. Ainsi on entend souvent des phrases du type : « chaque internaute se prend pour un journaliste ou pour un expert » ! La remarque est particulièrement excessive car il n’y a pas de la part des internautes une volonté générale d’être plus pertinent que ne  le seraient les médias classiques ou les spécialistes d’un sujet. La réaction des internautes correspond d’abord à un phénomène d’appropriation des problématiques posées par les principaux enjeux de société ensuite sur la volonté d’apporter une contribution sans doute parfois et même assez souvent insuffisamment pertinente. Ceci étant même si 80 % de ses contributions présentent  un intérêt très secondaire voir aucun intérêt du tout, reste 20 % qui ont ainsi multiplié par 100, par 1000 ou  par 10 000 les sources classiques d’informations et de connaissances. D’abord un extraordinaire progrès pour l’accès à cette connaissance. Ensuite un outil de communication et de vie démocratique. Bref un phénomène qui remet en cause les espaces protégés des journalistes aussi des experts, aussi des politiques. Justement parce que précisément des internautes possèdent un savoir-faire journalistique certain .voir la multitude de sites d’information par exemple aussi la possibilité pour des experts non labellisés d’apporter un éclairage qui ne s’inscrit pas forcément dans la mode du moment. Il est clair que les journalistes classiques et les experts patentés sont bousculés dans leur zone de confort et de certitude. Si leurs remarques vis-à-vis de nombreuses déviances  d’Internet sont   justifiées, pour autant la technologie ne doit pas être condamné de manière aussi simpliste. On peut notamment imaginer que des progrès seront réalisés en matière de déontologie pour éviter le développement d’excès comme la haine ou l’intox.la vraie démocratie passe d’abord par un développement de la connaissance et l’outil numérique y contribue.

Taxe numérique: renvoyée aux calandes grecques par Lemaire

Taxe numérique: renvoyée aux calandes grecques par Lemaire

La France avait été le premier pays à agiter la menace d’une fiscalité sur les géants du numérique, les fameux “Gafam” (Google – groupe Alphabet – Apple, Facebook, Amazon ou encore Microsoft). Des entreprises expertes  pour éviter l’impôt ou en payer le moins possible dans des paradis fiscaux européens type Irlande. La France avait même envisagé de taxer de manière unilatérale ces grandes sociétés fautent d’accord sur le sujet dans l’union européenne. La réalité c’est que le ministre de l’économie s’est couché devant les oppositions de l’Allemagne notamment. L’Allemagne craint en effet des mesures de représailles sur ses exportations automobiles aux États-Unis. Du coup non seulement Bruno Lemaire renonce à la taxe française (on prévoit quand même une mini taxe)  et à la taxe européenne mais il expédie le bébé à l’OCDE où  on sait qu’il sera encore plus difficile de trouver un accord. Sur le plan européen “Il n’y aura pas d’accord le 12 mars (…) sur le projet de directive”, a dit le ministre français de l’Economie et des Finances sur Public Sénat. C’est le 12 mars qu’aura lieu le prochain conseil des ministres des Finances des Vingt-Sept. Sur la défensive, Bruno Le Maire s’est dit “persuadé que d’ici la fin de l’année 2019, il peut y avoir un accord international sur la taxation des géants du numérique au niveau de l’OCDE”, l’Organisation de coopération et de développement économiques. Bruno Le Maire a donc affiché sa confiance sur la perspective d’une “position commune européenne à l’OCDE”, qui, combinée au soutien des Etats-Unis, permettrait selon lui d’”avoir une taxation du digital proposée au niveau international, à l’OCDE, d’ici la fin de l’année 2019”. L’OCDE, qui chapeaute ces travaux en collaboration avec le G20, projette de parvenir à “une solution de consensus” d’ici à la fin 2020. La France pour se donner bonne va sans doute appliquer une mini taxe des années prochaines.

« La révolution numérique a terrassé l’ancien monde (Daniel Cohen)

« La révolution numérique a terrassé l’ancien monde (Daniel Cohen)

Dans un entretien accordé à La Tribune, le directeur du département d’économie de l’ENS explique que « la révolution numérique a terrassé l’ancien monde » et appelle à « réinventer une nouvelle critique sociale qui ouvre une brèche dont le nouvel impératif de croissance est en train de reconfigurer nos vies. »Une interview intéressante, riche mais un peu confuse quand même quant aux scénarios économiques et sociaux. La preuve que la science économique n’est pas vraiment une science exacte mais une  tentative d’éclairage du passé (comme de l’avenir quant il s’agit de prospective).

 

Pourquoi avez-vous choisi de traiter des mutations économiques et sociales sur les 50 dernières années ?

DANIEL COHEN - Je voyais venir les 50 ans de mai 68. C’est toute ma vie qui est passée au cours de ces 50 dernières années. J’avais envie de me replonger dans toutes ces lectures qui avaient égrené ma jeunesse surtout dans les années 70. J’avais lu beaucoup de livres et je n’étais pas sûr de les avoir tous compris. Les grands auteurs de l’époque Lévi-Srauss, Lacan, Deleuze m’ont particulièrement marqué.

J’ai eu envie de comprendre comment une génération comme la mienne, qui a assisté à la  montée des protestations et du féminisme, de discours d’autonomie, d’émancipation, pouvait être le témoin de cette montée du populisme. Je voulais revenir sur les ouvrages écrits au fil de ma carrière, un ouvrage sur la société postindustrielle, un autre intitulé « Nos temps modernes ».

La dernière raison est que l’on est en train de finir un cycle lié à l’émergence d’Internet et des nouvelles technologies qui ont contribué à détruire l’ancien monde industriel sans vraiment en proposer un nouveau. Avec les progrès de l’intelligence artificielle, il est possible que quelque chose de nouveau soit en train de commencer. Je voulais en saisir la portée.

Vous revenez dans votre ouvrage sur l’effondrement de la société industrielle. Quelles sont les principales conséquences que vous en tirez sur le plan économique et social ?

Nous avons vécu lors de ces 50 dernières années l’effondrement de cette société industrielle. C’est un effondrement d’ordre civilisationnel. La société industrielle plonge ses racines dans des périodes qui sont bien antérieures au monde industriel. La chaîne de commandement constituée d’ingénieurs, de contremaîtres a été critiquée par mai 68. Cette chaîne avait néanmoins une vertu. Elle donnait à chacun une place et un sentiment d’inclusion. Cette société industrielle s’est délitée sous l’effet d’une poursuite consciente des marchés financiers, et ensuite des nouvelles technologies qui ont permis d’éclater ce monde en créant une société plus compétitive et beaucoup plus concurrentielle que l’ancienne période. Il y avait une grille de salaires très rigide, c’est pour cette raison que les inégalités n’augmentent quasiment pas au cours de cette période.

Ce monde post industriel a contribué au développement du statut de free-lance. Les ouvriers travaillent chez les équipementiers qui ne sont plus intégrés aux donneurs d’ordre. Quand la productivité des ingénieurs augmente, cela ne profite plus aux en gens situés en bas de l’échelle. On a une explication des raisons pour lesquelles ces sociétés sont devenues inégalitaires et en même temps, la croissance est plus faible. Les statistiques aux Etats-Unis sont très frappantes à cet égard. Les inégalités se font peu au sein des firmes. C’est surtout entre les firmes que se creusent les inégalités. On assiste à une ségrégation de plus en plus forte. La désolation sociale que l’on connaît depuis les années 80 dépend beaucoup de cette dissociation des classes sociales entre elles.

En 50 ans le système capitaliste a beaucoup changé. Quelles sont les principales mutations que l’on peut noter ?

Les mutations sont surtout d’ordre organisationnel. L’économiste Robert Gordon avait expliqué dans son ouvrage The rise and fall of american growth  que dans la société moderne, les voitures sont plus sophistiquées, les avions font moins de bruit, les équipements sont de meilleure qualité mais ce n’est plus très différent que la société qui s’est installée au cours du XXème siècle. Il n’y a pas de changement majeur au cours des 70 dernières années contrairement à la période 1880-1950. Le capitalisme s’est surtout réinventé dans la manière d’organiser la production des biens. Il n’a pas réinventé une nouvelle société de consommation.

Gordon a raison en partie. Le système Uber repose toujours sur un chauffeur qui vous emmène d’un endroit A à un endroit B au milieu des embouteillages. Aucun des rêves annoncés dans les années 50 ne s’est véritablement réalisé. Airbnb, Booking renvoient toujours vers des hôtels ou des appartements. On est plutôt dans une philosophie de réduction des coûts. On gagne de la productivité ou du pouvoir d’achat mais ce n’est pas un système durable. Ce ne sont pas des technologies qui sont au service d’une réorganisation de la société.

La nature de la société a tout de même profondément changé ?

Il faut prendre un peu de recul. Les théories de Jean Fourastié sont éclairantes quand il rappelle que l’on est passé d’une société industrielle à une société de services. C’est la grande mutation qui en train de se faire même s’il faut encore attendre peut être 50 ans avant d’en voir tous les effets. Fourastié expliquait que les hommes ont travaillé la terre pendant des millénaires puis la matière depuis 200 ans et on va travailler l’homme lui même. La société de services est centrée sur les services à la personne (coiffeur, médecins, psychanalyste).

Pour Fourastié, le potentiel de croissance n’est pas très élevé dans ce type de société. Si la valeur du bien que je produis est le temps que je passe avec les autres, le temps n’est pas extensible. Il n’y pas de croissance possible. Depuis une dizaine d’années, avec la montée des Big data, l’enjeu est de changer la nature de l’homme pour le transformer en un système d’information. Une fois que l’homme sera numérisé, il pourra être soigné et éduqué à distance.

L’enjeu est de faire rentrer l’homme dans une matrice pour que l’on retrouve de la croissance et du rendement. On en train de numériser l’homme pour lui faire accéder à une meilleure productivité. Il y a les fantasmes de l’homme augmenté mais je n’y crois pas beaucoup. L’homme sera augmenté par le fait que les technologies permettront à d’autres de s’occuper de lui à distance. C’est une promesse du retour de la croissance car si on redevient très efficace dans tous les secteurs où on bute alors on retrouvera de la croissance mais à un prix très cher payé. On pourrait renoncer à cet idéal d’humanisation qui était promis par cette société de services où on s’occupe enfin des autres. C’est la principale menace que je vois.

La société de services a-t-elle contribué au ralentissement de la croissance ?

Les sociétés de services ont moins de croissance que l’industrie parce que tous ces services sont plus difficiles à industrialiser. Le monde dans lequel on vit, c’est industrialiser la société de services.

La financiarisation à outrance de l’économie a-t-elle contribué à la perte de repères dans nos sociétés contemporaines ?

Dès les années 80, Wall-Street, avant même que toutes les technologies apparaissent, a commandé le démantèlement de l’ancien monde industriel. Avant, il y avait des grands conglomérats dans lesquels on fabriquait des parapluies ou des maillots de bain en fonction des saisons. Mais la logique de Wall-Street n’est pas la même face aux risques. Le re-engineering qui se fait dans les années 80 vise à désocialiser et désarticuler les collectifs. La finance est également responsable de la grande crise de 2008. Elle a voulu s’appliquer à  elle même ce principe de dématérialisation totale.

La crise des subprimes s’explique en partie par le fait que les entreprises qui ont vendu des crédits ne sont pas celles qui les ont collectés. Wall-Street a créé dans les années 2000 des structures ad-hoc dans lesquelles on mettait des paquets de crédits ensemble pour diversifier les risques avec un grand problème. La qualité des crédits n’était plus vraiment surveillée. Les gens qui les commercialisaient n’étaient pas les mêmes que ceux qui les avaient accordé. Wall-Street a payé ce rêve d’une société totalement dématérialisée.

La lecture de l’ouvrage donne l’impression que nous avons assisté à une suite de déceptions depuis 50 ans. Comment expliquez-vous cela ?

La marche vers le populisme est constituée par une série d’étapes où un grand nombre d’illusions ont été piétinées. La première illusion perdue a été celle de mai 68, de la contre-culture des années 60. La crise des années 70 a anéanti tout ça. La révolution conservatrice des années Reagan a voulu réenchanter le monde avec l’idée que le travail est central. Une idée que l’on retrouve dans le slogan « Travailler plus pour gagner plus » lancé par Nicolas Sarkozy.

Cette vague conservatrice a contribué à l’explosion des inégalités. La troisième désillusion réside peut être dans la société de services qui promettait une humanisation. Aujourd’hui, on a renoncé à cet idéal. Tous ces espoirs sont tombés les uns après les autres. La question est de savoir si on se dirige vers le chaos.

Pourquoi dites-vous que la critique à l’égard de la génération de mai 68 qui aurait favorisé l’ultralibéralisme n’est pas fondée ?

Je n’y crois pas absolument pas. La révolution culturelle de mai 68 et la révolution conservatrice n’ont aucun point commun. Ce sont deux camps qui se sont toujours affrontés et chacun a pris le pouvoir à tour de rôle. La révolution conservatrice a enfanté l’ultralibéralisme en réponse à mai 68 en expliquant qu’il fallait que les gens travaillent, que l’Etat Providence soit démantelé et que les protections sociales devaient être supprimées. Je crois qu’il y a une illusion partagée en réalité.

Les deux camps ont vu que la société industrielle s’effondrait mais la génération 68 s’est opposée à la société industrielle mais ce n’est pas eux qui l’ont faite tomber. La crise pétrolière des années 70 et la fin du cycle de croissance ont contribué à faire dérailler ce modèle. C’est sur les décombres de cette société industrielle que le libéralisme propose un nouveau modèle sans les syndicats. Il y a eu un effet de générations mais je ne pense pas que mai 68 a trahi ses idéaux.  Le mouvement de mai 68 n’est pas devenu ultralibéral, il est devenu pro européen. Il est passé du gauchisme à l’écologie. Ce n’est pas le signe d’un changement radical. Beaucoup de gauchistes se sont retrouvés cadres au Parti socialiste parce que François Mitterrand les a embarqué dans l’aventure. Il prend le pouvoir en 1981 sur un programme commun de nationalisations. Il y a eu tout de même un dur rappel à la réalité par la suite.

Aux Etats-Unis des personnes comme Mark Zuckerberg se réclament de cette contre-culture des années 60 mais c’est une mythologie qu’ils se sont fabriquée eux mêmes. Ils ont inventé le nouveau monde des réseaux sociaux qui reprend un certain nombre de mythes mais ce n’est pas la même chose. L’histoire de Facebook porte autre chose de très inquiétant. C’est la promesse d’une déshumanisation. D’ailleurs Cornelius Castoriadis parle  »d’une réécriture de l’histoire. » En revanche, il y a un parallèle à faire entre la révolution des Lumières et la révolution industrielle. Toutes les deux naissent du constat que le monde d’hier s’effondre mais la révolution industrielle trahit les idéaux des Lumières.

Vous abordez le thème de la vie algorithmique dans un chapitre. Comment envisagez-vous la place des algorithmes et des robots dans l’économie numérique dans les prochaines années ?

Je pense qu’il y a deux voies possibles. Dans une première voie, les robots font tout. Dans cette société les concepteurs de robots s’enrichissent puisque ce sont eux qui alimentent la planète en technologies. Eux mêmes auront des coiffeurs, des médecins. Il n’y a aucune raison pour qu’ils tombent dans le piège de la numérisation. On devrait avoir un cercle de travailleurs autour de ces gens très riches. Plus on s’éloignera du centre et moins il y aura de travail ou il sera moins rémunéré et plus il y aura des algorithmes. Les producteurs d’algorithme vont s’entourer d’humains et les consommateurs d’algorithmes, eux n’auront pas d’humains autour d’eux. Ils n’auront pas les moyens de recruter les personnes qui travaillent pour eux. C’est la société inégalitaire par excellence.

Il y a une autre voie dans laquelle une classe moyenne peut surgir. Elle pourrait se saisir de ces technologies. Les gens auront envie d’être entourés d’être humains. Ce qui coûte cher, c’est la rente foncière. C’est le fait que les gens veulent vivre en centre-ville au même endroit mais peut être que l’on peut réinventer des villes plus inclusives. C’est le grand défi écologique aussi. Le poids de la rente foncière pourrait se réduire grâce aux technologies. Il y a une demande sociale. Les gens ne veulent pas rester seuls devant leurs ordinateurs.

Quel peut être le rôle de l’intelligence artificielle dans le monde du travail ?

Je pense que l’intelligence artificielle peut aider le personnel soignant par exemple en remplissant des comptes rendus d’opération mais cela ne veut pas dire que l’on doit renoncer aux humains. Ces nouvelles technologies pourraient permettre aux humains de consacrer moins de temps aux tâches qui nous empoisonnent tous pour pouvoir passer plus de temps à s’occuper des gens. Je ne crois pas que les enseignants vont être remplacés par des machines. Les machines peuvent aider à mieux enseigner.

Comment faire pour limiter les dérives de l’ubérisation de l’économie ?

Les technologies liées à l’ubérisation sont utiles malgré tout car elles créent un logiciel qui permet de mettre en relation l’offre et la demande. Ce sont des modèles biphase comme disent les économistes. Il y a un progrès technique mais il est de second ordre. L’essentiel est le nouveau modèle proposé. Pour en limiter les dérives, il faut d’abord que la régulation se produise. Le débat central est de déterminer si les chauffeurs d’Uber sont autoentrepreneurs ou s’ils sont salariés. Je n’ai pas l’impression qu’ils sont entrepreneurs. Leurs conditions sont déterminées par Uber qui fixe les prix et crée un système d’astreinte. Soit Uber resalarie des gens, soit il faut que les règles du jeu évoluent.

Les jeunes qui travaillent avec la franchise Uber doivent être maîtres de leurs tarifs. Il faut un autre équilibre. Deliveroo devrait donner la possibilité à Deliveroo France de créer un salariat nouveau. Le rêve des grandes entreprises de la Silicon Valley est de mettre en place des applications tueuses qui proposent des solutions abstraites sans rapport au monde réel. C’est comme cela qu’elles s’enrichissent. Ces applications, au nom d’une technologie qui améliorent le matching, permettent de passer à côté de la régulation sociale que la société industrielle a mis un siècle à établir. Uber ignore le salaire minimum, les temps de pause.

Pourquoi dites-vous que la critique à l’égard de la génération de mai 68 qui aurait favorisé l’ultralibéralisme n’est pas fondée ?

Je n’y crois pas absolument pas. La révolution culturelle de mai 68 et la révolution conservatrice n’ont aucun point commun. Ce sont deux camps qui se sont toujours affrontés et chacun a pris le pouvoir à tour de rôle. La révolution conservatrice a enfanté l’ultralibéralisme en réponse à mai 68 en expliquant qu’il fallait que les gens travaillent, que l’Etat Providence soit démantelé et que les protections sociales devaient être supprimées. Je crois qu’il y a une illusion partagée en réalité.

Les deux camps ont vu que la société industrielle s’effondrait mais la génération 68 s’est opposée à la société industrielle mais ce n’est pas eux qui l’ont faite tomber. La crise pétrolière des années 70 et la fin du cycle de croissance ont contribué à faire dérailler ce modèle. C’est sur les décombres de cette société industrielle que le libéralisme propose un nouveau modèle sans les syndicats. Il y a eu un effet de générations mais je ne pense pas que mai 68 a trahi ses idéaux.  Le mouvement de mai 68 n’est pas devenu ultralibéral, il est devenu pro européen. Il est passé du gauchisme à l’écologie. Ce n’est pas le signe d’un changement radical. Beaucoup de gauchistes se sont retrouvés cadres au Parti socialiste parce que François Mitterrand les a embarqué dans l’aventure. Il prend le pouvoir en 1981 sur un programme commun de nationalisations. Il y a eu tout de même un dur rappel à la réalité par la suite.

Aux Etats-Unis des personnes comme Mark Zuckerberg se réclament de cette contre-culture des années 60 mais c’est une mythologie qu’ils se sont fabriquée eux mêmes. Ils ont inventé le nouveau monde des réseaux sociaux qui reprend un certain nombre de mythes mais ce n’est pas la même chose. L’histoire de Facebook porte autre chose de très inquiétant. C’est la promesse d’une déshumanisation. D’ailleurs Cornelius Castoriadis parle  »d’une réécriture de l’histoire. » En revanche, il y a un parallèle à faire entre la révolution des Lumières et la révolution industrielle. Toutes les deux naissent du constat que le monde d’hier s’effondre mais la révolution industrielle trahit les idéaux des Lumières.

Que pensez de la politique d’Emmanuel Macron en matière de numérique ?

C’est difficile de se faire une idée très claire. Je trouve qu’il serait intéressant d’avoir une réflexion sur les techniques que l’intelligence artificielle permettraient de mettre à la disposition des enseignants, des médecins dans l’exercice de leurs métiers. Il faut que certaines professions comme les juges puissent avoir recours à ces technologies non pas pour les remplacer, mais au contraire pour les aider.

Tous ces métiers en tensions méritent des investissements. La grande promesse de tout numériser doit s’accompagner d’une aide aux personnes. Il faut prévoir une grande période de transition avec beaucoup de personnes pour accompagner les personnes âgées par exemple. En plus ces technologies permettraient de libérer des ressources dans les hôpitaux, dans les universités.

(*) Daniel Cohen « Il faut dire que les temps ont changé.. » Chronique (fiévreuse) d’une mutation qui inquiète aux Editions Albin Michel.

« Combler l’insuffisance numérique »

« Combler l’insuffisance numérique »

Cofondateur et directeur de la recherche de la Fondation Internet Nouvelle Génération (Fing), Jacques-François Marchandise propose des moyens de combler la faille numérique dans une interview à la Tribune.  

- Selon le gouvernement, il y aurait 13 millions de Français « en grande difficulté » avec le numérique. Que vous inspire ce chiffre ?

Ce n’est pas si simple. Je ne suis pas, personnellement, d’accord avec l’approche qui consiste à séparer d’une traite ceux qui maîtrisent le numérique, pour qui tout va bien, et ceux qui ne le maîtrisent pas, pour qui tout va mal. Cette vision des choses, censée mettre en lumière le retard de certains à se saisir du digital n’a pas lieu d’être, puisque les raisons pour lesquelles ils ne sont pas usagers ou éprouvent des difficultés vis-à-vis du numérique sont extrêmement variées.

Comment définissez-vous, alors, l’exclusion numérique ?

Il y en a de nombreuses sortes. Il y a d’abord les fractures principales de la société, c’est-à-dire les difficultés sociales et économiques des gens. Par exemple, si l’on vit en dehors de tout lien social, du circuit économique, et que l’on n’a pas d’emploi, le numérique peut accroître l’isolement, même si l’on utilise un ordinateur depuis vingt ans. C’est ce que certains appellent la « fracture numérique secondaire ». Mais pour certaines personnes confrontées à la perte d’emploi, au départ à la retraite ou à d’autres événements de la vie, le numérique peut a contrario avoir un effet de rattrapage, d’amortisseur et de reconnexion, permettant de rétablir ou de maintenir des liens. Une autre forme d’exclusion numérique est liée à la connaissance et à la capacité d’apprentissage. Ce n’est pas toujours, comme on pourrait le penser, une question d’études ou diplôme : il y a de nombreux exemples d’autodidaxie, plus rarement chez des personnes isolées ; mais il faut aussi avoir « appris à apprendre », comprendre le fonctionnement des moteurs de recherche et la manière dont l’information circule en ligne. Il arrive que des personnes qui ont des formations classiques, des diplômes, soient incompétentes en environnement numérique, parce qu’elles ne comprennent pas forcément que plus l’on pose de questions à un moteur de recherche, plus celui-ci restreint les réponses. Nos étudiants d’aujourd’hui sont encore loin d’être tous à l’aise avec cela.

Quoi qu’il en soit, vous êtes opposé à la « rhétorique du retard », qui cible depuis longtemps certaines populations qui utilisent peu le numérique…

Effectivement. Parce que certaines personnes utilisent parfois des outils non-digitaux pour arriver à leurs fins. Et elles s’en sortent bien mieux comme ça ! Or ces personnes ne sont pas forcément en difficulté vis-à-vis du numérique, même si elles peuvent être considérées comme en dehors. Dans les années 2000, la rhétorique du retard a été utilisée pour expliquer le fait que les Français étaient réticents à abandonner le Minitel pour passer à Internet. Mais si cette situation a duré aussi longtemps, c’est parce que les services Minitel marchaient très bien. Ils n’étaient certes pas aussi sophistiqués qu’aujourd’hui, mais on y trouvait déjà des services bancaires, de la livraison de courses à domicile, et on pouvait trouver très vite beaucoup d’informations utiles, comme des horaires de trains. C’était un retard pour le développement du marché, pas forcément pour les usagers.

Est-ce la raison pour laquelle déterminer les populations vraiment en difficulté vis-à-vis du numérique s’avère difficile ?

Certaines personnes qui n’utilisent que très peu Internet ne sont pas en difficulté avec cet outil. Si elles ont des proches ou des collègues qui s’en servent et peuvent les aider, leur peu d’appétence pour le numérique ne les empêche pas de remplir leur déclaration d’impôts en ligne sans problème, de faire des recherches sur Google ou d’accéder à Wikipedia.

Dans quels cas de figure Internet est-il véritablement source de problèmes ?

Dans une enquête récente, nous avons posé le problème dans l’autre sens. Nous nous sommes demandé dans quels cas de figure le numérique donnait du pouvoir d’agir, dans la vie quotidienne ou les choix personnels. On s’est aperçu que, de manière un peu paradoxale, plus on a d’usages numériques, plus on a d’ennuis. En clair, lorsque certaines personnes se contentent d’aller sur Google et de transférer des photos à des proches, elles ont peu de soucis avec Internet. C’est lorsque l’on a plusieurs dizaines d’usages différents – ce qui est le cas pour un internaute moyen – que les problèmes apparaissent. On perd des documents, on ne sait pas comment publier et dépublier des messages sur certains sites, on est parfois angoissé par certains actes sur une appli bancaire ou en traitant ses impôts… Ces nouveaux embarras numériques, comme je les appelle, concernent les gens qui sont déjà connectés. Ensuite, on a constaté que plus les Français ont d’usages numériques non choisis, plus ils ont des ennuis.

C’est par exemple le cas lorsque l’État impose la dématérialisation de certains services administratifs ou de l’impôt sur le revenu ?

Les démarches administratives en ligne sont difficiles pour beaucoup, alors qu’elles sont très utiles pour d’autres. Avant le numérique, il y a d’abord une fracture administrative, le non-recours aux droits, la difficulté à s’orienter, que la suppression de nombreux guichets physiques risque de ne pas arranger. Le numérique peut être positif s’il atténue les difficultés des gens qui ont du mal avec l’administration. Mais le numérique n’a pas le pouvoir de corriger les acronymes incompréhensibles ou la multiplicité des exceptions des procédures administratives. Il arrive souvent que le passage au numérique soit pensé pour simplifier les démarches. L’idée est, par exemple, de cesser de questionner quelqu’un sur ses enfants alors qu’il a indiqué, au début d’un formulaire, qu’il n’en avait pas. Mais historiquement, chaque service administratif a fait sa cuisine de son côté. Tous les ministères, les administrations territoriales et sociales ont procédé à une intégration verticale du numérique, avec leurs propres règles du jeu, leurs modes de navigation et leurs logiques de conservation des documents. Lesquels sont, en outre, souvent modifiés d’une année sur l’autre. Ce qui, in fine, met beaucoup d’usagers dans une situation difficile.

Le monde des services Internet apparaît au moins aussi compliqué…

C’est l’autre espace numérique avec lequel les internautes peuvent être en grande difficulté. C’est ce que j’appelle la fracture servicielle. Ici, le jeu s’est énormément ouvert ces dernières années. De nombreuses plateformes interviennent dans beaucoup de domaines, comme les services à domicile pour les seniors, les services bancaires, l’assurance, la vente à distance. Le problème, c’est qu’une partie d’entre nous ne sait plus très bien de qui il est client. Pour certains, habitués à s’adresser à des vendeurs dans des boutiques physiques classiques, c’est très déstabilisant, déboussolant, et débouche parfois sur une profonde perte de confiance vis-à-vis de ces nouveaux usages.

Qui est concerné par ces fractures administrative ou servicielle ? On présente souvent les jeunes défavorisés ou les seniors comme les populations les plus déconnectées, ce qui impliquerait de concentrer sur elles les politiques d’inclusion numérique…

Certains disent en effet que, de manière caricaturale, l’inclusion numérique concerne les personnes âgées et les pauvres. Mais dans les deux cas, ce n’est pas tout à fait vrai. Il y a des préjugés sociaux énormes sur les personnes en difficulté économique. Plusieurs études ont montré que les ménages modestes étaient autant – voire plus – équipés en matériel technologique que les ménages plus aisés. Pour y arriver, beaucoup se sont endettés fortement dès le début des années 2000. Ils se disaient que s’ils ne prenaient pas un crédit sur un ordinateur, ils allaient, en gros, mettre en péril l’avenir de leurs enfants… Enfin, les jeunes seniors, eux, constituent, et de loin, la population qui a connu la plus forte augmentation en matière d’usages numériques lors de la dernière décennie. Pourquoi ? Parce que, selon certaines études, ceux qui partent en retraite et sortent d’un environnement professionnel et socialisé se convertissent à Internet pour ne pas se retrouver isolés. En parallèle, certains jeunes ont de réelles difficultés numériques.

Pourquoi ?

Pour diverses raisons. Par exemple, le fait d’exister en ligne suppose d’oser écrire en ligne, ce qui est parfois un problème. Il existe aussi beaucoup d’espaces sociaux numériques dans lesquels la difficulté principale va être la langue – sachant, en outre, qu’on vit dans un pays impitoyable avec l’orthographe. D’autres jeunes, eux, ont du mal à changer de registre en fonction de l’espace numérique (forums, réseaux sociaux, messageries instantanées, e-mails) dans lequel ils se trouvent.

Qui sont alors ceux pour qui Internet pose problème ?

Il existe plusieurs familles de difficultés. Une partie des gens pour qui Internet pose problème considèrent que ce n’est pas de leur époque, que c’est trop compliqué, qu’ils n’y arriveront jamais, qu’ils sont moins bons que les autres. Il y a, ici, une question d’estime de soi. Un autre important facteur d’exclusion numérique, c’est l’isolement tout court. Lorsque l’on n’a pas beaucoup de liens sociaux, un carnet d’adresses pauvre et peu d’échanges avec les autres, on ne sait pas à qui s’adresser pour résoudre ses difficultés sur Internet. Ce qui est intéressant, c’est que, par des biais détournés, le numérique permet de reconstituer un chemin de mise en relation avec autrui. On a par exemple constaté que sur leboncoin.fr, certaines personnes mettent en vente des objets à des prix très bas. Leur véritable objectif n’est pas de vendre, mais d’avoir une interaction physique et sociale avec l’acheteur… Une situation de grave solitude face au numérique, c’est la famille monoparentale, précaire, avec des ennuis qui saturent le temps et l’attention, et personne pour l’aider dans un environnement proche. Ici, la difficulté numérique découle d’abord et avant tout d’un problème social, que l’on soit jeune ou âgé. L’exclusion et l’adolescent isolé dans la cour de récréation sont des problèmes qui n’ont pas magiquement disparu avec le numérique.

Existe-t-il d’autres facteurs de difficulté numérique ?

Il y a le sujet de l’argent et des difficultés économiques. Pendant des années, certains pensaient que pour réduire la fracture numérique, il fallait donner des ordinateurs aux foyers les plus pauvres. Mais ce qu’on constate, c’est qu’il y a déjà du matériel chez les plus défavorisés. En revanche, le prix des abonnements Internet fixe et mobile pose problème. C’est souvent ce qui met en danger le budget des familles les plus pauvres.

Outre les abonnements, il y a encore, notamment dans certains bourgs et villages, des zones blanches où le mobile ne passe pas, et des endroits où se connecter à Internet relève du chemin de croix…

Oui, et cette situation était prévisible il y a vingt ans lorsque les États ont libéralisé le secteur des télécoms. Nous avons créé une situation où l’État n’a pas assez le bénéfice des réseaux les plus solvables dans les zones les plus densément peuplées. Cela l’empêche de réaliser correctement la péréquation dans les campagnes et banlieues moins peuplées et moins rentables, qui intéressent peu – ou pas – les opérateurs privés. Cet ancien choix politique a favorisé la concurrence et le développement numérique, mais laisse le contribuable payer la note des réseaux moins profitables…

Comment, d’après vous, faut-il s’y prendre pour mener une politique d’inclusion numérique efficace ?

Pour y arriver, il faut d’abord utiliser le numérique en articulation plutôt qu’en substitution. Le numérique constitue souvent une stratégie perdante lorsqu’il remplace purement et simplement des interactions existantes. Certaines personnes ne seront pas plus à l’aise qu’avant avec un service entièrement digitalisé parce qu’elles étaient déjà en difficulté précédemment. D’autres personnes, elles, risquent de se retrouver perdues devant un service 100 % en ligne si elles ne bénéficient pas d’aide extérieure ou de médiation pour comprendre comment il fonctionne. D’où l’importance, par exemple, de repenser les médiations sociales et leurs insuffisances au sens large, avec tous les acteurs existants (et pas seulement ceux qui seraient nativement digitaux), en y incluant les médiations numériques. En outre, étant donné que l’isolement constitue un problème majeur, il est fondamental de repenser nos cadres collectifs dans un monde traversé par le numérique. Cela peut permettre, notamment, de mieux former les aidants, les acteurs sociaux et associatifs, aux difficultés numériques – mais aussi de former les acteurs du numérique aux questions sociales.

MINIBIO

Cofondateur et directeur de la recherche de la Fondation Internet nouvelle génération (Fing), Jacques-François Marchandise travaille depuis des années sur la manière dont la société s’approprie les outils digitaux. Il a également fondé, en 1997, le cabinet de conseil en stratégies numériques Items Proposition. Jacques-François Marchandise a notamment participé à la création de plusieurs services numériques, comme celui de servicepublic.fr

Une Taxe numérique européenne: d’ici fin 2018 ?

Une Taxe numérique européenne: d’ici fin 2018 ?

 

Bruno Lemaire, ministre français des finances, prend sans doute ses désirs pour des réalités en annonçant une véritable taxe européenne concernant les GAFA en  2018. On sait que les divergences sont importantes sur cette question. Il y a les pays véritables paradis fiscaux qui font du low-cost fiscal un argument pour attirer les grandes sociétés notamment américaines et qui évidemment sont contre toute imposition des grandes plates-formes numériques et autres géants informatiques. À telle enseigne que l’Irlande s’est  mêmes alliée à Google dans une procédure judiciaire pour contester le redressement fiscal imposé à Google par l’union économique. Mais il y a aussi d’autres opposants et non des moindres à savoir l’Allemagne qui craint surtout le mesures de rétorsion sur les exportations allemandes aux États-Unis.Le ministre français des Finances, Bruno Le Maire, a cependant déclaré vendredi penser qu’une décision serait prise d’ici la fin de l’année sur la question de l’instauration d’une taxation européenne des géants du numérique. Le commissaire européen Pierre Moscovici avait de son coté appelé  au compromis parce qu’actuellement il y a ceux qui sont opposée aux taxations des GAFA et autres  (et qui en profitent comme l’Irlande) et ceux qui la réclament comme la France. En fait pour l’instant la discussion est bloquée. Moscovici  s’était déclaré « ouvert au compromis » avec les Etats membres de l’UE pour parvenir à un accord sur sa proposition de taxer les géants du numérique sur leur chiffre d’affaires. « Nous sommes ouverts à des compromis, mais il faut rentrer dans la logique du compromis », avait-il en  appelant les Etats membres à ne pas attendre qu’une solution mondiale soit trouvée pour agir en Europe. « Je suis d’accord qu’il faille travailler dans le cadre de l’OCDE et dans celui du G20″, a-t-il expliqué. « Mais si nous attendons encore quelques années, nous allons nous retrouver avec un gruyère européen où un certain nombre d’Etats membres auront mis en place leurs propres taxes, pendant que d’autres continueront à développer des pratiques d’attractivité qui creuseront encore le fossé au sein du marché intérieur », a-t-il prévenu. Finalement, on pourrait se mettre d’accord sur un compromis mais avec uene taxe peu pénalisante pour les GAFA et autres.

 

 

Quelle régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Quelle  régulation face à l’énorme enjeu du numérique (Sébastien Soriano)

Sébastien Soriano,) Président de l’Autorité de régulation des communications électroniques et des postes (Arcep), le régulateur des télécoms, propose de renforcer la régulation face à l’énorme enjeu des télécoms. Dans une interview de la Tribune.

 

Outre les télécoms, vos déclarations concernent très souvent la puissance et l’essor des géants du Net. Est-ce parce que les enjeux du numérique sont devenus beaucoup plus essentiels et posent des questions de souveraineté ?

SÉBASTIEN SORIANO - Effectivement. L’Arcep étant de plus en plus immergée dans le bain du numérique - notamment à travers son nouveau rôle de gardien de la neutralité du Net -, elle voit ce qui se passe. Elle voit intimement l’évolution des marchés et la montée en puissance des géants du Net. Or, cela relativise quelque peu le pouvoir des opérateurs que nous régulons. D’où la nécessité d’avoir une vision beaucoup plus large et moins centrée sur les télécoms. Autrement dit, je me sentirais mal à l’aise d’être le gardien de la neutralité du Net, qui impose aux opérateurs des contraintes et garantit à tous les acteurs du Net un accès à leurs infrastructures, sans évoquer, en parallèle, le problème de la domination des « big tech ». Il y a, à ce sujet, de nouvelles régulations à inventer.

La domination des Gafa en Europe doit-elle vous conduire à vous montrer plus agressif envers eux ? Ou, en d’autres termes, à aider les grands opérateurs à davantage tirer leur épingle du jeu ?

Je n’irai pas jusque-là. D’ailleurs, la neutralité du Net tend à limiter la capacité de négociation des opérateurs vis-à-vis des géants du Net. Elle leur retire un pouvoir de chantage, du type : « Si vous me traitez mal, j’abîme vos services sur le réseau. »Mon rôle n’est pas de donner un coup de main aux opérateurs. En revanche, j’estime que nous devons réfléchir à la manière dont on peut challenger ces acteurs du Net. Aujourd’hui, ils ont un pouvoir immense et sont soumis à un contrôle extrêmement limité. Il manque, à mes yeux, une régulation de type infrastructure, un peu comme dans les télécoms, le rail ou l’énergie, mais en prenant en compte les particularités nouvelles. Voilà pourquoi je me félicite que Mounir Mahjoubi, le secrétaire d’État au Numérique, ait récemment lancé des états généraux pour réfléchir aux nouvelles régulations à l’heure du digital. C’est peut être le signe d’une prise de conscience qu’il y a un problème systémique avec les géants du Net. Aujourd’hui, ils écrasent tout sur leur passage.

À l’issue de ces états généraux, l’Arcep pourrait-elle se voir investir de nouveaux pouvoirs ?

Nous faisons à l’Arcep une proposition ciblée, issue d’un travail approfondi : réguler les terminaux, qu’il s’agisse des smartphones et autres objets connectés (les enceintes, les téléviseurs ou les voitures). Nous proposons une extension de la régulation des télécoms, qui se situe dans le prolongement de notre rôle de gardien de la neutralité du Net. Pourquoi ? Parce que c’est que c’est bien beau d’avoir la neutralité des tuyaux, mais à quoi sert-elle si on ne s’intéresse pas aux robinets que sont les terminaux en bout de ligne ? Or, à ce niveau, de nouveaux intermédiaires, très puissants, ont pris le pouvoir et imposent de nombreuses restrictions aux consommateurs [c'est le cas, par exemple, d'Apple, qui décide, à travers son Apple Store, quelles applications ses clients peuvent - ou non - utiliser, ndlr]. J’ai présenté le problème au gouvernement. C’est maintenant au politique de se l’approprier, et de prendre une décision.

Beaucoup s’interrogent sur la viabilité d’un marché français à quatre opérateurs et se demandent si une consolidation n’est pas nécessaire. Après les difficultés de Bouygues Telecom il y a deux ans, celles de SFR l’an dernier, c’est maintenant Free qui perd des clients. En d’autres termes, depuis l’arrivée de Free Mobile en 2012, il y a toujours un « homme malade » sur le marché français des télécoms. Qu’en pensez-vous ?

Je voudrais commencer par rebondir sur les propos de Stéphane Richard, le Pdg d’Orange, qui a récemment jugé « inéluctable » [« inévitable », en fait] une consolidation sur le marché français. Je ne suis pas d’accord avec lui. Structurellement, le secteur peut fonctionner à quatre. Il n’y a aucune impossibilité. Ce qui tend le marché aujourd’hui, c’est une guerre des prix. Mais cette bataille, c’est bien les opérateurs qui l’ont choisie… C’est leur décision. Et c’est cette situation qui leur fait dire, maintenant, que les investissements que le gouvernement et l’Arcep les poussent à faire ne sont plus soutenables ! Or, depuis mon arrivée, nous ne leur avons jamais dit que leurs prix étaient trop élevés.

Mais c’est pourtant bien pour faire baisser les prix que le gouvernement a permis l’arrivée de Free, en 2012, en tant que quatrième opérateur…

Oui, mais il y a une différence entre faire baisser les prix pour réduire une rente et une guerre de prix qui peut casser le marché. On peut, en outre, s’interroger : est-ce que cette guerre des prix ne vise pas à faire trébucher un maillon faible pour pousser à une consolidation ? Il y a un aspect potentiellement stratégique dans ce que nous observons sur ce marché, avec un effet possiblement autoréalisateur. Et je partage l’opinion des secrétaires d’État Delphine Gény-Stephann et Mounir Mahjoubi, qui estiment que les pouvoirs publics n’ont pas à désirer une consolidation.

Vous avez pourtant, lors d’une conférence de presse au mois de mai, jugé que l’Arcep n’était plus opposée à un retour à trois opérateurs…

Si j’ai entrouvert la porte à une consolidation, c’est parce que je ne peux pas, vis-à-vis du secteur, exiger le beurre et l’argent du beurre. Quand j’ai pris la présidence de l’Arcep, j’ai demandé aux opérateurs d’investir massivement dans la fibre, dans la 4G. À mes yeux, il était temps qu’ils se recentrent sur leur métier plutôt que de se regarder le nombril pour savoir qui va croquer qui. Ils ont répondu de manière très forte à mon appel, puisque leurs investissements ont augmenté de 37% en trois ans. Dans ce contexte, je ne pouvais plus être fermé, par principe, à une consolidation. Pour autant, cela ne veut certainement pas dire que j’y suis favorable, et encore moins demandeur. Ne comptez pas sur moi pour applaudir n’importe quel projet de consolidation qui pourrait surgir… Une réduction du nombre d’acteurs, cela peut être néfaste. C’est pourquoi une telle opération nécessite toujours l’aval de l’Autorité de la concurrence. L’Arcep, en tant que régulateur du secteur, entend jouer un rôle d’autorité morale pour apprécier ce qui pourrait se passer. Mais nous n’apporterons notre caution qu’à un projet qui serait gagnant pour le pays et pour les Français. Nous ne voulons pas d’un simple partage de gâteau entre milliardaires.

Certains jugent que la fin de votre opposition à une consolidation vise, en réalité, à sauver Free, qui est le « bébé » de l’Arcep. Qu’en dites-vous ?

Je me suis exprimé indépendamment de la situation de cet opérateur. Je rappelle que cette conférence de presse, qui intervient chaque année à la même date, vise d’abord à dévoiler le montant annuel des investissements du secteur, qui sont un peu le totem de mon action dans les télécoms. Un autre élément : j’estime avoir prouvé que l’Arcep savait être ferme avec tous les acteurs, et qu’elle n’hésitait pas, au besoin, à les contrarier. Souvenez-vous de notre action pour mettre progressivement un terme au contrat d’itinérance entre Free et Orange [qui permet au premier d'utiliser le réseau mobile du second]… Je me souviens aussi d’un « ça suffit, l’Arcep ! » de Martin Bouygues après une mise en demeure sur la couverture 4G de Bouygues Telecom. Ou encore d’un « c’est complètement débile ! » de Stéphane Richard, en réaction à ma volonté de s’attaquer aux derniers bastions de monopole d’Orange. Michel Combes [l'ancien patron de SFR] n’était pas non plus particulièrement content et élogieux vis-à-vis de l’Arcep quand il a été sommé d’arrêter de vendre du câble en utilisant le mot « fibre ». Je revendique haut et fort que l’Arcep est un arbitre neutre qui agit dans l’intérêt des Français de manière constante. À chacun de se faire son opinion.

Aujourd’hui, vous présentez un rapport du Berec, l’organe des régulateurs européens, qui a passé au crible des consolidations en Allemagne, en Autriche et en Irlande. Quelles sont ses conclusions ?

En premier lieu, je tiens à préciser ce qui a motivé cette étude. Depuis le début des années 2010, nous entendons une petite musique à Bruxelles. Certains affirment que si le secteur des télécoms européennes est faible, c’est parce qu’il est trop éclaté. Il y aurait beaucoup trop d’acteurs, ce qui pèserait, in fine, sur les investissements. Pour relancer le marché, il n’y aurait ainsi d’autre choix que de le consolider. Ceux qui défendent cette ligne brandissent le cas des États-Unis. Ils arguent qu’il n’y aurait que trois ou quatre opérateurs - ce qui est faux car il y a de très nombreux acteurs locaux -, et que l’on y consacre plus d’argent aux infrastructures. Mais s’il est vrai que le Vieux Continent dépense moins d’argent pour déployer les réseaux, beaucoup d’études montrent que l’investissement américain est inefficace parce qu’il y a des duplications d’infrastructures de manière massive. Alors qu’a contrario le modèle européen pousse les opérateurs à partager les investissements et les infrastructures quand c’est possible. Au Berec, que je présidais l’an dernier, nous étions un peu échaudés par ces raisonnements simplistes. Voilà pourquoi, nous avons voulu étudier, de manière sérieuse et objective, l’impact de différentes fusions.

Qu’en est-il ?

Ce rapport démontre qu’à court terme les fusions ont généralement des effets négatifs. Les prix montent et la qualité de service se dégrade souvent. Pourquoi ? Parce qu’au moment de la fusion il peut y avoir un peu de flottement dans la conduite des entreprises. En France, c’est ce qu’on a connu lors de la vente de SFR en 2014 [l'opérateur au carré rouge a un temps cessé d'investir, ce qui a dégradé le réseau]. En revanche, à moyen terme, les situations sont plus contrastées. Nous constatons parfois des baisses de prix. Et dans certains cas, les augmentations de prix initiales peuvent disparaître, notamment avec des remèdes de type MVNO [c'est-à-dire le lancement d'opérateurs qui ne disposent pas de leurs propres réseaux]. L’investissement peut aussi gagner en efficience et doper la qualité de service : comme il y a moins d’acteurs, chaque euro dépensé a plus d’effet car il y a moins de redondance. Mais en clair, il n’y a pas de recette miracle : tout dépend de la situation de marché et des contreparties consenties par les acteurs concernés… C’est du cas par cas !

En France, quel serait le projet gagnant ? Ces derniers mois, le marché évoque souvent la possibilité d’un rapprochement entre SFR et Bouygues…

Je ne veux pas me prononcer à ce sujet. Surtout, je pense que les opérateurs français pourraient avoir une responsabilité plus forte dans l’écosystème numérique national. Il existe de nombreux modèles d’engagement. Il y a, par exemple, le modèle de Softbank, le géant japonais des télécoms et des nouvelles technologies. Son objectif est de maîtriser, grâce à des investissements ciblés (dans les microprocesseurs, des processeurs graphiques ou encore des constellations de satellites), l’ensemble des briques de la révolution numérique. Un autre modèle, qu’on voit se dessiner aux États-Unis, est lié à l’arrivée de la 5G, la prochaine génération de communication mobile. De fait, la 5G va accoucher d’un changement de business model chez les opérateurs. Il ne s’agira plus seulement de vendre des forfaits aux particuliers, mais d’apporter aussi des briques de connectivité sur mesure aux acteurs de la ville intelligente, de l’industrie 4.0 ou de la voiture autonome. C’est ce type d’immersion, plus profonde, des opérateurs dans l’écosystème numérique qui peut nécessiter, pour aller plus vite, la recherche d’une masse critique.

Ces derniers mois, pour sortir des difficultés, Free n’a pas hésité à augmenter ses prix. Ne craignez-vous pas que le « maverick » se normalise et devienne un opérateur comme les autres ?

Il m’est difficile d’entrer dans le commentaire de la stratégie d’un acteur. On peut penser qu’Iliad a plutôt apporté une correction à une situation particulière que remis en cause son modèle.

Est-il nécessaire d’avoir toujours un acteur qui joue ce rôle de « maverick » ?

Je ne veux pas être déterministe là-dessus. Mais il y a une étude intéressante de l’Ofcom, le régulateur britannique, à ce sujet. Elle montre qu’il y a un bénéfice évident pour le marché à avoir un acteur un peu franc-tireur.

La France et l’Europe ont longtemps pâti d’un retard dans la 4G. En matière de 5G, sommes-nous, une fois encore, en retard ?

Il est trop tôt pour le dire. Aujourd’hui, il n’y a pas de service qui tourne en 5G autrement que de manière expérimentale. Mais on peut se demander si l’Europe est bien préparée pour la lancer lorsque la technologie sera disponible. Je dois dire que, à ce sujet, je suis impressionné par la mobilisation très forte de la Chine et des États-Unis, qui misent sur la 5G pour entraîner une numérisation massive de leurs pays. Dans l’Union européenne, il y a eu une vraie prise de conscience politique par le commissaire [à l'économie et à la société numérique] Günther Oettinger au début de son mandat, en 2015. Ensuite, nous sommes un peu retombés dans les travers de l’Union européenne. Au bout du compte, le code européen des télécoms, cette grande réforme qui a été adoptée l’année dernière, est un texte de compromis. S’il pose les échéances du développement de la 5G, le consensus européen n’a pas voulu entamer la souveraineté des États pour organiser les attributions des nouvelles fréquences [essentielles pour le déploiement de toute technologie mobile]. Résultat, les approches sont très contrastées au sein de l’Union européenne. Il est regrettable qu’il n’y ait pas de front uni sur la 5G.

N’y a-t-il pas, alors, une contradiction entre la volonté de Bruxelles de rattraper les États-Unis dans le numérique et son manque d’efforts pour faire l’Europe de la 5G ?

L’avenir le dira. La 5G sera un saut technologique. Il est certain que ce sera un facteur de compétitivité essentiel pour l’attractivité des capitaux, des talents… Pour l’Europe, il y a donc, à mes yeux, un risque évident de déclassement.

En France, serons-nous au rendez-vous ?

Je me félicite d’abord que le gouvernement ait adopté récemment, avec l’Arcep, une feuille de route sur la 5G. Cela nous permet de nous inscrire dans le calendrier européen. De notre côté, nous allons lancer une consultation au mois d’octobre pour définir les modalités d’attribution des fréquences 5G aux opérateurs. L’appel d’offres pourrait avoir lieu dans environ un an, à la mi-2019. La France, de ce point de vue-là, se situerait dans un calendrier proche de celui de ses voisins européens.

Cherchez-vous, en nous précisant cette échéance de mi-2019, à mettre la pression sur les opérateurs ?

Ce qui m’importe, c’est d’abord de donner de la visibilité aux acteurs. Ce n’est pas le calendrier des opérateurs qui s’imposera aux pouvoirs publics. Peut-être que certains d’entre eux ne sont pas très pressés de lancer la 5G… Mais ça, c’est leur problème, c’est leur stratégie. Le pays, lui, doit se doter d’infrastructures car il y a des enjeux de compétitivité majeurs. J’invite donc les opérateurs à se mobiliser pour être au rendez-vous de la 5G. Aujourd’hui, certains n’ont d’yeux que pour la consolidation… Or le bon chiffre dont il faut discuter, ce n’est pas trois ou quatre, mais cinq, comme 5G !

Il y a peu, vous avez indirectement relancé le débat sur une possible fusion entre l’Arcep et le Conseil supérieur de l’audiovisuel [le CSA, qui régule les contenus] en pointant l’essor de la télévision par IP, à travers les box des opérateurs, aux dépens de la TNT…

Mon intervention ne visait certainement pas à critiquer le modèle de régulation de l’audiovisuel. Sur le fond, je pose une question : comment faire en sorte que le modèle français de l’exception culturelle puisse perdurer dans le grand bain du numérique  ? Sous ce prisme, j’ai alerté sur les limites d’une vision qui serait uniquement centrée sur la TNT, en perte de vitesse et qui pourrait ne plus être utilisée à horizon de quinze ans. Il faut trouver de nouvelles voies. C’est pourquoi, cette semaine, j’ai fait part à Françoise Nyssen, la ministre de la Culture, de la proposition de l’Arcep d’étendre sa régulation aux écrans connectés pour garantir la diffusion numérique des chaînes. Voilà tout. Mais je sais qu’à partir du moment où je parle certains imaginent que c’est le grand ogre des télécoms qui veut manger l’audiovisuel… Ce n’est pas mon propos.

Mais êtes-vous pour ou contre une fusion entre l’Arcep et le CSA ?

À l’heure où la révolution numérique rebat les cartes dans tous les domaines, il ne faut évidemment pas être fermé. Je ne dis donc pas qu’il faut impérativement garder les institutions telles qu’elles sont, et que toute fusion n’a pas de sens. Je ne serai pas dans cette position conservatrice. Maintenant, c’est au politique de définir les objectifs poursuivis. S’il y a un projet, je m’exprimerai en tant que président de l’Arcep. Je dirai si cela me semble une bonne ou une mauvaise idée, et comment procéder au mieux le cas échéant. Mais, j’insiste, ce n’est pas à moi de promouvoir un modèle, et de plaider pour une fusion des régulateurs des télécoms et des contenus.

 

Les dangers de l’inclusion numérique

Les dangers de l’inclusion numérique

Interview dans de  JACQUES MARCEAU  Président dans les Echos 

« Vouloir l’inclusion numérique pour tous n’est pas sans conséquence sur notre société de tradition et de culture démocratique. Un « numérique inclusif » peut en effet transformer le citoyen d’une nation en usager d’une plateforme sur laquelle le politique n’est plus en capacité d’exercer sa souveraineté. Un débat qui est loin de n’être que sémantique…

Après la réduction de la fracture numérique, l’inclusion numérique est devenue le nouveau leitmotiv de nos politiques et fait même aujourd’hui l’objet d’un plan gouvernemental intitulé « Stratégie nationale pour l’inclusion numérique ». En effet, l’aménagement numérique du territoire en très haut débit fixe et mobile ne s’accompagne pas, loin s’en faut, d’une adoption du numérique par tous les Français. Un constat étayé par les résultats d’une enquête(1) menée en 2018 par la Mission Société Numérique et qui révèle que 13 millions de Français sont « en difficulté avec le numérique ». C’est ainsi, qu’à l’heure de la virtualisation massive du commerce, des services et plus généralement de toutes les activités économiques et sociales, la modernité numérique vient ajouter une nouvelle source d’exclusion à celles bien connues que sont le chômage, le faible niveau d’instruction, l’isolement, les mauvaises conditions de vie, etc. Une exclusion qui frappe en priorité et majoritairement, comme une double peine, des personnes déjà fragilisées pour lesquelles, par exemple, l’accès aux droits sociaux est conditionné à celui de services en ligne qu’elles sont dans l’incapacité d’utiliser. C’est ainsi que la tendance à la virtualisation des services publics vient exacerber la complexité d’une relation par essence complexe et souvent conflictuelle entre l’Etat et l’individu, entre le bien collectif et l’intérêt individuel. Il y a peu, quand l’Etat était représenté par ses seuls agents, même protégés par un guichet dont le rideau pouvait, tel un couperet, tomber à tout moment indifférent au temps passé à attendre son tour, la relation humaine pouvait toujours laisser la place à l’échange, à la compréhension, voire à la compassion. Sentiments dont on conviendra que le robot, même doté d’une intelligence artificielle dernier cri, est absolument incapable. Qui n’a d’ailleurs pas, à cet égard, fait l’expérience de l’exaspération que peut procurer la relation avec la machine pour effectuer une déclaration ou une demande en ligne ? En réponse à cette déshumanisation croissante des services en général et du service public en particulier et conscient des risques de fracture sociale associés, l’Etat élève aujourd’hui l’idée d’inclusion numérique au rang de priorité nationale. Ainsi, et dorénavant, pour satisfaire à ses obligations d’honnête citoyen ou simplement vivre dans un monde sensé être plus simple et plus sûr grâce au numérique, il faudra être inclus ! Un mot ambigu quand on y réfléchit et quand on lui cherche, pour mieux en appréhender la signification, des synonymes dans les dictionnaires : assimilé, soumis, dilué, intégré, enfermé, et même compromis. Visionnaire, Paul Valéry déclarait en 1935 dans son « Bilan de l’intelligence(2) » que « suggestionné, harcelé, abêtis, (…) l’individu est déjà compromis avant même que l’Etat l’ait entièrement assimilé ». Une vision pessimiste mais qui se révèle aujourd’hui pertinente à la différence inquiétante que l’Etat, en perdant sa souveraineté face aux géants du numérique, se retrouve lui-même assimilé. Une perte de souveraineté de l’Etat, et plus généralement des élus, sur la chose numérique qui rend encore plus hasardeuse sa tentative de promotion d’un « numérique inclusif » qui pourrait bien, en définitive, s’effectuer au seul profit du renforcement de la dominance économique et peut-être un jour politique, de plateformes hégémoniques. L’inclusion numérique suppose en effet, et au lieu de mettre la machine à la main et au service de l’homme, son assujettissement. L’injonction est claire : « si vous ne voulez pas être exclu du monde à venir, il vous faudra être capable non seulement de faire usage mais encore de servir et renseigner la machine ! ». C’est ainsi que le citoyen à l’ère numérique se doit, pour ne pas être un exclu, être inclus, comme si le simple jeu des antonymies justifiait une nouvelle doxa politique. Doxa qui ne s’arrête pas à son expression littérale mais qui prend forme aujourd’hui dans toutes sortes d’initiatives en faveur de l’inclusion numérique mêlant l’incitation à la contrainte, la séduction à l’obligation, la solidarité à la soumission. Les prévisibles et sombres conséquences de ce désordre sémantique pourraient être évitées si l’on se résolvait, enfin, à considérer le numérique comme un simple outil au service de l’homme et de la société et l’intelligence artificielle comme un esclave au service de l’Esprit. Car il est peut-être là, notre problème. La perte de l’Esprit que vient palier la prothèse numérique qui lui évite, la flemme étant l’un des ressorts favoris de l’assujettissement, de se fatiguer à compter, écrire, traduire, penser, décider. Formé, formaté, adapté, enfermé dans la bulle sociale et cognitive choisie pour lui par des algorithmes, l’inclus numérique ne deviendra-t-il pas l’idiot utile d’un pouvoir qui aura demain échappé au politique, qui ne sera pas non plus celui de la machine, mais de ceux à qui obéit la machine ? C’est aujourd’hui, car demain il sera trop tard, que nous devons faire le choix entre la Cité Politique(3), matrice historique des sociétés démocratiques, et la Cité Numérique où le citoyen éduqué se transformera en « usager inclus ». Faire le choix de la Cité Politique c’est d’abord proposer une vision portée par un discours(4), la parole précédant toujours l’action, tout comme la pensée précède le projet et l’invisible le visible. C’est ainsi que, nommer devenant un acte politique fondateur, la parole doit être juste pour que les mots ne deviennent pas la source des maux. C’est pourquoi, et au regard des sombres perspectives portées par un numérique inclusif, je proposerais volontiers les vocables de cohésion numérique et de numérique cohésif, porteurs de nos valeurs de liberté, d’égalité et de fraternité qui persistent à orner le fronton de nos écoles. »

1. https://societenumerique.gouv.fr/13-millions-de-francais-en-difficulte-avec-le-numerique/ 2. Le Bilan de l’intelligence, conférence de Paul Valéry à l’Université des Annales le 16 janvier 1935 3. « Comment les géants du numérique veulent gouverner nos villes » – Jean Haëntjens – Editions Rue de L’échiquier 2018 4. Jacques Marceau – Stratégies – 5 janvier 2016 – http://www.strategies.fr/blogs-opinions/idees-tribunes/1030349W/rehabiliter-le-discours-de-l-entreprise-un-nouvel-enjeu-pour-les-relations-publics.html

Fiscalité du numérique : la grande division en Europe

Fiscalité du numérique : la grande division en Europe

 

 

Le commissaire essaye de faire le grand écart entre les pays favorable à la taxation forfaitaire des Gafa et autres et ceux qui y sont opposés. En réalité c’est la grande division sur ce sujet d’autant que certains pays bénéficient de retours financiers des sièges sociaux.

Le commissaire européen Pierre Moscovici appelle au compromis parce qu’actuellement il y a ceux qui sont opposée aux taxations des GAFA et autres  (et qui en profitent comme l’Irlande) et ceux qui la réclament comme la France. En fait pour l’instant la discussion est bloquée. Moscovici  s’est déclaré vendredi « ouvert au compromis » avec les Etats membres de l’UE pour parvenir à un accord sur sa proposition de taxer les géants du numérique sur leur chiffre d’affaires sans  attendre qu’une solution mondiale soit trouvée pour agir en Europe. « Je suis d’accord qu’il faille travailler dans le cadre de l’OCDE et dans celui du G20″, a-t-il expliqué. « Mais si nous attendons encore quelques années, nous allons nous retrouver avec un gruyère européen où un certain nombre d’Etats membres auront mis en place leurs propres taxes, pendant que d’autres continueront à développer des pratiques d’attractivité qui creuseront encore le fossé au sein du marché intérieur », a-t-il prévenu. Mais  L’idée est loin de faire l’unanimité au sein des 28 États membres de l’Union européenne. Derniers contestataires en date : la Suède, la Finlande et le Danemark. Les ministres des Finances des trois pays nordiques ont manifesté ce vendredi 1er juin leur opposition au projet de taxation des géants du numérique présenté fin mars par la Commission européenne. Il se décompose en deux volets : une approche juridique, en définissant la « présence numérique » des entreprises, et une approche budgétaire, avec une taxe provisoire de 3% sur les revenus générés en Europe. L’objectif de la Commission est d’instaurer cette taxe d’ici fin 2018.

« Une taxe sur les services numériques s’écarterait des principes fondamentaux de l’impôt en ne s’appliquant qu’au chiffre d’affaires – sans prendre en compte le fait de savoir si le contribuable réalise un bénéfice ou non », écrivent la ministre suédoise des Finances Magdalena Andersson et ses collègues du Danemark et de la Finlande, Kristian Jensen et Petteri Orpo, dans un communiqué commun, rapporte Reuters.

 « L’idée que les entreprises du numérique puissent se détourner de l’Europe n’a pas de sens, notamment parce que nous représentons un marché de 500 millions d’utilisateurs », affirmait à La Tribune Pierre Moscovici, commissaire européen aux Affaires économiques, en marge d’une visite du salon VivaTech la semaine dernière. Selon ses estimations, la taxe pourrait générer entre 5 à 8 milliards d’euros pour le budget européen. Un « montant substantiel mais qui n’est pas confiscatoire », estimait Pierre Moscovici. . La Commission européenne propose donc une définition juridique de la présence numérique, qui viendra s’ajouter à la présence physique. En l’absence de présence physique, une entreprise sera imposable sur ses activités numériques.

 

Taxation du numérique: toujours autant de divergences dans l’Union économique

Taxation du numérique: toujours autant de divergences dans l’Union économique

 

 

Le commissaire européen Pierre Moscovici appelle au compromis parce qu’actuellement il y a ceux qui sont opposée aux taxations des GAFA et autres  (et qui en profitent comme l’Irlande) et et ceux qui la réclament comme la France. En fait pour l’instant la discussion est bloquée. Moscovici  s’est déclaré vendredi « ouvert au compromis » avec les Etats membres de l’UE pour parvenir à un accord sur sa proposition de taxer les géants du numérique sur leur chiffre d’affaires. « Nous sommes ouverts à des compromis, mais il faut rentrer dans la logique du compromis », a déclaré le commissaire à la presse en marge d’une visite au salon Vivatech à Paris, appelant les Etats membres à ne pas attendre qu’une solution mondiale soit trouvée pour agir en Europe. « Je suis d’accord qu’il faille travailler dans le cadre de l’OCDE et dans celui du G20″, a-t-il expliqué. « Mais si nous attendons encore quelques années, nous allons nous retrouver avec un gruyère européen où un certain nombre d’Etats membres auront mis en place leurs propres taxes, pendant que d’autres continueront à développer des pratiques d’attractivité qui creuseront encore le fossé au sein du marché intérieur », a-t-il prévenu.

Transformation numérique de l’administration :changer de paradigme et de siècle

Transformation numérique de l’administration :changer de paradigme et de siècle

La critique de la Cour des Comptes vis-à-vis de la diffusion du numérique dans l’administration est sévère. Première observation la vision est encore très insuffisante. Deuxièmement on se borne essentiellement à numériser les procédures existantes alors qu’il conviendrait sans doute de changer l’approche et la nature des procédures. Troisièmement, l’administration pénètre le numérique sur la pointe des pieds avec crainte et confie d’ailleurs l’essentiel des procédures d’information informatisée à la sous-traitance qui évidemment se régale en termes de profit mais aussi de maîtrise. En effet, il manque aussi dans l’administration de sérieuses compétences numériques et au-delà une culture numérique. Enfin chaque administration ou service bricole son propre système dans des délais par ailleurs tellement long qu’ils rendent obsolète la numérisation. Enfin et peut-être surtout les systèmes des différents services et administrations sont incapables de communiquer entre eux. Bref dans leur rapport à la numérisation, l’administration doit changer de paradigme et de siècle. Mais si le rapport valide la stratégie que l’État mène depuis 2011 et a amplifié en 2014, la Cour des comptes estime surtout que cette transformation est trop lente, s’exerce sur un périmètre trop étroit, et doit s’accompagner d’investissements massifs, à la fois humains et financiers. « La démarche doit être amplifiée. Il reste à lever les contraintes fortes qui pèsent sur les administrations et qui ralentissent cette transformation [...] Un important effort de rattrapage doit être réalisé ». Ces contraintes sont bien identifiées : des « choix technologiques anciens » (le logiciel libre n’est pas assez généralisé), « l’externalisation massive » des systèmes d’information de l’État qui a conduit à une « perte de compétences » des agents, et surtout un problème de « culture numérique »: « Il faut faire connaître le potentiel et les méthodes de la transformation digitale au-delà des sphères spécialisées. La révolution numérique ne se réduit pas à la numérisation des procédures existantes ». Ainsi, le rapport note que la stratégie d’État plateforme doit « dépasser la simple dimension technologique » pour « faire évoluer l’action publique vers un modèle reposant sur des « communs numériques » (données, logiciels, services numériques, API) qui s’intègrent pour offrir d’autres services de manière plus agile et réactive« . La Cour déplore l’absence d’état des lieux du recours au logiciel libre, ou encore la difficile mise en place de la plupart des grands projets numériques de l’État. Leur durée (6 ans en moyenne) est estimée « excessive » car elle « s’accommode mal avec le rythme d’évolution des technologies et celui de la rotation des chefs de projet« . Par exemple, le projet le plus ancien, SAIP (le dispositif de protection des populations) est englué depuis… 17 ans (!) alors que l’enjeu est pourtant essentiel pour la sécurité du pays.

Orange Bank : première banque numérique ?

Orange Bank : première banque numérique ?  

Entre 200 et 300 euros de frais bancaires, c’est beaucoup trop en regard des services rendus. D’où le développement des banques en ligne et pratiquement gratuites comme Orange Bank qui veut devenir la première banque numérique.  C’est l’objectif du patron d’orange  (avec un objectif intermédiaire d’être dans les quatre cinquièmes premières banques bout d’un an) mais il ya encore chemin vers perspective. lancée le 2 novembre compte 50 000 clients à fin 2017. l’offre est quasi gratuite, sans frais de tenue de compte, sauf si l’utilisateur effectue moins de trois opérations par mois : Orange Bank facture alors 5 euros par mois de frais d’inactivité. Orange qui se lance dans l’activité bancaire entend donc devenir l’une des principales banques françaises sinon la première. Il est clair qu’Orange avec son portefeuille clients en télécoms disposent d’un potentiel assez considérable. En outre le paiement par téléphone portable, internet ou Smartphone notamment pourrait constituer un atout supplémentaire. Il reste cependant du chemin à parcourir pour qu’Orange dépasse par exemple la BNP. Orange vise en effet 2 millions de clients avant 10 ans. Cela étant on peut faire la confusion entre le nombre de clients et le nombre de comptes. Pour les ménages en effet le nombre de comptes tourne autour de 130 millions. Orange  veut compter parmi les leaders. Ses ambitions sont spectaculaires: selon les syndicats, Orange vise 400.000 clients dès la première année, et 2 millions d’ici à 2024. C’est par exemple deux fois plus que les leaders historiques comme ING Direct ou Boursorama, la filiale de la Société Générale qui vient tout juste de franchir le cap des 900 000 clients.   Jay Sidhu, un banquier américain chevronné et atypique, avec 45 ans d’expérience du métier, notamment à la Sovereign Bank, a fondé une banque d’un nouveau genre, entièrement mobile, sans agence et sans frais, BankMobile, qui cartonne auprès des Millenials et étudiants américains (1,8 million d’utilisateurs conquis en trois ans).il declare »V « La fréquentation des agences des banques aux Etats-Unis baisse de 10% à 15% par an et dans cinq ans elle sera à peine 10% de ce qu’elle est aujourd’hui. Si les banques ne réduisent pas de 90% leurs coûts, elles vont se retrouver face à de sacrées inefficacités opérationnelles ! Aujourd’hui, les gens y vont pour ouvrir un compte ou retirer de l’argent au distributeur. Quant au conseil, c’est totalement fallacieux, on ne leur donne aucun conseil. On trouve de meilleurs conseils en allant sur Google ou en demandant à Siri [l'assistant vocal de l'iPhone] ou Alexa [celui d'Amazon Echo] et ce sera exponentiellement meilleur dans cinq ans ! » a-t-il lancé. Frédéric Oudéa, de la Société Générale  a argué que les Français restaient attachés à la relation humaine en agence pour les événements importants de la vie, que la clientèle d’entreprises, les questions de gestion de patrimoine, de fiscalité et de succession nécessitaient encore des agences.  Le problème des banques, selon Jay Sidhu, est leur modèle et leur structure de coûts. « Les banques sont accros aux commissions, aux frais, c’est comme une drogue ! Or ces frais vont être attaqués par les nouveaux entrants. Si on enlève les commissions, les agences ne seront plus rentables » analyse-t-il.

 

Fracture numérique : le câble, G4-5 ou le satellite ?

Fracture numérique : le câble, G4-5 ou le satellite ?

Réduire la fracture numérique et offrir le « très haut débit » (au moins 30 mégabits par seconde) en 2022, sur l’ensemble du territoire paraît assez illusoire avec le seul câble. Du coup,   Macron à évoqué un amalgame entre haut débit qui peut être assuré par satellite et très haut débit qui sera couvert par le plan câble. Le plan câble qui se révèle de plus en plus coûteux et qui de toute façon ne pourra atteindre tous les usagers des télécoms. Il est évident que ces nouvelles modalités de couverture sont certainement plus compatibles avec les possibilités techniques et financières. Par ailleurs les évolutions technologiques risquent peut-être de rendre caduque le très coûteux plan câble par ailleurs essentiellement rentable dans les zones très denses. Notons que cette évolution est aussi sans doute plus compatible avec les possibilités des collectivités locales d’autant qu’elles sont déjà lourdement endettées.  Emmanuel Macron n’a pas seulement avancé sa date butoir de deux ans. Pour atteindre son objectif, il parle désormais d’accès «haut débit et très haut débit». Des lignes inférieures à 30 mégabits par seconde pourraient seconder la couverture en très haut débit dans certaines zones. Le président de la République a ainsi appelé à «envisager les complémentarités technologiques» entre la fibre optique, le mobile et en particulier l’Internet mobile ou le satellite, jugeant «impossible de tenir la promesse de tirer de la fibre dans tous les logements de la République». «Cette promesse est intenable technologiquement et financièrement», a-t-il insisté. Or, la France est quasi intégralement couverte aujourd’hui par le haut débit ADSL, avec près de 30 millions de lignes cuivre. Les 2 millions de foyers restant peuvent passer par des offres satellitaires. On peut donc considérer que cette partie de la promesse fixée par Emmanuel Macron est quasi tenue, si l’Internet mobile vient en renfort. À l’inverse, il n’y a que 16 millions de logements éligibles à de l’Internet très haut débit, de plus de 30 mégabits. Dont 12 millions qui peuvent bénéficier d’une vitesse de téléchargement de plus de 100 mégabits par seconde. Le chantier était déjà colossal pour aboutir à 100% de la population couverte en 2022, tel qu’envisagé jusqu’alors, en particulier dans les villes de tailles moyennes et dans les zones rurales. Il nécessiterait 15 à 16 milliards d’euros d’investissement, soit environ 5 milliards d’euros par an durant d’ici à la fin 2020, c’est-à-dire pas loin de ce que l’ensemble des opérateurs investissent tous les ans. Un chiffre par ailleurs très largement sous-évalué en effet le montant de l’investissement pourrait en réalité atteindre facilement le double De ce fait,  le gouvernement devrait choisir le satellite pour permettre à certains foyers d’accéder au très haut débit, Orange souhaite que tous les acteurs des télécoms – dont ses rivaux SFR, Bouygues Telecom et Free – se mettent autour de la table. L’idée serait, par exemple, de lancer un Réseau d’initiative publique (RIP) satellite. Celui-ci serait façonné sur le modèle des RIP de fibre optique actuellement en déploiement dans toute la France. Ceux-ci permettent aux collectivités de bâtir, avec l’aide financière de l’État, des réseaux Internet fixe dernier cri et ouverts à tous les opérateurs dans les zones les moins peuplées de l’Hexagone. Avec un tel RIP satellite, Orange, mais aussi SFR, Bouygues Telecom et Free seraient pourraient ainsi proposer leurs offres à tous les villages et hameaux concernés.

Audiovisuel public : moins de chaines et fusion télés-radios-numérique

Audiovisuel public : moins de chaines et fusion télés-radios-numérique

Le grand ménage dans l’audiovisuel public devrait se traduire par la fusion télé, radio et numérique. Aussi par une diminution du nombre de canaux d’émission. Bref c’est la grande réforme. Macron veut faire la révolution  dans l’audiovisuel public, il serait temps compte tenu des gaspillages. La Cour des Comptes a déjà jugé  avec une grande sévérité la gestion de France télévision qui se caractérise par un très grand nombre de chaînes qui font double emploi, avec aussi des innombrables bureaux en province et qui mobilise ainsi 10 000 salariés environ dont 2500 2700 journalistes. (Par comparaison ces deux à trois fois plus que dans les chaînes privées). Du coup cette chaîne pourtant financée par le contribuable laisse apparaître un déficit de plusieurs dizaines de millions. ) « Au regard de la dégradation inquiétante de sa situation financière, la maîtrise des dépenses est impérative », jugeait la cour. « À ces défis stratégiques, l’entreprise et son actionnaire n’ont apporté au mieux que des réponses partielles, au risque à terme de compromettre la pérennité du service public de l’audiovisuel », concluait la cour des comptes. . Ils formulaient alors  23 recommandations, parmi lesquelles la réduction du nombre d’antennes régionales de France 3, la mise à l’étude d’un rapprochement de son réseau régional avec celui des radios France Bleu, la fusion de l’ensemble des rédactions nationales, ou la suppression des bureaux régionaux de France 2. La Cour exhortait également le groupe, qui compte 9.932 emplois à temps plein dont 2.700 journalistes, à s’engager sur un objectif précis de non remplacement des départs à la retraite d’ici 2020 ou à examiner le contenu réel des postes occupés par les salariés les mieux rémunérés. Quant à Radio France, c’est  600 millions de budget, déficit de 50 millions, 5000 salariés, salaire mensuel moyen de 5 000 euros ! Emmanuel Macron est donc décidé à lancer une réforme majeure de l’audiovisuel public d’ici à l’été prochain : « Le président a sifflé la fin de la récréation », résume d’un mot Frédérique Dumas. Cette députée d’En marche, ancienne cadre dirigeante d’Orange et membre de la commission des Affaires Culturelles, vient de se voir confier par le gouvernement la direction d’une commission chargée de travailler, en liaison avec l’Elysée et Matignon, sur un futur projet de loi, qui sera déposé à l’automne devant l’Assemblée. Emmanuel Macron, qui a exprimé en termes cinglants, lors de cette même réunion, sa « volonté ferme de faire une révolution », veut aller vite et loin. Voici les grands axes de son projet de réforme. Dans le détail,  France 4 devrait disparaître dans sa forme actuelle pour basculer en numérique sur Internet. Une réforme de France 3, adossée aux collectivités territoriales et aux télés locales existantes, est à l’étude. De même, le rapprochement entre le réseau France Bleu de Radio France et la chaîne des Régions est acté. Autre certitude : le mariage, voire à terme la fusion, entre France Télévisions et Radio France. Face à l’offensive des géants du Net, Amazon et Netflix, France Télévisions va nouer des alliances, notamment avec des opérateurs des télécoms du type Orange en France. La construction d’une offre numérique francophone commune, à l’échelon européen, est également évoquée. Tout comme des accords avec d’autres chaînes publiques européennes.

 

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol