Archive pour le Tag 'source'

Guerre en Ukraine :Le rôle stratégique de l’open source intelligence

Guerre en Ukraine :Le rôle stratégique de  l’open source intelligence

 

La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.

Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.

On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

Guerre en Ukraine : le rôle de l’open source intelligence

 Guerre en Ukraine : le rôle de l’open source intelligence

OPINION. La guerre en Ukraine rappelle l’utilité stratégique de l’OSINT – Open Source Intelligence –, qui vise à exploiter les innombrables informations disponibles et à démêler le vrai du faux. Par Christine Dugoin-Clément, IAE Paris – Sorbonne Business School.

 

Avec l’invasion russe en Ukraine, l’OSINT connaît son heure de gloire. En effet, si l’open source intelligence - à savoir l’exploitation de sources d’information accessibles à tous (journaux, sites web, conférences…) à des fins de renseignement – est largement utilisée pour contrecarrer la diffusion de fake news et la désinformation, elle est aussi d’un grand secours tactique, voire stratégique, pour glaner des informations à caractère militaire.

Dans ce contexte, il paraît important de rappeler ce qu’est l’OSINT, ainsi que la façon dont elle est employée et les enjeux organisationnels et de gouvernance qui y sont liés.

Depuis l’invasion de l’Ukraine par la Russie, les partisans de Kiev ont largement recours à l’OSINT pour vérifier des informations diffusées sur Internet, particulièrement sur les réseaux sociaux, et, le cas échéant, démasquer les fausses nouvelles.

L’origine de l’OSINT remonte à la Seconde Guerre mondiale. C’est à cette époque que le président des États-Unis Franklin D. Roosevelt crée le Foreign Broadcast Monitoring Service (FBMS), qui a pour mission d’écouter, de transcrire et d’analyser les programmes de propagande conçus et diffusés par l’Axe. Développé à la suite de l’attaque de Pearl Harbor, ce programme deviendra le Foreign Broadcast Intelligence Service, appelé à être placé sous l’autorité de la CIA. En 1939, parallèlement à la structure américaine, les Britanniques chargent la British Broadcasting Corporation (BBC) de déployer un service destiné à scruter la presse écrite et les émissions radio pour produire des « Digest of Foreign Broadcasts », qui deviendront les « Summary of World Broadcasts » (SWB) puis le BBC Monitoring.

La guerre froide accentue ces pratiques d’observation des informations ouvertes, faisant rapidement de ces dernières un élément majeur du renseignement, voire sa principale source d’information, y compris sur les capacités et les intentions politiques adverses. Leur exploitation permet également d’identifier et d’anticiper les menaces et de lancer les premières alertes.

Pour autant, le terme d’OSINT n’apparaît réellement que dans les années 1980 à l’occasion de la réforme des services de renseignement américains, devenue nécessaire pour s’adapter aux nouveaux besoins d’information, notamment en matière tactique sur le champ de bataille. La loi sur la réorganisation du renseignement aboutit en 1992. Elle sera suivie en 1994 par la création, au sein de la CIA, du Community Open Source Program et du Community Open Source Program Office (COSPO).

Les attentats du 11 Septembre sont un « game changer » pour l’OSINT. En effet, c’est à la suite de la réforme de 2004 portant sur le renseignement et la prévention du terrorisme, l’Intelligence Reform and Terrorism Prevention Act qu’est créé, en 2005, le Centre Open Source (OSC) chargé de filtrer, transcrire, traduire, interpréter et archiver les actualités et les informations de tous types de médias.

Si l’OSINT est née de la nécessité de capter des informations à des fins militaires, le secteur privé n’a pas tardé à s’emparer de ces techniques, notamment dans la sphère de l’intelligence économique. Cette discipline a connu de nombreuses mutations au fil de son évolution : dans les premiers temps, il s’agissait d’accéder à des contenus recelant des informations parfois délicates à obtenir, mais l’explosion des nouvelles technologies a orienté davantage l’OSINT vers l’identification des informations pertinentes parmi la multitude de celles disponibles. C’est ainsi que se sont développés les outils et méthodes à même de trier ces informations et, particulièrement, de discerner celles susceptibles d’être trompeuses ou falsifiées.Si l’OSINT a gagné ses lettres de noblesse en Ukraine en permettant de valider ou d’invalider certains contenus, notamment diffusés sur les réseaux sociaux depuis février 2022, il faut remonter plus loin dans le temps pour mesurer sa réelle montée en puissance.

En effet, dès la révolution du Maïdan en 2014, les séparatistes pro-russes duu Donbass et leurs soutiens diffusent un grand nombre de contenus dont la rhétorique, soutenue par Moscou, cherche à discréditer le nouveau gouvernement de Kiev. L’ampleur fut telle que les Occidentaux ont rapidement parlé de guerre hybride (même si le terme continue de faire l’objet de débats) pour décrire la mobilisation de l’information. On parle également d’« information warfare » – c’est-à-dire l’art de la guerre de l’information – qui sert en temps de conflits autant qu’en temps de paix.

Rapidement, des structures issues de la société civile sont mises en place afin de discréditer les fausses nouvelles dont le nombre explose sur la toile. Au-delà de ces initiatives, beaucoup d’internautes commencent à vérifier les contenus qui leur parviennent et à se familiariser avec des outils de base pour, par exemple, identifier ou géo-localiser une image, afin de voir si elle est réellement représentative du sujet qu’elle est censée illustrer.

Certaines communautés se spécialisent ainsi sur des domaines plus ou moins précis. À titre d’exemple, InformNapalm se consacre aux contenus touchant aux sujets militaires et, en ne se limitant pas seulement à l’Ukraine, a constitué une base de données qui recense notamment les pilotes russes actifs sur le théâtre syrien. C’est une force de l’OSINT : elle transcende les frontières physiques et permet ainsi le développement de communautés transnationales.

Ce savoir-faire, acquis par nécessité depuis 2014, s’est renforcé au fil du temps, notamment à la faveur des vagues de désinformation liées à la pandémie de Covid-19. Ces réseaux ont permis aux Ukrainiens et à leurs soutiens d’être immédiatement très opérationnels au début de la guerre. En outre, le besoin croissant des journalistes de vérifier leurs sources a aussi participé à développer le recours à l’OSINT qui, disposant d’une multitude d’outils souvent disponibles en Open Source, facilite la pratique de fact checking.

Ainsi, de nombreuses publications explicitent désormais comment, en utilisant des moyens d’OSINT, elles ont validé ou invalidé tel ou tel contenu.On le voit, l’une des forces de l’OSINT consiste à s’appuyer sur une société civile parfaitement légitime à s’autosaisir en fonction de ses centres d’intérêt. Cette dynamique a permis la création de réseaux efficaces et transnationaux.

Cependant, si les États peuvent eux aussi déployer des compétences d’OSINT, un enjeu majeur demeure : coordonner les besoins et les capacités. En effet, les États pourraient avoir avantage à se saisir des réseaux efficaces de l’OSINT, particulièrement dans un contexte de conflit. Cependant, outre le risque relatif à l’infiltration de ces réseaux, la capacité de recenser les besoins de l’État et de mettre ces derniers en relation avec la communauté susceptible d’y répondre représente une difficulté majeure.

D’un point de vue organisationnel, à moyen et long terme, cela pose également la question de la structuration de la ressource OSINT pour les gouvernements. Dans le cas de l’Ukraine, le gouvernement est encore jeune, l’indépendance remontant à août 1991. En outre, contraint depuis 2014 de faire face à un conflit puis, depuis février 2022 à à une invasion massive, la problématique peut être difficile à résoudre. De fait, il s’agit de trouver un équilibre entre l’urgence de la gestion quotidienne du conflit et la mise en place d’une organisation dont la finalité serait de manager l’OSINT au regard de la centralisation des besoins, de leur transmission ou du renforcement d’un vivier de compétences.

Pour essayer de répondre à cette problématique, un projet d’audit des besoins, préalable à l’élaboration d’un cadre organisationnel et juridique, a été mis en place. Piloté par l’Institute for Information Security - une ONG créée en 2015 et centrée sur les enjeux relatifs à la sécurité de l’information tant pour l’État que pour la société et les individus -, le projet « Strengthening the Institutional Capacity of Public Actors to Counteract Disinformation » (Renforcement de la capacité institutionnelle des acteurs publics à lutter contre la désinformation) a débuté en avril 2022 alors que le conflit faisait déjà rage. Il doit aboutir en mars 2023. Son objectif est d’améliorer la capacité institutionnelle des autorités publiques et des institutions de la société civile ukrainienne pour identifier et combattre la désinformation.

Parallèlement, un projet de Centre d’excellence de l’OSINT est mis en route, notamment porté par Dmitro Zolotoukhine, vice-ministre ukrainien de la politique d’information de 2017 à 2019, et mené en partenariat avec l’Université Mohyla de Kiev et avec le secteur privé, notamment ukrainien. Son objet est de construire un pont entre les différentes strates de la société pour constituer un lieu de recherche et de développement. Cette démarche s’inscrit clairement dans le droit fil de celle qui a présidé à la création des Centres d’excellence pilotés par l’OTAN – qui, à Tallinn, portent sur la cyberdéfense, à Riga sur la communication stratégique et à Vilnius sur la sécurité énergétique - ou encore dans celle du Centre d’excellence européen pour la lutte contre les menaces hybrides d’Helsinki.

Reste à savoir si les Occidentaux qui soutiennent l’Ukraine soutiendront également ce projet alors même que ce pays est aujourd’hui un point phare de l’OSINT et que l’UE, qui prend très au sérieux les risques liés à la désinformation, tout particulièrement depuis la pandémie, vient de renforcer son arsenal contre ces menées hostiles, notamment au travers de son code de bonnes pratiques paru en 2022.

Finalement, même si beaucoup de nos concitoyens associent l’OSINT à l’Ukraine et à l’invasion russe, la cantonner à la guerre en cours serait excessivement restrictif. Là encore, le conflit ukrainien est en passe de servir de révélateur d’enjeux qui dépassent largement les frontières physiques du pays.

_______

Par Christine Dugoin-Clément, Analyste en géopolitique, membre associé au Laboratoire de Recherche IAE Paris – Sorbonne Business School, Université Paris 1 Panthéon-Sorbonne, chaire « normes et risques », IAE Paris – Sorbonne Business School.

La version originale de cet article a été publiée sur The Conversation.

La ville principale source d’émission des GES reste à imaginer

La ville principale source d’émission des GES reste à imaginer

La ville  la principale source d’émissions de gaz à effet de serre impactant le climat, rappelle, dans une tribune au « Monde », l’architecte urbaniste Albert Lévy pour qui « l’éco-urbanisme à construire devra faire avec et non contre la nature ».

 

 

Tribune.
 La COP26 vient de se terminer avec des résultats, de nouveau, décevants : si le « ne pas dépasser les 1,5 °C » est réaffirmé, l’ONU annonçait, en même temps, un réchauffement catastrophique de 2,7 °C pour la fin du siècle ; pas d’engagement de compensation financière pour les pays pauvres ; accords thématiques de principe sur la déforestation, le méthane, la fin du financement des énergies fossiles, les véhicules zéro émission… Dans ce grand débat sur le climat, la ville et l’urbanisation de la planète, induite par les énergies fossiles, semblent être l’angle mort de la réflexion. Ces énergies (charbon, pétrole, gaz) ont pourtant été à la base de la création de l’urbanisme moderne et de l’explosion planétaire de l’urbanisation qui a accompagné la croissance économique mondiale.

C ette urbanisation galopante, conséquence et condition de la croissance, renforcée par la mondialisation, est devenue, aujourd’hui, insoutenable. Le seuil des 50 % de la population mondiale urbanisée a été atteint en 2007, 60 % aujourd’hui, de 75 % à 80 % en 2050 : avec huit milliards d’urbains dans trente ans, l’urbanisation devra logiquement doubler pour accueillir cette population nouvelle.

La ville principale source d’émission des GES

En France, l’artificialisation des sols avale, tous les sept ans, la surface d’un département, 60 000 hectares environ disparaissent chaque année. Si rien n’est fait contre cet étalement urbain, favorisé par les énergies fossiles, on prévoit la disparition de 2,5 millions d’hectares de terres agricoles en 2060.

Artificialisation des sols signifie destruction écologique irréversible des terres. Le réchauffement climatique et ses conséquences catastrophiques réclament une action à la hauteur des périls, un big bang urbanistique : refonte totale de l’urbanisme pratiqué, révision du mode d’occupation du territoire, rapports nouveaux avec l’environnement et une véritable politique de transition énergétique et urbaine.

Par sa forme, son organisation, son fonctionnement, la ville actuelle, qui consomme, pour ses besoins, plus de 75 % des énergies fossiles, est la principale source d’émission de gaz à effet de serre (GES) (80 %), impactant le climat. Le dernier rapport 2021 du Haut Conseil pour le climat avait pour titre « Renforcer l’atténuation, engager l’adaptation ».

Atténuation, par une politique à long terme, de réduction des émissions de GES dans tous les secteurs urbains et de transition vers les énergies renouvelables, à développer par des investissements massifs, pour aller vers une décarbonation de l’économie en 2050. Les contours de la future ville postcarbone qui en découlera, sa forme, son fonctionnement (sur les énergies vertes), son organisation territoriale, restent à imaginer (voir les travaux d’Alberto Magnaghi sur la biorégion urbaine, 2014).

Société–La presse source d’info numéro un ? C’est faux !

SociétéLa presse source d’info numéro un ? C’est faux !

Dans l’Hexagone, une étude avait démontré que la télévision était et de loin le principal vecteur d’information. Une autre étude diffusée par le Figaro aujourd’hui montre cependant la presse serait le support le plus utilisé. Le Figaro serait notamment en tête mais toucherait surtout les lecteurs à fort pouvoir d’achat.

 

Cette nouvelle étude affirme que La presse est considérée à 59 % comme la source d’information la plus fiable, loin devant la radio (19 %), internet (13 %) et la télévision (9 %). Les informations trouvées dans la presse sont également jugées «plus complètes» à 66 % par les dirigeants des entreprises de 500 salariés et plus. Aux yeux de ces décideurs professionnels et foyers aisés, les journaux et les sites d’informations en ligne se positionnent également comme le premier média pour «la confiance dans les messages publicitaires»«34 % des sondés déclarent que la publicité présente dans la presse éclaire leurs choix de consommation, contre 25 % pour la télévision, 17 % pour les réseaux sociaux et 9 % pour la radio», précise Amélie Benisty.

Il est clair que selon les couches sociales, le rapport aux médias et différents. On comprendra que le Figaro puisse être en tête dans le lectorat cadre et assimilés et que la télévision demeure quand même le support le plus populaire pour l’ensemble des Français.

Mathieu Lehot, data journaliste (Le Monde, Mediapart, L’Argus de l’assurance) s’est penché sur les principaux chiffres de diffusion connus de la presse, représentés par ses soins sous forme de graphiques vertigineux.

Une faible crédibilité des médias

D’après le baromètre annuel Kantar la crédibilité des différents médias s’améliore légèrement en 2021 mais reste à des niveaux faibles. La radio, avec 52% des Français qui estiment crédible l’information qui y est racontée, reste le média perçu comme le plus crédible, devant le journal (48%) et la télévision (42%).

Ces trois médias enregistrent une légère hausse de leur crédibilité (+2 points chacun par rapport à 2020). Si cette hausse est modérée, c’est la seconde année consécutive qu’elle intervient pour le journal et la télévision après une forte baisse en 2019 (année qui avait suivi la crise des gilets jaunes). Il semble donc que cette amélioration de la crédibilité se confirme.

Internet reste un moyen d’information jugé peu crédible (28% seulement des Français estiment que les informations qui y sont diffusées sont crédibles), mais sa crédibilité enregistre une importante par rapport à l’année dernière : + 5 points.

Une différence peut cependant s’observer selon la préférence partisane. Ainsi, l’intérêt pour l’actualité et la crédibilité perçue du journal ou de la télévision reculent aux deux extrémités du spectre politique, chez les sympathisants de la France Insoumise (33% considèrent crédible l’information diffusée à la télévision) et du Rassemblement national (27%). A l’inverse, ces éléments progressent chez les sympathisants d’Europe Ecologie les Verts (38%), du PS (52%) ou de la République en Marche (57%). La polarisation politique autour de la question des médias semble donc s’accentuer et témoigne d’un clivage de plus en plus important.

les medias les plus touchés

Les plus touchés sont : Libération qui a perdu 40 % de son lectorat papier (- 19 000 journaux vendus par jour, que ce soit en kiosque ou par abonnement) entre les mois de décembre 2015 et 2019, et Aujourd’hui en France qui a chuté de 38 % (- 48 000 journaux vendus par jour) pour la même période.

Ceux dont on remarque les moins fortes baisses (La Croix et L’Humanité) sont également ceux dont la plus grande partie des ventes se fait par abonnement.

Côté numérique, la presse nationale et celle qui s’adapte le mieux, notamment Le Monde.

En décembre 2019, 65% du lectorat payant du Monde est composé d’abonnés numériques. Le journal du soir avait franchi le cap des 50% au printemps 2018. Des titres comme La Croix (23%) ou L’Humanité (17%) sont en revanche plus en retard.

 

Sur le plan financier, la presse voit ses recettes fondre année après année. Les recettes publicitaires de la presse quotidienne nationale représentent 60 % des revenus (660 M€) en 2000. En 2018, elles ne représentent plus que 34 % des revenus (180 M€)

Pour la presse quotidienne régionale, on constate le même phénomène que pour la presse nationale avec une forte baisse, pour ceux dont la vente se fait le plus en kiosque.

La chute est plus marquée pour le Parisien a perdu 31 % de ses ventes papier en 4 ans, et pour Sud-Ouest qui chute de 21 %.

La presse source d’info en tête !!!!

 

 

 

La presse source d’info en tête !!!!

Dans l’Hexagone, une étude avait démontré que la télévision était et de loin le principal vecteur d’information. Une autre étude diffusée par le Figaro aujourd’hui montre cependant la presse serait le support le plus utilisé.  89 % des Français considéreraient que la presse a un rôle utile. De la à croire que la presse joue un rôle dominant il y a un pas que les grands médias écrits n’hésitent pas à franchir.

 

Cette nouvelle étude affirme que La presse est considérée à 59 % comme la source d’information la plus fiable, loin devant la radio (19 %), internet (13 %) et la télévision (9 %).

Or une autre étude conduite par Kandar et concernant tous les médias montret que la radio, avec 52% des Français est média perçu comme le plus crédible, devant le journal (48%) et la télévision (42%).

L’indépendance perçue des journalistes reste critique. Pour 63% (-5 points par rapport à 2020) des Français, les journalistes ne résistent pas aux pressions politiques tandis que 59% (-2 points) estiment qu’ils ne résistent pas aux pressions de l’argent. Si ces chiffres hauts témoignent d’une méfiance sur l’indépendance des journalistes, ils enregistrent une baisse pour la deuxième année consécutive et montrent donc une légère amélioration de l’image d’indépendance des journalistes.

Sur les réseaux sociaux, la crédibilité des informations partagées par les médias divise : 37% des Français ont confiance dans les informations diffusées sur les réseaux sociaux par un site d’information, un média de la presse écrite ou audiovisuelle (contre 47% qui n’ont pas confiance). Si ce chiffre témoigne d’une méfiance, il reste plus élevé que la confiance dans les informations publiées par un « ami » (19% seulement des Français font confiance à ces informations). Ces deux chiffres témoignent donc que la confiance dans les informations diffusées sur les réseaux sociaux est faible.

La télévision reste la première source d’information, mais est de plus en plus talonnée par Internet, massivement utilisé par les jeunes.

Dans l’ensemble, la télévision reste le premier moyen d’information des Français (46% sont d’abord informés par ce moyen). Néanmoins, le recours à la télévision comme moyen d’information principal est en légère baisse : – 2 points. A l’inverse, Internet semble prendre une importance de plus en plus grande : 34% des Français déclarent que c’est leur principal moyen d’information (+2 points par rapport à 2020), avec une hausse importante en 6 ans : + 12 points.

La presse source d’info numéro un ?

La presse source d’info numéro un ?

Dans l’Hexagone, une étude avait démontré que la télévision était et de loin le principal vecteur d’information. Une autre étude diffusée par le Figaro aujourd’hui montre cependant la presse serait le support le plus utilisé. Le Figaro serait notamment en tête mais toucherait surtout les lecteurs à fort pouvoir d’achat.

 

Cette nouvelle étude affirme que La presse est considérée à 59 % comme la source d’information la plus fiable, loin devant la radio (19 %), internet (13 %) et la télévision (9 %). Les informations trouvées dans la presse sont également jugées «plus complètes» à 66 % par les dirigeants des entreprises de 500 salariés et plus. Aux yeux de ces décideurs professionnels et foyers aisés, les journaux et les sites d’informations en ligne se positionnent également comme le premier média pour «la confiance dans les messages publicitaires»«34 % des sondés déclarent que la publicité présente dans la presse éclaire leurs choix de consommation, contre 25 % pour la télévision, 17 % pour les réseaux sociaux et 9 % pour la radio», précise Amélie Benisty.

Il est clair que selon les couches sociales, le rapport aux médias et différents. On comprendra que le Figaro puisse être en tête dans le lectorat cadre et assimilés et que la télévision demeure quand même le support le plus populaire pour l’ensemble des Français

 

La forêt amazonienne désormais source de CO2 !

D’après une information de France Info qui se fonde sur une étude de la revue nature, en raison du changement climatique et de la déforestation, une grande partie du bassin de l’Amazonie émet désormais du CO2 au lieu d’en absorber, une transformation majeure pour cet écosystème crucial dans la limitation du réchauffement, selon une étude publiée mercredi.

Lors des cinquante dernières années, les plantes et les sols ont absorbé plus d’un quart des émissions de CO2, même quand ces émissions ont augmenté de 50%.

« La déforestation et la dégradation de la forêt réduisent les capacités de l’Amazonie à agir comme puits de carbone », écrivent les auteurs. Parmi les causes de cette dégradation, les forêts brûlées pour faire place à l’élevage et à l’agriculture.

Le changement climatique est également un facteur clé: les températures pendant la saison sèche ont gagné près de 3°C par rapport à l’ère pré-industrielle, soit près de trois fois plus que la moyenne mondiale.

La combinaison de tous ces facteurs « remet en cause la capacité des forêts tropicales à séquestrer à l’avenir de larges volumes de CO2 dérivé des énergies fossiles », note Scott Denning, de l’université du Colorado, dans un commentaire publié également dans Nature.

Une protection l’eau à la source préférable au traitement

Une protection l’eau à la source préférable au traitement

 

On  retrouve des substances chimiques de plus en plus nombreuses en quantité infinitésimale dans les eaux traitées, cela démontre à l’évidence qu’il serait préférable de protéger l’eau à la source plutôt que de la traiter. ( On peut ainsi utiliser l’eau traitée comme indicateur de propagation d’une maladie virale!).

Selon des associations qui soutiennent un projet à Rennes, la qualité de l’eau en Ille-et-Vilaine est «catastrophique»: «à peine 2% des masses d’eau sont conformes aux normes européennes», affirment-elles.

En cause notamment, «la multiplication des substances chimiques présentes en doses infinitésimales», en particulier les métabolites qui sont issus de leur dégradation. Ces substances «ne sont pas recherchées dans les analyses de l’eau» bien qu’elles soient susceptibles de produire le fameux «effet cocktail» sur la santé, affirme Étienne Dervieux, du Criigen (Comité de Recherche et d’Information Indépendantes sur le génie Génétique).

Le bassin versant de la Chèze-Canut, qui représente 20% de la ressource en eau de l’agglomération rennaise, présente l’avantage d’être de petite taille: un espace rural de 6.300 ha, où sont installés une centaine d’agriculteurs.

Le projet d’expérimentation comprend plusieurs axes: l’arrêt de l’utilisation des pesticides, une «transition agricole forte» pour passer des cultures de maïs et céréales majoritaires à une agriculture et de l’élevage biologiques, la restauration des milieux aquatiques et du paysage, notamment en reconstruisant les talus et les haies bocagères disparus afin de réduire l’érosion des sols et de filtrer l’eau.

Sondage prélèvement à la source : succès pour 63% des Français

Sondage  prélèvement à la source : succès pour 63% des Français

En dépit des appréhensions légitimes, le prélèvement à la source a été bien accueilli. D’après  un sondage Odoxa-Dentsu Consulting pour franceinfo et le Figaro publié jeudi plus  de six Français sur dix (63%) estiment que la réforme du prélèvement à la source de l’impôt est globalement un succès. Pour une large majorité de sondés (81%), le prélèvement de l’impôt à la source instauré au premier janvier, s’est “bien passé” dans leur foyer. Quelque 56% des personnes interrogées estiment cependant que la mesure a alourdi la charge de travail des entreprises, 50% pensent qu’elle a “remis en cause la confidentialité des données fiscales et de la vie privée de nombreux Français». La moitié des sondés disent avoir une meilleure idée de leur pouvoir d’achat réel et moins d’un tiers (30%) estiment qu’il y a eu beaucoup d’erreurs de la part des entreprises ou de l’administration fiscale. L’enquête a été réalisée en ligne les 27 et 28 mars auprès d’un échantillon représentatif de 1.003 Français.

Prélèvement à la source : la nouvelle bombe sociale ?

  • Prélèvement à la source : la nouvelle bombe sociale ?

Darmanin  le ministre du budget tente de rassurer l’opinion publique à propos du prélèvement à la source. Il est clair qu’un nouveau mécontentement s’ajoutant à celui des gilets jaunes serait susceptible de faire sauter un ministre qui ne s’est pas caractérisé par une grande maturité et un grand charisme. D’une certaine manière,  cette réforme tombe assez mal sur le plan temporel,  juste au moment où ne cesse de monter les revendications sur le pouvoir d’achat. Certes globalement ce prélèvement ne devrait pas modifier le niveau des revenus mais en amputant immédiatement le salaire chaque mois il pourrait donner l’impression d’un revenu salarial en baisse. En outre il y  aura des surprises compte tenu  des conditions différentes d’imposition de chacun des foyers. Accessoirement la question se pose de savoir si c’était bien aux entreprises de procéder à cette réforme en tout cas d’en être le bras armé. Puisqu’il s’agit de transactions financières on peut penser que la responsabilité aurait pu en incomber aux banques qui reçoivent ces salaires. Le ministre de l’Action et des comptes publics assure dans un entretien au Journal du dimanche que le Trésor public est prêt, que les Français le sont aussi et qu’aucun effet négatif n’est à craindre. Extraits.

A quelques jours de sa mise en œuvre, l’inquiétude semble persister sur le prélèvement à la source. N’avez-vous pas réussi à rassurer les Français?
Je crois que si. Tous les sondages montrent depuis des mois que deux tiers des Français et même sept personnes imposables sur dix approuvent cette réforme, qui est une grande mesure de simplification. Payer son impôt sur le revenu que l’on touche au moment où on le touche, et non plus sur les revenus de l’année passée, c’est à la fois plus juste et plus efficace. C’est ce que la plupart des autres pays ont fait avant nous. Je suis très confiant dans la capacité des services fiscaux à mettre en œuvre ce nouveau système, et dans la capacité de nos concitoyens à l’accepter.…

 

 

Impôt à la source : double piège

Impôt à la source : double piège

 

Un double piège. Dabord pour les contribuables qui vont voir brutalement diminuer leur salaire net. Ainsi ce sera de l’ordre de 100 euros en moins pour un salaire moyen de 1200 euros ; Une baisse palpable et qui en plus va faire apparaître des différences de rémunération nette entre salariés ; Un piège aussi pour l’économie. Le salaire moyen est de l’ordre de 1750 € nets en France sur lesquels toujours en moyenne seront perçus de l’ordre de 150 € au titre du prélèvement à la source. Un véritable choc qui va affecter immédiatement la consommation pour les salaires très moyens encore davantage ceux qui sont en dessous. Une somme de 100 à 150 € en moins sur le salaire se traduira pour la plupart par moins de dépenses ajustables sur la consommation.  La conséquence sera un plongeon de la consommation des ménages dès le début de l’année 2019 alors que déjà on prévoit une croissance qui se tassera comme en 2018, autours 1,5 %. Pourtant  en apparence, ce serait une  bonne réforme et ce serait même souhaité par les Français. Principal argument cela étale dans le temps le poids des prélèvements, second argument cela évite d’être imposé sur des revenus de référence passés alors que les revenus présents peuvent avoir diminué. Des arguments pertinents. Mais cette retenue à la source présente aussi de nombreux inconvénients. Cela n’aurait d’intérêt que dans le cadre d’une  grande réforme fiscale (en intégrant notamment la CSG ce qui élargirait l’assiette.). Le danger aussi  c’est que le patron tienne compte du revenu fiscal pour adapter le niveau des salaires entre salariés. Le danger c’est qu’on en profit pour augmenter discrètement l’impôt en le rendant plus indolore. Le danger c’est que cette réforme ne constitue en fait qu’un gadget et se limite à un prélèvement mensuel sans réforme fiscale. Une  réforme inutile puisque près de 70% des imposables sont déjà mensualisés. Selon la définition de l’Insee, le prélèvement à la source correspond à «un mode de recouvrement de l’impôt consistant à faire prélever son montant par un tiers payeur, le plus souvent l’employeur ou le banquier, au moment du versement au contribuable des revenus sur lesquels porte l’impôt». Ainsi, plus aucun impôt ne serait prélevé une fois le salaire net touché. Une simplification ? Pas sûr car. Selon le Conseil des prélèvements obligatoires (CPO), les démarches pour le calcul de l’impôt dépendent de la complexité de l’impôt et non pas de son mode de paiement. 

 

 

Impôt à la source : piège à cons ?

Impôt à la source : piège à cons ?

 

Le gouvernement a donc décidé de mettre en œuvre à partir du 1er janvier 2019 l’impôt à la source. En apparence ce serait une  bonne réforme et ce serait même souhaité par les Français. Principal argument cela étale dans le temps le poids des prélèvements, second argument cela évite d’être imposé sur des revenus de référence passés alors que les revenus présents peuvent avoir diminué. Des arguments pertinents. Mais cette retenue à la source présente aussi de nombreux inconvénients. Cela n’aurait d’intérêt que dans le cadre d’une  grande réforme fiscale (en intégrant notamment la CSG ce qui élargirait l’assiette.). Le danger aussi  c’est que le patron tienne compte du revenu fiscal pour adapter le niveau des salaires entre salariés. Le danger c’est qu’on en profit pour augmenter discrètement l’impôt en le rendant plus indolore. Le danger c’est que cette réforme ne constitue en fait qu’un gadget et se limite à un prélèvement mensuel sans réforme fiscale. Une  réforme inutile puisque près de 70% des imposables sont déjà mensualisés. Selon la définition de l’Insee, le prélèvement à la source correspond à «un mode de recouvrement de l’impôt consistant à faire prélever son montant par un tiers payeur, le plus souvent l’employeur ou le banquier, au moment du versement au contribuable des revenus sur lesquels porte l’impôt». Ainsi, plus aucun impôt ne serait prélevé une fois le salaire net touché. Qu’est-ce que cela change concrètement pour le particulier? Entre la dématérialisation, la feuille pré-remplie et la mensualisation, l’administration fiscale a déjà facilité la tâche au contribuable. Selon le Conseil des prélèvements obligatoires (CPO), les démarches pour le calcul de l’impôt dépendent de la complexité de l’impôt et non pas de son mode de paiement. 

 

L’échec de l’impôt à la source : Marc Bidan

L’échec de l’impôt à la source : Marc Bidan

Par Marc Bidan,  Professeur des Universités – Management des systèmes d’information – Polytech Nantes, Université de Nantes

« Il s’agit ici d’aborder les raisons de l’échec annoncé du déploiement du projet de prélèvement de l’impôt à la source en France. Concrètement, il s’agirait dans un premier temps d’un report plutôt que d’un abandon ou d’un arrêt.

À ce propos, l’entrevue programmée ce mardi 4 septembre à Paris afin que G. Darmanin apporte « des réponses claires » au premier ministre et au président de la République signera probablement la fin du cafouillage médiatique. Elle signera aussi a minima le report de cette réforme de l’impôt sur le revenu (IR) juste avant le conseil des ministres réunissant le nouveau gouvernement avec le ou la remplaçant·e de Nicolas Hulot.

Un préambule sur la nature du changement envisagé

Comme souvent dans le cas de vastes projets publics ou privés, présentés un peu rapidement comme simplement informatiques ou techniques, les enjeux et les défis dépassent largement ce périmètre opérationnel pour devenir organisationnels, économiques, sociaux, contextuels et politiques. Il s’agit de bien appréhender la transformation organisationnelle déclenchée en partie par la transformation informatique.

C’est le cas de ce projet de prélèvement de l’impôt à la source – par l’employeur pour le fisc – qui se devait de remplacer l’acquittement de l’impôt – par le contribuable pour le fisc – en vigueur dans sa forme actuelle depuis de nombreuses années. Cette inversion de la logique du règlement de l’impôt n’est certes pas anodine. D’une part sur le fond une implication volontaire (l’acquittement de l’impôt par le contribuable) est remplacée par un acte subit (le prélèvement de l’impôt par le fisc) et d’autre part sur la forme l’arrivée d’un tiers (l’employeur) implique la délicate interconnexion puis interopérabilité de son (ou ses) système d’information avec celui (ou ceux) du fisc.

Notons également que cette dématérialisation de l’acte, cette mécanisation du paiement et in fine cette déresponsabilisation du contribuable prélevé sont également des questions importantes liées à cette réforme. Cela peut renvoyer à l’interrogation sur des Français qui seraient (ou pas) « pschychologiquement prêt » évoquée par le ministre G. Darmanin le 1 9 2018.

Néanmoins, nous n’aborderons ici que les facteurs qui ont pu condamner, une Nième fois en France, le projet de prélèvement à la source sans entrer dans les débats sur la pertinence même de ce choix particulier de collecte de l’impôt. En effet, face à de tels projets qui ne sont certes pas uniquement informatiques, nous pouvons insister sur trois autres types de facteurs à l’origine du (futur) report.

Des facteurs informatiques

Face à de tels projets informatiques complexes dont le périmètre est vaste, la nature est sensible et dont les aspects sont à la fois techniques, juridiques, humains et organisationnels, les risques d’échec ne sont pas négligeables. Si nous évoquons bien là un certain type de bug, c’est surtout au sens d’une non-conformité entre ce qui est souhaité (théoriquement) par le concepteur et porteur du projet (l’état, le fisc) et ce qui est constaté (réellement) par le client final (le contribuable).

Ce type de bugs, de non-conformité et/ou de dysfonctionnement opérationnels s’expliquent en général par une double complexité qui peut parfois mener à l’échec. De plus, dans le cas de cette réforme, cet effet ciseau est renforcé par une difficulté logique – qui nous différencie de nos voisins européens – celle d’un calcul à effectuer par contribuable (individu) et non plus par foyer fiscal (famille).

Dans un premier temps, à la suite des problèmes de fond liés à la conception, à l’architecture et au schéma directeur même du système d’information (SI) qui ont du être correctement pensés et pilotés par Bercy depuis ces derniers mois, il est fréquent de clairement sous-estimer la difficulté opérationnelle à modéliser, à programmer, à paramétrer, à interconnecter et à intégrer les divers bases de données, logiciels, sous-systèmes et systèmes d’information (ici ceux de l’administration fiscale) avec ceux des autres acteurs impliqués qui peuvent être très différents (ici ceux des caisses de retraite, employeurs – grands comptes, PME, TPE… –, Urssaf et de très nombreux autres opérateurs).

Ainsi nous pouvons lister, les risques de bugs de type 1 concernant les montants prélevés (ex : plusieurs fois) et/ou de type 2 concernant les individus prélevés (ex : homonymie) et/ou encore les risques classiques liés à l’ambiguïté, aux doublons, aux aléas ou aux redondances (ex : foyer/individu/adresse) sont réels. De plus, ils sont massifs comme le souligne une note interne de la DGFiP parue ce dimanche et évoquant un effet « marée noire ». Enfin, ce type de processus d’intégration informationnelle est toujours complexe et repose sur trois phases délicates :

  1. homogénéisation et intégration des bases de données (avec le passage de la familiarisation à l’individualisation) ;
  2. standardisation et intégration applicative (des imposants ERP/PGI aux modestes suites bureautiques) ;
  3. urbanisation et intégration organisationnelle.

Dans un second temps, il est fréquent de surestimer les ressources (matérielles, financières et personnelles) mais aussi le temps et les données réellement disponibles pour déployer ce type de système d’information inter organisationnel (SIIO) à très large périmètre. L’histoire récente ne manque pas d’exemples de bugs et de désillusions à commencer par ce qui est arrivé lors du rapatriement du régime social des indépendants (RSI) dans le régime général ou depuis le déploiement du chaotique système intégré de paiement des soldes des militaires (Louvois).

En règle générale, même si l’expression et l’interprétation des besoins d’une organisation reste très délicate à rédiger, lors de l’intégration puis de la mise en œuvre de tels systèmes d’information inter-organisationnels, un maximum de 80 % du livrable final apparaît réellement conforme à ce qui avait spécifié dans le cahier des charges fonctionnel. Les 20 % restants ne sont ni testés ni validés et peuvent donc être à l’origine de dysfonctionnements d’autant plus lourds que les sous-systèmes d’origine étaient hétérogènes. Concernant l’IR, l’État peut-il risquer de se priver de 20 % de ses 75 milliards annuels de rentrées fiscales ?

Des facteurs économiques

Les dimensions économiques ne sont pas négligeables car les voyants ne sont plus – comme l’an passé – au vert. La croissance montre des signes de faiblesse, les taux d’intérêt remontent et le prix de l’énergie aussi (pétrole, gaz…). Il ne faudrait pas en plus mécontenter les offreurs – les entreprises – et faire douter les demandeurs – les contribuables – même si la moitié des foyers ne paient pas l’IR !

Du côté de l’offre, les entreprises ont clairement annoncé lors de leur récente université d’été qu’elles étaient défavorables à cette réforme (elles souhaitent un moratoire d’un an) car elles redoutent une bureaucratisation chronophage et complexe en devenant collecteur d’impôt. De plus, même si des dispositions ont déjà été prises en ce sens, elles refusent également une quelconque responsabilité juridique en cas d’éventuelles erreurs ou anomalies dans la collecte. Plus largement, les familles avec emplois à domicile (cas déjà reporté d’un an), les professions libérales, les petites et moyennes entreprises, les commerçants et artisans sont opposées à ce surcroît de travail et le font allègrement savoir.

D’autre part, du côté de la demande, les 16 millions de foyers fiscaux qui paient l’impôt sur le revenu restent partagés, moins de la moitié y sont favorables. Ils redoutent, notamment outre les classiques problématiques liées à la transparence et la confidentialité avec leur employeur, le fameux mois de janvier 2019 lorsqu’ils verront leur premier salaire net amputé par le prélèvement à la source. Cette perte de pouvoir d’achat perçue risque de se traduire immédiatement sur la consommation des ménages et la croissance globale risque d’être impactée. L’effet – couplé avec la baisse perçue du pouvoir d’achat des retraités et avec une épargne de précaution massive – serait catastrophique.

Économiquement, le calendrier n’est certes pas favorable…

Des facteurs contextuels

Rien ne presse. Cette réforme est dans les tuyaux de Berçy depuis longtemps. Un an de délai supplémentaire ne serait aucunement une catastrophe pour une réforme perçue – à tort – en cette rentrée dans la population française comme purement technocratique !

Elle est apparue en 1939 en France puis abandonnée. Elle réapparaît sous le gouvernement de M. Rocard, alors que celui-ci tentait de démocratiser la mensualisation. Puis cette réforme fut réactualisée et programmée sous la présidence de F Hollande avec E. Macron dans le gouvernement. Ce dernier en a hérité à son arrivée au pouvoir en 2017 sans jamais réellement en faire une réforme de premier plan.

Le calendrier ne plaide pas pour le déploiement dans l’urgence de cette réforme – de plus l’IR, avec la TVA, est l’un des impôts qui « rentre » le mieux – et un an de plus ou de moins ne serait aucunement une catastrophe !

Contextuellement non plus, la réforme ne semble pas opportune…

Et des facteurs politiques

Le président E. Macron est dans une situation fragilisée. Son été fut pollué par l’affaire A. Benala, sa rentrée est perturbée par la démission de N. Hulot, il serait bon que son hiver ne soit pas être gâché par les bugs, dysfonctionnements et autres couacs du déploiement raté du prélèvement à la source. La perception 1) d’une baisse du pouvoir d’achat et 2) d’un flottement politique et administratif ne ferait que renforcer une défiance qui gronde.

De plus, le président s’est promis de relancer son leadership européen (et celui de la France) et de contribuer à remporter les élections européennes à la tête du camp progressiste. Ce type de couacs serait catastrophique en France mais peut être aussi au niveau européen où sa crédibilité réformatrice serait amoindrie.

Enfin, en renonçant, donc en désavouant son ministre de l’Action et des Comptes publics et la haute administration qu’il dirige, le président pourrait se prévaloir d’un nouveau rôle… celui de protecteur des français et en particulier des contribuables. Il montrerait ainsi qu’il peut accepter de perdre de sa superbe et s’adapter à un contexte économico-politique moins favorable pour renoncer à un projet devenu anxiogène.

Politiquement, paradoxalement, un report pourrait être bienvenu…

Report, moratoire, abandon ou arrêt

Le sort de cette réforme semble scellé. Le report est probablement déjà acté et la question de son « arrêt », selon les mots du ministre en matinée le 1er septembre, est même clairement abordée. Un plan bis est déjà savamment livré en pâture à la réflexion des observateurs…

Il s’agirait d’une année 2018 qui resterait blanche, puis d’une année 2019 durant laquelle la mensualisation deviendrait obligatoire – mais calculée sur 12 mois et non plus sur 10 mois – puis d’une année 2020 durant laquelle le prélèvement à la source serait bien déployé mais serait effectué directement par le fisc lui-même sur les comptes bancaires des contribuables et non sur leur bulletin de salaire.

 

Cette perte de pouvoir d’achat ressenti comme tel risque de se traduire immédiatement sur la consommation des ménages et la croissance globale risque d’être impactée. L’effet – couplé avec la baisse perçue du pouvoir d’achat des retraités et avec une épargne de précaution massive – serait catastrophique.

Économiquement, le calendrier n’est certes pas favorable… 26 s

Des facteurs contextuels

Rien ne presse. Cette réforme est dans les tuyaux de Berçy depuis longtemps. Un an de délai supplémentaire ne serait aucunement une catastrophe pour une réforme perçue – à tort – en cette rentrée dans la population française comme purement technocratique !

Elle est apparue en 1939 en France puis abandonnée. Elle réapparaît sous le gouvernement de M. Rocard, alors que celui-ci tentait de démocratiser la mensualisation. Puis cette réforme fut réactualisée et programmée sous la présidence de F Hollande avec E. Macron dans le gouvernement. Ce dernier en a hérité à son arrivée au pouvoir en 2017 sans jamais réellement en faire une réforme de premier plan.

Le calendrier ne plaide pas pour le déploiement dans l’urgence de cette réforme – de plus l’IR, avec la TVA, est l’un des impôts qui « rentre » le mieux - et un an de plus ou de moins ne serait aucunement une catastrophe !

Contextuellement non plus, la réforme ne semble pas opportune…

Et des facteurs politiques

Le président E. Macron est dans une situation fragilisée. Son été fut pollué par l’affaire A. Benala, sa rentrée est perturbée par la démission de N. Hulot, il serait bon que son hiver ne soit pas être gâché par les bugs, dysfonctionnements et autres couacs du déploiement raté du prélèvement à la source. La perception 1) d’une baisse du pouvoir d’achat et 2) d’un flottement politique et administratif ne ferait que renforcer une défiance qui gronde.

De plus, le président s’est promis de relancer son leadership européen (et celui de la France) et de contribuer à remporter les élections européennes à la tête du camp progressiste. Ce type de couacs serait catastrophique en France mais peut être aussi au niveau européen où sa crédibilité réformatrice serait amoindrie.

Enfin, en renonçant, donc en désavouant son ministre de l’Action et des Comptes publics et la haute administration qu’il dirige, le président pourrait se prévaloir d’un nouveau rôle… celui de protecteur des français et en particulier des contribuables. Il montrerait ainsi qu’il peut accepter de perdre de sa superbe et s’adapter à un contexte économico-politique moins favorable pour renoncer à un projet devenu anxiogène.

Politiquement, paradoxalement, un report pourrait être bienvenu…

Report, moratoire, abandon ou arrêt

Le sort de cette réforme semble scellé. Le report est probablement déjà acté et la question de son « arrêt », selon les mots du ministre en matinée le 1er septembre, est même clairement abordée. Un plan bis est déjà savamment livré en pâture à la réflexion des observateurs…

Il s’agirait d’une année 2018 qui resterait blanche, puis d’une année 2019 durant laquelle la mensualisation deviendrait obligatoire – mais calculée sur 12 mois et non plus sur 10 mois – puis d’une année 2020 durant laquelle le prélèvement à la source serait bien déployé mais serait effectué directement par le fisc lui-même sur les comptes bancaires des contribuables et non sur leur bulletin de salaire.

_______

 Par Marc Bidan, Professeur des Universités – Management des systèmes d’information – Polytech Nantes, Université de Nantes

La version originale de cet article a été publiée sur The Conversation

L’impôt à la source : mise en œuvre, report ou abandon ?

L’impôt à la source : mise en œuvre, report ou abandon ?

 Finalement le gouvernement lui-même a instillé l’inquiétude sur le sort qui sera réservé au prélèvement à la source. Déjà reporté, ce prélèvement devait intervenir au 1er janvier mais pour des raisons davantage politiques que techniques le pouvoir se demande s’il est bien opportun de créer une nouvelle source de mécontentement chez les salariés. En outre, les entreprises sont fondamentalement contre d’avoir à se situé à l’administration fiscale. La grande peur,  c’est que les salariés qui contrairement aux entreprises résonnent en net sur le salaire constatent une brutale diminution de la rémunération de 100 euros en moyenne hors le pouvoir d’achat des Français a déjà subi une perte 0,6 % au premier semestre, elle pourrait atteindre 1 % d’ici la fin2018 avec la reprise de l’inflation. Paradoxalement les Français sont pour la mise en œuvre de cette réforme à hauteur de 64 % des intéressés. Mais le sentiment des Français n’intègre sans doute pas encore l’effet psychologique d’une baisse sensible de la feuille de paye en net. Pas étonnant que le gouvernement s’interroge non pas tellement sur des questions techniques (type bug)) mais sur l’opportunité politique et sociale de la mise en œuvre d’une telle réforme qui n’est pas sans danger.

Sondage prélèvement à la source : le gouvernement pris au piège

Sondage prélèvement à la source : le gouvernement pris au piège

En reprenant à son compte le prélèvement à la source initiée par François Hollande, le gouvernement s’est mis lui-même dans un double piège. Si Macron renonce à cette réforme, il sera accusé d’avoir cédé aux pressions du patronat hostile à cette cathédrale administrative. On lui reprochera également d’avoir craint la réaction négative de salariés lorsqu’ils se rendront compte que le salaire qu’ils touchent concrètement sur la feuille de paye a diminué de manière significative. D’un autre côté,  le gouvernement doit tenir compte de l’avis des Français qui aujourd’hui favorables à hauteur de 60 % pour la mise en place de la réforme d’après un sondage Ifop.  Un renoncement du gouvernement serait interprété comme un recul  politique pour ne pas aggraver la chute de popularité du président de la république. De toute manière, le gouvernement devra payer le prix de ces hésitations qui vient un peu plus alimenter un contexte d’incertitude quant à l’efficacité de la politique économique du gouvernement ; une politique économique dont 70 % des Français pensent qu’elle est à la fois inefficace et injuste. Un des problèmes du prélèvement à la source c’est qu’il se situe dans une période le pouvoir d’achat recul. Au cours du premier semestre en moyenne ce pouvoir d’achat aura déjà diminué de 0.7% %. Pour l’ensemble de l’année l’inflation qui repart devrait atteindre environ 2,3 %, c’est-à-dire bien au-delà de l’augmentation réelle pouvoir achat sans parler des prestations qui,  en euros constants vont diminuer comme les pensions ou les allocations familiales. Du coup la ponction automatique de l’impôt sur le revenu sur la feuille de paye amplifiait le sentiment d’une nette amputation du pouvoir d’achat avec des conséquences négatives sur la consommation des ménages principal moteur d’une croissance qui s’essouffle déjà nettement. D’après l’IFOP, 60% des Français sont favorables au prélèvement à la source de l’impôt sur le revenu.  à partir du 1er janvier 2019. Ce chiffre monte à 66% lorsqu’on isole les seuls assujettis à l’impôt sur le revenu. Même si Emmanuel Macron a déclaré cette semaine qu’il attendait des « réponses précises » avant de décider si la réforme entrera en vigueur dès l’année prochaine, les Français pensent à 60% que ce sera le cas.

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol