Archive pour le Tag 'qualité'

La qualité des données financières de long terme

La qualité des données financières de long terme


Quand les « données alternatives » compromettent la qualité des prévisions à long terme des analystes financiers ( dans The Conversation)

par
Thierry Foucault
Professeur de Finance, HEC Paris Business School

À rebours de ce que l’on pourrait croire, la multiplication des données n’améliore pas mécaniquement la qualité des prévisions. Cela se vérifie pour l’analyse financière, un savoir-faire clé qui influence l’évolution des marchés. Les nouvelles plateformes comme Stockwits ont des effets ambigus sur la qualité des prévisions.

Depuis le début du siècle, le nombre de satellites en orbite autour de la Terre a explosé de plus de 800 %, passant de moins de 1 000 à plus de 9 000. Cette prolifération entraîne des dérives étonnantes, et parfois inquiétantes. Exemple parmi d’autres : certaines entreprises vendent aux analystes financiers des images satellites de parkings. Ces derniers s’en servent pour évaluer la fréquentation des magasins, comparer les enseignes entre elles et estimer leur chiffre d’affaires.

Ce n’est là qu’un exemple des nouvelles informations, ou « données alternatives », désormais à la disposition des analystes pour les aider à prédire les performances boursières futures. Auparavant, les analystes fondaient leurs prévisions sur les seuls états financiers publics des entreprises.

D’après nos recherches, la multiplication de ces nouvelles sources de données améliore les prévisions à court terme, mais détériore l’analyse à long terme – un déséquilibre aux conséquences potentiellement majeures.

Tweets, messages sur les réseaux sociaux et données de cartes bancaires
Dans une étude consacrée à l’impact des données alternatives sur les prévisions financières, nous avons recensé plus de 500 entreprises qui en vendaient en 2017 – contre moins de 50 en 1996. Aujourd’hui, le courtier en données Datarade propose plus de 3 000 jeux de données alternatives à la vente.

En plus des images satellites, de nouvelles sources d’information incluent Google, les statistiques issues des cartes de crédit et les réseaux sociaux comme X ou Stocktwits – une plateforme populaire de type X où les investisseurs partagent leurs analyses du marché.

Sur Stocktwits, par exemple, les utilisateurs publient des graphiques illustrant l’évolution du cours d’une action (comme celle d’Apple) accompagnés de commentaires expliquant pourquoi cette tendance augure, selon eux, d’une hausse ou d’une baisse. Ils évoquent aussi le lancement de nouveaux produits et précisent si cela les rend optimistes (ou pessimistes quant à l’évolution de l’action de l’entreprise.

En nous appuyant sur les données du système I/B/E/S (Institutional Brokers’ Estimate System) et sur des analyses de régression, nous avons évalué la qualité de 65 millions de prévisions réalisées par des analystes financiers entre 1983 et 2017, en comparant leurs anticipations aux bénéfices par action effectivement réalisés par les entreprises.

Comme d’autres chercheurs avant nous, nous avons constaté que la multiplication des données disponibles explique en partie pourquoi les analystes financiers sont devenus de plus en plus performants dans leurs prévisions à court terme. Mais nous avons poussé l’analyse plus loin, en nous demandant quel était l’impact de ces données alternatives sur les prévisions à long terme. Résultat : sur la même période où la précision des prévisions à court terme s’est améliorée, la fiabilité des projections à long terme, elle, a reculé.

Plus de données, mais une attention limitée
En raison de sa nature, la donnée alternative – c’est-à-dire une information en temps réel sur les entreprises – s’avère surtout utile pour les prévisions à court terme. Les analyses à plus long terme, sur un horizon d’un à cinq ans, relèvent en revanche d’un exercice de jugement bien plus exigeant.

Des travaux antérieurs ont confirmé ce que le bon sens laissait entendre : les analystes disposent d’une capacité d’attention limitée. Lorsqu’ils doivent suivre un large portefeuille d’entreprises, leur concentration se disperse et leurs performances commencent à décroître.

Nous avons voulu savoir si la progression de la précision des prévisions à court terme, parallèlement à la dégradation des prévisions à long terme – telles que nous les avions constatées dans notre analyse des données I/B/E/S – pouvait s’expliquer par la prolifération concomitante de sources alternatives d’information financière.

Pour explorer cette hypothèse, nous avons analysé l’ensemble des discussions portant sur des actions publiées sur Stocktwits entre 2009 et 2017. Sans surprise, certaines entreprises comme Apple, Google ou Walmart ont suscité un volume bien plus important d’échanges que des sociétés de plus petite taille, parfois même non cotées sur le Nasdaq.

Nous avons émis l’hypothèse que les analystes suivant des actions largement commentées sur la plateforme – et donc exposés à une forte densité de données alternatives – verraient la qualité de leurs prévisions à long terme décliner plus fortement que ceux couvrant des titres peu discutés. C’est précisément ce que nous avons constaté après avoir contrôlé des variables telles que la taille des entreprises, leur ancienneté ou leur croissance des ventes.

Nous en avons déduit que, bénéficiant d’un accès facilité à des informations utiles pour l’analyse à court terme, les analystes concentraient leurs efforts sur ce type de prévisions – au détriment de l’attention consacrée aux projections à long terme.

Les conséquences plus larges d’une mauvaise prévision à long terme
Les conséquences de cette surabondance de données alternatives pourraient être considérables. Lorsqu’ils évaluent la valeur d’une action, les investisseurs doivent prendre en compte à la fois les prévisions à court terme et celles à long terme. Si la qualité des prévisions à long terme se détériore, il y a de fortes chances que les prix des actions ne reflètent plus fidèlement la valeur réelle des entreprises.

Par ailleurs, une entreprise souhaite généralement que la valeur de ses décisions se reflète dans le cours de son action. Mais si les décisions à long terme sont mal intégrées par les analystes, elle pourrait être moins encline à investir dans des projets dont les retombées ne se matérialiseront que dans plusieurs années.

Dans l’industrie minière, par exemple, construire une nouvelle mine prend du temps. Il faut parfois neuf ou dix ans avant qu’un investissement commence à générer des flux de trésorerie. Les entreprises pourraient être moins enclines à engager de tels investissements si, par exemple, leurs actions risquent d’être sous-évaluées, parce que les acteurs du marché disposent de prévisions moins précises sur les effets de ces investissements à long terme sur les flux de trésorerie – un sujet que nous explorons dans un autre article en cours de rédaction.

L’exemple des investissements dans la réduction des émissions de carbone est encore plus préoccupant. Ce type d’investissement ne produit généralement des bénéfices qu’à long terme, à un moment où le réchauffement climatique sera un enjeu encore plus critique. Les entreprises pourraient être moins incitées à les réaliser si la valeur de ces investissements n’est pas rapidement intégrée dans leur valorisation.

Applications concrètes
Les résultats de notre recherche suggèrent qu’il serait judicieux, pour les entreprises financières, de séparer les équipes chargées des prévisions à court terme de celles dédiées aux projections à long terme. Cela permettrait d’éviter qu’un même analyste ou qu’une seule équipe soit submergée par des données utiles au court terme tout en devant simultanément évaluer des perspectives à plusieurs années. Nos conclusions présentent également un intérêt pour les investisseurs en quête de bonnes affaires : si les prévisions à long terme perdent en qualité, cela peut ouvrir des opportunités à ceux capables de repérer des entreprises sous-évaluées.

JO – pollution de la Seine: : la qualité de l’eau suspectée

JO – pollution de la Seine:   : la qualité de l’eau suspectée

  Selon les informations du quotidien belge De Standaard , Claire Michel est hospitalisée depuis quatre jours. La triathlète belge serait infectée par la bactérie E.Coli, qui provoque notamment des problèmes gastriques, depuis sa baignade dans la Seine. La presse belge est très critique sur la qualité de l’eau. «Le COIB et Belgian Triathlon espèrent que les leçons seront tirées pour les prochaines compétitions de triathlon aux Jeux Olympiques. Nous pensons ici à la garantie des jours d’entraînement, des jours de compétition et du format des compétitions qui doit être clarifié à l’avance et faire en sorte qu’il n’y ait pas d’incertitude pour les athlètes, l’entourage et les supporters.»
Si l’on se fie simplement à sa couleur , l’eau de la Seine paraît effectivement assez douteuse et les résultats des tests bactériologiques interrogent.

Qualité de l’eau de la Seine : zone assez grise !

Qualité de l’eau de la Seine : zone assez grise !

 

Il n’y a pas eu d’amélioration miracle de la qualité de l’eau de la Seine même si le triathlon a pu s’y dérouler.  Si les organisateurs n’ont pas publié les données officielles, des mesures réalisées par une start-up française révèlent cependant une qualité de l’eau en dessous des seuils optimums espérés par la fédération internationale.

World Triathlon vise une qualité de l’eau bonne ou excellente, avec des niveaux en E. coli inférieurs à 500/100 ml d’eau. A l’inverse, la zone de baignade est jugée de mauvaise qualité si les concentrations dépassent un seuil de 1 000/100 ml.

D’après les analyses en laboratoire publiées par Fluidion, cette limite a été dépassée, lundi, avec des concentrations en E. coli de 1 553/100 ml. En revanche, les analyses effectuées mardi passent bel et bien en dessous du seuil réglementaire, avec un résultat de 687/100 ml, soit une contamination bactériologique de l’eau divisée par plus de deux en 24 heures.

Malgré tout, cette amélioration notable reste tout juste passable, d’après le règlement de World Triathlon. Lorsque les concentrations en E. coli sont comprises entre 500 et 1 000, la qualité de l’eau peut être classée comme moyenne ou bonne, en fonction d’autres critères, tels que l’apparence de l’eau ou les conditions météo.

France-Eaux en bouteille: contrôle de qualité critiqué par Bruxelles

Santé-Eaux en bouteille: contrôle de qualité critiqué par Bruxelles

Le système mis en place par la France pour contrôler les eaux en bouteille est entaché de «sérieuses lacunes» et ne permet pas de garantir l’absence de produits frauduleux dans les rayons, a estimé la Commission européenne dans un audit publié mercredi. Bruxelles avait engagé cette procédure après des informations de presse évoquant en janvier de possibles infractions dans le secteur des eaux minérales naturelles, et a organisé une mission d’une dizaine de jours en mars.

Selon ses conclusions, il existe bien en France un système de contrôle des eaux minérales naturelles et des eaux de source doté de procédures et de capacités de tests en laboratoire adéquates. Mais «dans son ensemble, le système de contrôle officiel ne vérifie pas efficacement que les eaux minérales naturelles mises sur le marché satisfont aux exigences légales en vigueur», estime l’audit. Le système «n’est pas conçu pour détecter ou atténuer les fraudes dans le secteur des eaux minérales naturelles et des eaux de source et n’est pas non plus correctement mis en œuvre, ce qui rend possible la présence sur le marché de produits non conformes et potentiellement frauduleux», est-il ajouté.

Une filiale française du géant suisse de l’agroalimentaire Nestlé- qui puise en France l’eau des marques Perrier, Vittel, Hépar et Contrex – avait reconnu fin janvier avoir eu recours à des traitements de désinfection interdits (lampe UV, charbon actif) sur les eaux minérales pour maintenir leur «sécurité alimentaire». Une enquête préliminaire pour tromperie a été ouverte par le parquet d’Epinal à l’encontre de Nestlé Waters.

Le groupe Alma, qui produit une trentaine de marques d’eaux en bouteilles en France dont Cristaline, Saint-Yorre et Vichy Célestins, fait aussi l’objet d’une procédure judiciaire pour des raisons similaires. L’association de consommateurs Foodwatch, qui a porté plainte contre Nestlé, Sources Alma mais aussi le gouvernement qu’elle accuse de «complaisance», a estimé dans un communiqué mercredi que l’audit «confirme ce qu’elle dénonce à chaque scandale: opacité pour les consommateurs et consommatrices, manque de contrôles des autorités et impunité pour les multinationales».

Inquiétudes sur la qualité de l’eau

Inquiétudes sur  la qualité de l’eau

Une très grosse majorité des Français se satisfont de l’eau du robinet mais s’interroge sur sa qualité. Selon le baromètre Kantar pour le Centre d’information sur l’eau 2023, 66 % des Français ne boivent que de l’eau du robinet mais les Français ne sont plus que 78 % à avoir confiance dans celle du robinet, contre 85 % en 2022.

 Malgré un repli significatif, l’eau du robinet inspire toujours confiance à près de 8 Français sur 10, selon le dernier baromètre Kantar pour le Centre d’information sur l’eau. À leur table, l’eau du robinet l’emporte : 66 % en boivent tous les jours, tandis que 48 % en consomment en bouteille quotidiennement et 72 % alternent.

Pourquoi cette érosion dans le taux de confiance des citoyens, qui est passé de 85 % en 2022 à 78 % l’an dernier ? Si les retraités demeurent très sereins, les plus jeunes, les 25-44 ans, se disent plus inquiets. « Près des trois quarts des Français sont convaincus que les ressources en eau sont polluées, une proportion en légère augmentation, fait-on remarquer au Centre d’information sur l’eau. Cette baisse dans l’appréciation de la qualité de l’eau du robinet se nourrit notamment des interrogations qui ont été constatées pour l’eau en bouteille.

 

Santé-La qualité sanitaire d’ eaux minérales en cause

La qualité sanitaire d’ eaux minérales en cause

Des bactéries, des micropolluants et des contrôles insuffisants : la qualité sanitaire des eaux du groupe Nestlé (propriétaire des marques Contrex, Hépar, Perrier ou Vittel, n’est pas garantie, selon une note de l’Anses remise au ministère de la Santé en octobre dernier et révélée ce jeudi 4 avril par Franceinfo et Le Monde .

L’analyse, conduite par le laboratoire d’hydrologie de Nancy à la demande des ARS Grand Est et Occitanie, où sont situées des sources et points de captage de Nestlé, a relevé «un niveau de confiance insuffisant concernant l’évaluation de la qualité des ressources notamment en ce qui concerne la variabilité des contaminations et leur vulnérabilité microbiologique et chimique».

Les experts évoquent de «multiples constats de contaminations d’origine fécale», avec des bactéries coliformes, Escherichia coli ou entérocoques dans les eaux brutes, mais aussi la «présence chronique notable de micropolluants». Ils ont notamment trouvé dans ces eaux en bouteille des PFAS, dits «polluants éternels», qui dépassaient sur certaines sources le seuil de 0,1 microgramme par litre autorisé pour l’eau minérale naturelle.

 

Mis en cause , Nestlé tente de rassurer. Le géant de l’agroalimentaire, propriétaire des eaux en bouteille Vittel, Perrier, Contrex et Hépar, a affirmé vendredi à l’AFP avoir « intensifié la surveillance » de ses forages français « sous le contrôle des autorités » pour garantir la qualité sanitaire de ses produits.

« On a intensifié la surveillance des forages sous le contrôle des autorités » et « chaque bouteille qui sort de nos sites peut être bue par les consommateurs en toute sécurité », a déclaré la présidente de Nestlé France, Muriel Lienau, dans un entretien avec l’AFP.

La qualité sanitaire d’ eaux minérales en cause

La qualité sanitaire d’ eaux minérales en cause

Des bactéries, des micropolluants et des contrôles insuffisants : la qualité sanitaire des eaux du groupe Nestlé (propriétaire des marques Contrex, Hépar, Perrier ou Vittel, n’est pas garantie, selon une note de l’Anses remise au ministère de la Santé en octobre dernier et révélée ce jeudi 4 avril par Franceinfo et Le Monde .

L’analyse, conduite par le laboratoire d’hydrologie de Nancy à la demande des ARS Grand Est et Occitanie, où sont situées des sources et points de captage de Nestlé, a relevé «un niveau de confiance insuffisant concernant l’évaluation de la qualité des ressources notamment en ce qui concerne la variabilité des contaminations et leur vulnérabilité microbiologique et chimique».

Les experts évoquent de «multiples constats de contaminations d’origine fécale», avec des bactéries coliformes, Escherichia coli ou entérocoques dans les eaux brutes, mais aussi la «présence chronique notable de micropolluants». Ils ont notamment trouvé dans ces eaux en bouteille des PFAS, dits «polluants éternels», qui dépassaient sur certaines sources le seuil de 0,1 microgramme par litre autorisé pour l’eau minérale naturelle.

Dégradation de la qualité des infrastructures d’après les Français

Dégradation de la qualité des infrastructures d’après les Français


Par suite sans doute des restrictions budgétaires tout autant que de la mauvaise gestion, des Français sont mécontents de la dégradation des infrastructures. Pourtant cette qualité constituée précédemment un atout considérable pour l’économie locale et surtout pour l’implantation de sociétés étrangères. D’après une enquête Ipsos le taux de satisfaction est passé de plus de 50 % à 38 %.

Un certain nombre d’infrastructures bénéficient d’un niveau de satisfaction constant, voire en hausse. C’est le cas notamment des technologies de la communication (64% contre 50%), du réseau ferré (52% contre 41%) ou encore du réseau routier secondaire (50% contre 44%). Autre exemple : l’opinion des Français vis-à-vis de leurs aéroports est assez semblable en 2021 et en 2023, avec un taux de satisfaction qui est passé de 67 à 66% en deux ans. «Les transports affichent un bon score, tout comme les outils technologiques et de télécommunication. E

Exemple du développement de la fibre partout dans le pays comme élément porteur dans la satisfaction des Français dans leurs infrastructures…. sauf dans certaines zones rurales !

Télécoms : Orange en tête pour la qualité de service

Télécoms : Orange En tête pour la qualité de service (Arcept)

L’Arcep, le régulateur du secteur, a publié ce jeudi ses travaux concernant la qualité de service sur les réseaux mobiles en France métropolitaine. C’est globalement Orange qui affiche les meilleurs résultats. Toutes zones d’habitation confondues, l’opérateur historique affiche un taux de mesures de débits supérieurs à 30 Mbit/s de 76%. Derrière, Bouygues Telecom et SFR se tiennent dans un mouchoir de poche, avec des scores de respectivement 67% et 66%. Avec ses 58%, Free se situe, en revanche, loin derrière.

Il existe, en revanche, de fortes disparités entre les performances des opérateurs selon les territoires considérés. Dans les grands centres urbains, par exemple, Orange et Bouygues Telecom font franchement jeu égal. Leurs taux de mesures de débits supérieurs à 30 Mbit/s ressortent respectivement à 91% et 90%. Ils se situent loin devant SFR (85%), et très, très loin devant Free (71%).

Dans les campagnes, toujours derrière Orange, c’est SFR qui obtient de meilleurs résultats que Bouygues Telecom. Dans les zones rurales, le taux de mesures de débits supérieurs à 8 Mbit/s de l’opérateur au carré rouge est de 65%, contre 62% pour Bouygues Telecom. Avec respectivement 74% et 67%, Orange et Free se situent un cran devant.

Pour choisir le meilleur réseau selon l’endroit où l’on vit, son lieu de travail et ses déplacements, l’Arcep recommande son site « Mon réseau mobile ». Celui-ci permet aux usagers de comparer localement la couverture mobile des opérateurs dans tout le pays.

Alimentaire: l’art des industriels pour tricher sur qualité et volume des produits

Alimentaire: l’art des industriels pour tricher sur qualité et volume des produits

La “cheapflation” est la dernière combine des industriels pour développer encore leurs marges en trichant sur la composition, sur la nature des composants et le volume d’un les produits alimentaires et autres.

Ainsi les industriels parviennent à maintenir leur prix de vente – voire à l’augmenter – pour un coût similaire. Mais avec une qualité moindre.

Pour une crème glacée au chocolat, par exemple, cela va consister à remplacer un peu de crème par des épaississants, et un peu de chocolat par des arômes. Si le consommateur ne prend pas garde aux changements sur l’étiquette, il se retrouve, croit-il, avec son produit habituel. Et au même prix, dans le meilleur des cas !

C’est plus vicieux quand les proportions d’ingrédients sont simplement modifiées par rapport à une ancienne version d’un produit – comme un pâté vendu avec plus de gras et de gelée. La « cheapflation » est d’autant plus redoutable dans les rayons « traiteur » ou « à la coupe », quand les ingrédients et proportions ne sont pas visibles.

Une technique frauduleuse , qu’emploient certains industriels qui donc consiste à remplacer «certains produits ou aliments par des substituts (alimentaires ou non) moins chers». Objectif : «Maintenir des marges ou vendre plus de produits», soulignait John Plassard, directeur adjoint de la banque privée Mirabaud & Cie, dans l’une de ses études publiée en avril 2022.

Arnaque-La «cheapflation» ou l’art des industriels pour tricher sur qualité et volume de l’alimentaire

Arnaque-La «cheapflation» ou l’art des industriels pour tricher sur qualité et volume de l’alimentaire

La “cheapflation” est la dernière combine des industriels pour développer encore leurs marges en trichant sur la composition, sur la nature des composants et le volume d’un les produits alimentaires et autres.

Ainsi les industriels parviennent à maintenir leur prix de vente – voire à l’augmenter – pour un coût similaire. Mais avec une qualité moindre.

Pour une crème glacée au chocolat, par exemple, cela va consister à remplacer un peu de crème par des épaississants, et un peu de chocolat par des arômes. Si le consommateur ne prend pas garde aux changements sur l’étiquette, il se retrouve, croit-il, avec son produit habituel. Et au même prix, dans le meilleur des cas !

C’est plus vicieux quand les proportions d’ingrédients sont simplement modifiées par rapport à une ancienne version d’un produit – comme un pâté vendu avec plus de gras et de gelée. La « cheapflation » est d’autant plus redoutable dans les rayons « traiteur » ou « à la coupe », quand les ingrédients et proportions ne sont pas visibles.

Une technique frauduleuse , qu’emploient certains industriels qui donc consiste à remplacer «certains produits ou aliments par des substituts (alimentaires ou non) moins chers». Objectif : «Maintenir des marges ou vendre plus de produits», soulignait John Plassard, directeur adjoint de la banque privée Mirabaud & Cie, dans l’une de ses études publiée en avril 2022.

En outre, les industriels faisant de la «cheapflation» ne préviennent pas toujours leurs clients du changement de composition des produits. «J’incite le consommateur à bien lire les étiquettes et la liste des ingrédients. conseille Coralie Costi, diététicienne nutritionniste. Plus elles sont courtes et mieux c’est». La présence de mots inconnus n’est «pas bon signe», complète-t-elle, soulignant des risques non-négligeables pour la santé : «L’ajout d’additifs ou d’exhausteurs de goûts peut entraîner des maladies cardiovasculaires, du diabète ou le dérèglement du microbiote.»

La «cheapflation ou l’art des industriels pour tricher sur qualité et volume de l’alimentaire

La «cheapflation» ou l’art des industriels pour tricher sur qualité et volume de l’alimentaire

La “cheapflation” est la dernière combine des industriels pour développer encore leurs marges en trichant sur la composition, sur la nature des composants et le volume d’un les produits alimentaires et autres.

Ainsi les industriels parviennent à maintenir leur prix de vente – voire à l’augmenter – pour un coût similaire. Mais avec une qualité moindre.

Pour une crème glacée au chocolat, par exemple, cela va consister à remplacer un peu de crème par des épaississants, et un peu de chocolat par des arômes. Si le consommateur ne prend pas garde aux changements sur l’étiquette, il se retrouve, croit-il, avec son produit habituel. Et au même prix, dans le meilleur des cas !

C’est plus vicieux quand les proportions d’ingrédients sont simplement modifiées par rapport à une ancienne version d’un produit – comme un pâté vendu avec plus de gras et de gelée. La « cheapflation » est d’autant plus redoutable dans les rayons « traiteur » ou « à la coupe », quand les ingrédients et proportions ne sont pas visibles.

Une technique frauduleuse , qu’emploient certains industriels qui donc consiste à remplacer «certains produits ou aliments par des substituts (alimentaires ou non) moins chers». Objectif : «Maintenir des marges ou vendre plus de produits», soulignait John Plassard, directeur adjoint de la banque privée Mirabaud & Cie, dans l’une de ses études publiée en avril 2022.

En outre, les industriels faisant de la «cheapflation» ne préviennent pas toujours leurs clients du changement de composition des produits. «J’incite le consommateur à bien lire les étiquettes et la liste des ingrédients. conseille Coralie Costi, diététicienne nutritionniste. Plus elles sont courtes et mieux c’est». La présence de mots inconnus n’est «pas bon signe», complète-t-elle, soulignant des risques non-négligeables pour la santé : «L’ajout d’additifs ou d’exhausteurs de goûts peut entraîner des maladies cardiovasculaires, du diabète ou le dérèglement du microbiote.»

Sondage qualité services publics : près de 60 % des Français mécontents de la qualité

Sondage qualité services publics : près de 60 % des Français mécontents de la qualité

Les Français sont mécontents des services publics. Pour eux, les priorités sont les suivantes: La santé pour54 %.
Suivent l’Éducation (46 %), la sécurité et la Défense (30 %), les retraites (28 %), l’environnement (23 %), la justice à égalité avec l’énergie (15 %), le remboursement de la dette publique (14 %), la famille (13 %), le soutien à l’économie (12 %), et, sous la barre des 10 %, les solidarités, la lutte contre le chômage, les transport, les services généraux ou encore la culture et le sport.

Selon une étude Ifop réalisée pour Contribuables associés et dévoilée par le JDD, une majorité des Français estiment que le montant des impôts et taxes est trop important. Eu égard de ce qu’ils paient, ils sont aussi majoritaires à être mécontents de la qualité des services publics. En particulier dans le secteur de la santé.

66 % des Français estiment que le montant des impôts et des taxes est trop important. À l’inverse, 34 % des personnes interrogées considèrent le niveau d’imposition comme acceptable.

59 % des Français sont mécontents de la qualité des services publics, quand 30 % sont, au contraire, satisfaits.

Hôpital public: Pour 81 % des personnes interrogées, la qualité et l’efficacité des services s’y sont dégradées.

Suivent l’Éducation (74 % des Français constatent une dégradation des services), la sécurité (68 %), la justice (67 %) et enfin les transports (57 %).

Enfin, le sondage de l’Ifop interroge les Français sur les secteurs prioritaires que devraient financer leurs impôts. De loin, c’est celui de la santé et de l’Assurance maladie qui apparaît en tête du classement avec 54 %. Pour 24 % des personnes interrogées, ce secteur devrait même être « la première priorité ».

Suivent l’Éducation (46 %), la sécurité et la Défense (30 %), les retraites (28 %), l’environnement (23 %), la justice à égalité avec l’énergie (15 %), le remboursement de la dette publique (14 %), la famille (13 %), le soutien à l’économie (12 %), et, sous la barre des 10 %, les solidarités, la lutte contre le chômage, les transport, les services généraux ou encore la culture et le sport.

* Méthodologie
Enquête réalisée selon la méthode des quotas auprès d’un échantillon de 1 000 personnes, représentatif de la population française âgée de 18 ans et plus. La marge d’erreur se situe entre 1,4 et 3,1 points. Les interviews ont été réalisées par questionnaire auto-administré en ligne du 21 au 24 avril 2023.

Qualité de l’air : pic de pollution aux particules fines dans 23 villes

Qualité de l’air : pic de pollution aux particules fines dans 23 villes

Depuis dimanche 12 février, six régions françaises étouffent sous les particules fines, note France Bleu en se basant sur les informations dévoilées sur le site de la fédération des Associations agréées de surveillance de la qualité de l’air (Atmo). L’indice Atmo de qualité de l’air est mauvais dans l’ensemble de la France.

Mardi 14 février, la situation doit empirer à Strasbourg, qui sera classé rouge écarlate « très mauvais ». La capitale alsacienne succède à Lyon qui était dans le rouge écarlate la veille, en début de semaine. Ce mardi, 22 villes sont coloriées en rouge « mauvais » par Atmo, jaune « dégradé » dans 14 villes. Dans l’hexagone, on ne compte que sept villes classées en vert, soit un niveau « moyen » de particules fines. Les prévisions d’Atmo-France seront actualisées à 14 heures.

Cet épisode de pollution hivernale aux particules fines liée au refroidissement des températures et donc à l’augmentation des émissions de chauffage, particulièrement au bois, contraint les préfectures de plusieurs départements à mettre en place des restrictions.

La vallée du Rhône a notamment été placée en vigilance rouge, a indiqué lundi 13 février la préfecture de l’Ardèche dans un communiqué. Jusqu’à la fin de cet épisode de pollution, il est interdit d’utiliser du bois comme chauffage individuel d’appoint, il faut maîtriser la température dans les bâtiments (chauffage en hiver : 18 °C), ou encore abaisser sa vitesse de 20 km/h sur les routes limitées à 90 km/h ou plus. Le secteur industriel doit de son côté arrêter ses activités les plus polluantes. Les chantiers générateurs de poussières doivent également être reportés à la fin de l’épisode de pollution.

Environnement et qualité de l’air: l’Etat condamné à une amende ridicule

Environnement et qualité de l’air: l’Etat condamné à une amende ridicule !

Le Conseil d’Etat a condamné lundi l’Etat à payer une astreinte record de 20 millions d’euros pour son incapacité à ramener les niveaux de pollution de l’air en dessous des seuils réglementaires sur l’ensemble du territoire. La facture s’élève désormais à 30 millions d’euros puisque la plus haute juridiction administrative avait déjà prononcé une sanction de 10 millions d’euros en août 2021, qui concernait le premier semestre de la même année.

L’État donc à nouveau condamné par le Conseil d’État ! Quand l’État condamne l’État. Bref une sentence ridicule qui ne changera pas grand-chose en matière de politique environnementale si l’on compare cette somme au budget de 300 milliards.

Le Conseil d’État aurait mieux fait d’enrichir le catalogue de ses sentences et d’imposer des mesures précises avec mise en demeure. Cette amende relève davantage d’une condamnation morale que véritablement d’une décision de justice. Bref le conseil d’État se fait plaisir aussi à bon compte.

Cette nouvelle condamnation couvre la période comprise entre le 1er juillet 2021 et le 1er juillet 2022. Si des améliorations ont été constatées, les seuils limites de dioxyde d’azote « restent dépassés dans plusieurs zones en France, notamment dans les agglomérations de Paris, Lyon et Marseille» , a déclaré le Conseil d’Etat dans un communiqué. La lutte contre le réchauffement climatique fait parfois oublier tout le reste. Cela fait cinq ans que le juge administratif exhorte le gouvernement à prendre « toutes les mesures nécessaires » pour faire respecter les normes de niveaux de pollution. La première décision du Conseil d’Etat remonte à juillet 2017 : il ordonnait alors au gouvernement de mettre fin aux dépassements « dans le délai le plus court possible ».

123



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol