Archive pour le Tag 'dangers'

Dangers des ponts en France … aussi des autres infrastructures

Danger  des ponts en France … aussi des autres infrastructures

À l’occasion de la manifestation de souvenir concernant l’écroulement du pont de Gênes en Italie, un  sénateur centriste lance un cri d’alarme sur l’état des ponts français dont 10 % seraient dangereux. Il faudrait ajouter que d’une façon générale les infrastructures routières (comme les infrastructures ferroviaires d’ailleurs) se sont particulièrement dégradées depuis 10 ou 15 ans. La chance de la France, c’est que le pays n’a pas connu de forts gels depuis plusieurs années donc de dégel qui sont mortifères pour les routes. L’ensemble des infrastructures routières sont dans un état très critique notamment certaines routes dites de secondaires qu’on répare depuis des années avec des rustines. Pour les ponts, Hervé Maurey, sénateur centriste de l’Eure, président de la mission d’information sur la sécurité des ponts,

« À peu près 10% de ces ponts, soit 25 000 ponts qui sont en mauvais état », a-t-il affirmé. La situation est encore plus inquiétante lorsque les ponts sont gérés par les communes ou intercommunalités, plutôt que par l’État. (Interview Franceinfo)

 

Quel constat global dressez-vous, alors que les résultats d’une enquête du Sénat seront bientôt publiés ?

Hervé Maurey : Le premier constat, c’est le fait que l’on ne sait même pas exactement combien il y a de ponts en France. C’est assez révélateur de la méconnaissance de l’état de notre patrimoine. Les ponts ne sont pas dans notre culture un élément de patrimoine. Que ce soit l’État, les départements ou a fortiori les communes, il n’y a jamais eu une approche patrimoniale qui consiste à savoir combien de ponts on a, dans quel état ils sont, et de programmer un entretien ou une restauration.

On arrive simplement à évaluer le nombre de ponts : à peu près entre 200 000 et 250 000. On est arrivé à la conclusion qu’il y avait à peu près 10% de ces ponts (…) qui sont en mauvais état. 7% des ponts qui appartiennent à l’État risquent de s’effondrer, alors que ce sont les mieux entretenus. La situation est bien plus inquiétante concernant les 100 000 ponts qui relèvent des communes ou des intercommunalités. Elles n’ont pas l’ingénierie, les moyens humains et les moyens financiers d’assurer une surveillance et une remise à niveau quand c’est nécessaire.

Qu’est-ce que vous préconisez pour y remédier ?

On préconise que l’État mette les moyens nécessaires, c’est-à-dire qu’il mette en place un véritable plan Marshall sur son réseau. Aujourd’hui, il consacre 45 millions d’euros par an à l’entretien des ponts qui relèvent de l’État, mais l’État considère qu’il faudrait vraisemblablement mettre près du triple, c’est-à-dire près de 120 millions.

On préconise aussi la mise en place d’un fond spécial destiné aux collectivités locales pour qu’elles dressent un constat. Cela coûte très cher parce qu’un diagnostic d’un pont simple, c’est au minimum 5 000 euros. En Normandie, sur mon territoire, il y a une communauté de communes qui a compté ses ponts et il y en a 80. Cela veut dire qu’il faut mettre sur la table 400 000 euros pour faire un simple diagnostic. Ensuite, les travaux sont souvent très importants. Pour un pont de petite envergure, cela peut très vite atteindre 500 000, voire un million d’euros.

Vous imaginiez un tel sous-investissement au moment de débuter cette enquête sur les ponts en France ?

Non, c’est vrai qu’on a été extrêmement surpris, par l’ignorance du nombre de ponts et par celle de leur état. Plus on tarde, plus la situation sera préoccupante. On sait très bien que si on n’augmente pas les crédits dans dix ans, il y aura deux fois plus de ponts dangereux. C’est une évolution naturelle. Et plus on tarde, plus il faudra mettre beaucoup d’argent pour se mettre à niveau (…) C’est à l’État de remettre en l’état son propre réseau et d’aider les communes qui n’ont pas la capacité financière de le faire seules. Je sais que la situation budgétaire est compliquée mais je crois qu’on ne peut pas faire d’économies sur la sécurité de nos compatriotes.

Les dangers sanitaires de l’industrie alimentaire

Les  dangers  sanitaires de l’industrie alimentaire

 

Nombre d’experts*  s’interrogent à propos de certains  risques sanitaires pour les aliments dits ultra transformé sans doute pour ne pas utiliser le terme plus clair mais plus accusateur d’industrie alimentaire,  sorte de chimie qui ajoute nombre d’additifs aux produits de base :

 

« Dans de nombreux pays, le degré de transformation des aliments a augmenté au cours des dernières décennies. Aujourd’hui, les aliments dits « ultra-transformés » représenteraient 25 à 60 % des apports énergétiques journaliers en Europe, aux États-Unis, au Canada, en Nouvelle-Zélande, et au Brésil.

Or, depuis quelques années, les études suggérant qu’une consommation excessive de ce type d’aliments pourrait avoir des effets délétères pour la santé s’accumulent. Plusieurs recherches ont notamment mis en évidence un lien entre la consommation d’aliments ultra-transformés et un risque plus élevé de surpoids ou d’obésité ainsi que d’hypertension artérielle dans une cohorte d’étudiants espagnols, tout comme un risque accru de dyslipidémies (taux anormalement élevé ou diminué de certains lipides dans le sang : cholestérol, triglycérides…) dans une cohorte d’enfants au Brésil.

Jusqu’à présent, aucune étude épidémiologique n’avait étudié les relations entre la consommation de ces aliments et le risque de maladies cardiovasculaires. C’est désormais chose faite.

Les travaux de l’équipe EREN, qui associe des chercheurs en épidémiologie nutritionnelle de l’Inserm, de l’Inra, de l’Université Paris 13 et du CNAM révèlent, dans un article publié dans le British Medical Journal, que la consommation d’aliments ultra-transformés est associée à un risque accru de maladies cardiovasculaires.

Ces travaux robustes s’appuient sur des données issues de la cohorte NutriNet-Santé. Ils ont inclus plus de 100 000 participants, suivis entre 2009 et 2018, et porté sur >3 300 aliments et boissons différents, classés en fonction de leur degré de transformation.

La notion de transformation des aliments est complexe à appréhender, car les procédés possibles et les additifs autorisés pour modifier les aliments sont très nombreux.

Afin de clarifier les choses, des chercheurs de l’Université de São Paulo ont proposé de classer les aliments en quatre groupes reflétant les niveaux de transformation des aliments. Cette classification « Nova » catégorise les aliments en 4 groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultra-transformés.

Ce dernier groupe inclut, entre autres, les sodas sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués avec ajout d’additifs, les confiseries et barres chocolatées, et tous les produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple). On y trouve aussi les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires, telles que les huiles hydrogénées et les amidons modifiés.

Ainsi, les viandes rouges ou blanches salées sont considérées comme des « aliments transformés » alors que les viandes ou charcuteries contenant des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme « aliments ultra-transformés ».

Dans le même ordre d’idée, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés » alors que les soupes déshydratées sont classées comme « aliments ultra-transformés ».

Formulés pour être microbiologiquement sains et pratiques d’utilisation, les aliments ultra-transformés ont, en moyenne, une qualité nutritionnelle plus faible que les autres aliments. Ils sont en effet souvent non seulement plus denses en énergie, plus riches en sel, sucre et acides gras saturés, mais également plus pauvres en fibres et en vitamines, et ils pousseraient à manger davantage.

Qui plus est, ces aliments ultra-transformés contiennent pour la plupart des additifs alimentaires (colorants, émulsifiants, texturants, édulcorants, etc.).

Ils sont par ailleurs susceptibles de véhiculer des substances provenant des emballages au contact des aliments, ainsi que certains composés « néoformés », c’est-à-dire produits lors des processus de transformation (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.).

Dans le cadre de la cohorte NutriNet-Santé, une association significative avait déjà pu être observée entre la part d’aliments ultra-transformés dans le régime alimentaire (en quantité) et une augmentation de divers risques : risque de cancers (au global et du sein), risque de mortalité, risque de symptômes dépressifs et de troubles fonctionnels digestifs.

Pour étudier les liens éventuels entre la consommation de ces aliments et le risque de maladies cardiovasculaires, nous avons recruté des participants qui n’avaient pas de maladie cardiovasculaire à leur entrée dans l’étude. Grâce à des enregistrements de 24 h répétés et validés, nous avons évalué la consommation alimentaire habituelle, et les milliers d’aliments et boissons consommés ont été classés en fonction de leur degré de transformation (selon la classification NOVA).

Les participants ont été suivis de 2009 à 2018 afin de détecter la survenue de maladies, et d’étudier les associations de ces maladies avec leurs consommations alimentaires. Les résultats sont clairs : la consommation d’aliments ultra-transformés s’est révélée être associée à un risque plus élevé de maladies cardiovasculaires, à la fois coronariennes et cérébro-vasculaires.

Une augmentation de 10 points de la part d’aliments ultra-transformés dans le régime alimentaire (par exemple, en comparant deux individus consommant respectivement 15 % et 25 % du poids de leurs aliments sous forme ultra-transformée) était associée à une augmentation de 12 % de risque de maladies cardiovasculaires au global (13 % pour les maladies coronariennes et 11 % pour les maladies cérébro-vasculaires).

Au sein des produits recensés par NutriNet-Santé, 85 % des produits de mauvaise qualité nutritionnelle (classés E par le NutriScore) étaient des aliments ultra-transformés.

Cependant, les résultats de nos travaux montrent que cette moins bonne qualité nutritionnelle globale des aliments ultra-transformés n’explique probablement pas à elle seule l’augmentation du risque cardiovasculaire. D’autres hypothèses mécanistiques sont envisageables, faisant par exemple intervenir des composés tels que certains additifs alimentaires ou substances formées lors des processus de transformation. Certains effets adverses sur la santé de tels composés ont en effet déjà été suggérés dans des études expérimentales.

C’est par exemple le cas de l’acrylamide, qui se forme au moment de la cuisson à haute température de certains aliments riches en asparagine (un acide aminé) et en amidon (frites/chips de pomme de terre, céréales du petit déjeuner, produits de panification, biscuits…). Cette molécule est reconnue comme cancérogène probable pour l’être humain, et a été liée au risque de maladies cardiovasculaires.

On peut aussi citer la carboxyméthylcellulose (E466), additif utilisé comme émulsifiant, qui, selon une étude sur des modèles animaux (souris), pourrait provoquer des réactions intestinales inflammatoires et augmenter le risque de syndrome métabolique, ou les matériaux au contact des aliments (comme le bisphénol A, maintenant interdit des emballages alimentaires et qui a lui aussi été lié à des désordres cardiométaboliques).

Les résultats obtenus dans cette étude sont robustes. Pour limiter les biais, ils tiennent compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie : âge, sexe, tabagisme, consommation d’alcool, niveau d’étude, activité physique, poids, les comorbidités métaboliques (maladies qui en accompagnent une autre), antécédents familiaux…

Cette étude observationnelle ne permet pas à elle seule de conclure à un lien de cause à effet. Cependant, des essais d’intervention au long cours, qui consisteraient à faire consommer des aliments ultra-transformés à des participants pendant plusieurs années, puis à évaluer l’impact sur leur santé (cancers, mortalité, maladies cardiovasculaires) ne sont pas envisageables.

Pour confirmer ces résultats, de nouvelles études épidémiologiques d’observation devront donc être réalisées, sur des populations diverses et dans d’autres pays. Il faudra également aller plus loin dans la compréhension des procédés de transformation grâce à de nouvelles approches épidémiologiques, couplées à des approches expérimentales in vitro et in vivo. Des essais randomisés, mais à court terme et portant sur des facteurs de risque précoces (comme la prise de poids) pourraient aussi être envisagés.

Aux États-Unis, un tel essai a récemment montré qu’un régime ultra-transformé favorise la consommation d’une quantité plus importante d’aliments, et la prise de poids.

En attendant d’en savoir plus, les recommandations nutritionnelles publiées récemment par Santé publique France dans le cadre du Programme national nutrition santé 2019conseillent, au nom du principe de précaution, de limiter la consommation d’aliments ultra-transformés et de privilégier la consommation d’aliments bruts ou peu transformés.

Pour parvenir à faire le tri dans les rayons des supermarchés, les consommateurs peuvent utiliser des applications gratuites comme celle d’Open Food Facts. S’appuyant sur une base de données ouverte et collaborative, elle permet en scannant le code-barre d’un produit alimentaire, d’afficher à la fois son NutriScore (logo qui renseigne sur la qualité nutritionnelle des aliments), sa catégorie NOVA (qui renseigne sur le degré de transformation), et la liste d’ingrédients (et d’additifs) qu’il contient.

Ce type d’outil est précieux pour atteindre l’objectif que s’est fixé le Haut Conseil de la Santé publique : réduire de 20 % la consommation d’aliments ultra-transformés en France d’ici à 2022.

Pour aller plus loin : À l’occasion des 10 ans de cette étude publique coordonnée par l’équipe EREN, un appel au recrutement est lancé. Vous souhaitez vous aussi faire avancer la recherche sur les liens entre nutrition et santé ? Rejoignez les 165 000 « Nutrinautes » de l’étude NutriNet-Santé ! Toutes les informations sont disponibles sur etude-nutrinet-sante.fr/.

  • Par Bernard Srour, Epidémiologiste – Equipe de Recherche en Epidémiologie Nutritionnelle EREN (Inserm U1153 / Inra U1125 / Cnam / USPC) – Centre de Recherche en Epidémiologie et Statistiques Sorbonne Paris Cité (CRESS), Institut national de la santé et de la recherche médicale (Inserm) ; Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Cité (USPC) et Serge Hercberg, Professeur de Nutrition Université Paris 13 – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Paris 13 – USPC

 

Industrie alimentaire : dangers sanitaires

Industrie alimentaire : dangers  sanitaires

 

Nombre d’experts *s’interrogent à propos de certains  risques sanitaires pour les aliments dits ultra transformé sans doute pour ne pas utiliser le terme plus clair mais plus accusateur d’industrie alimentaire,  sorte de chimie qui ajoute nombre d’additifs aux produits de base :

 

« Dans de nombreux pays, le degré de transformation des aliments a augmenté au cours des dernières décennies. Aujourd’hui, les aliments dits « ultra-transformés » représenteraient 25 à 60 % des apports énergétiques journaliers en Europe, aux États-Unis, au Canada, en Nouvelle-Zélande, et au Brésil.

Or, depuis quelques années, les études suggérant qu’une consommation excessive de ce type d’aliments pourrait avoir des effets délétères pour la santé s’accumulent. Plusieurs recherches ont notamment mis en évidence un lien entre la consommation d’aliments ultra-transformés et un risque plus élevé de surpoids ou d’obésité ainsi que d’hypertension artérielle dans une cohorte d’étudiants espagnols, tout comme un risque accru de dyslipidémies (taux anormalement élevé ou diminué de certains lipides dans le sang : cholestérol, triglycérides…) dans une cohorte d’enfants au Brésil.

Jusqu’à présent, aucune étude épidémiologique n’avait étudié les relations entre la consommation de ces aliments et le risque de maladies cardiovasculaires. C’est désormais chose faite.

Les travaux de l’équipe EREN, qui associe des chercheurs en épidémiologie nutritionnelle de l’Inserm, de l’Inra, de l’Université Paris 13 et du CNAM révèlent, dans un article publié dans le British Medical Journal, que la consommation d’aliments ultra-transformés est associée à un risque accru de maladies cardiovasculaires.

Ces travaux robustes s’appuient sur des données issues de la cohorte NutriNet-Santé. Ils ont inclus plus de 100 000 participants, suivis entre 2009 et 2018, et porté sur >3 300 aliments et boissons différents, classés en fonction de leur degré de transformation.

La notion de transformation des aliments est complexe à appréhender, car les procédés possibles et les additifs autorisés pour modifier les aliments sont très nombreux.

Afin de clarifier les choses, des chercheurs de l’Université de São Paulo ont proposé de classer les aliments en quatre groupes reflétant les niveaux de transformation des aliments. Cette classification « Nova » catégorise les aliments en 4 groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultra-transformés.

Ce dernier groupe inclut, entre autres, les sodas sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués avec ajout d’additifs, les confiseries et barres chocolatées, et tous les produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple). On y trouve aussi les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires, telles que les huiles hydrogénées et les amidons modifiés.

Ainsi, les viandes rouges ou blanches salées sont considérées comme des « aliments transformés » alors que les viandes ou charcuteries contenant des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme « aliments ultra-transformés ».

Dans le même ordre d’idée, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés » alors que les soupes déshydratées sont classées comme « aliments ultra-transformés ».

Formulés pour être microbiologiquement sains et pratiques d’utilisation, les aliments ultra-transformés ont, en moyenne, une qualité nutritionnelle plus faible que les autres aliments. Ils sont en effet souvent non seulement plus denses en énergie, plus riches en sel, sucre et acides gras saturés, mais également plus pauvres en fibres et en vitamines, et ils pousseraient à manger davantage.

Qui plus est, ces aliments ultra-transformés contiennent pour la plupart des additifs alimentaires (colorants, émulsifiants, texturants, édulcorants, etc.).

Ils sont par ailleurs susceptibles de véhiculer des substances provenant des emballages au contact des aliments, ainsi que certains composés « néoformés », c’est-à-dire produits lors des processus de transformation (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.).

Dans le cadre de la cohorte NutriNet-Santé, une association significative avait déjà pu être observée entre la part d’aliments ultra-transformés dans le régime alimentaire (en quantité) et une augmentation de divers risques : risque de cancers (au global et du sein), risque de mortalité, risque de symptômes dépressifs et de troubles fonctionnels digestifs.

Pour étudier les liens éventuels entre la consommation de ces aliments et le risque de maladies cardiovasculaires, nous avons recruté des participants qui n’avaient pas de maladie cardiovasculaire à leur entrée dans l’étude. Grâce à des enregistrements de 24 h répétés et validés, nous avons évalué la consommation alimentaire habituelle, et les milliers d’aliments et boissons consommés ont été classés en fonction de leur degré de transformation (selon la classification NOVA).

Les participants ont été suivis de 2009 à 2018 afin de détecter la survenue de maladies, et d’étudier les associations de ces maladies avec leurs consommations alimentaires. Les résultats sont clairs : la consommation d’aliments ultra-transformés s’est révélée être associée à un risque plus élevé de maladies cardiovasculaires, à la fois coronariennes et cérébro-vasculaires.

Une augmentation de 10 points de la part d’aliments ultra-transformés dans le régime alimentaire (par exemple, en comparant deux individus consommant respectivement 15 % et 25 % du poids de leurs aliments sous forme ultra-transformée) était associée à une augmentation de 12 % de risque de maladies cardiovasculaires au global (13 % pour les maladies coronariennes et 11 % pour les maladies cérébro-vasculaires).

Au sein des produits recensés par NutriNet-Santé, 85 % des produits de mauvaise qualité nutritionnelle (classés E par le NutriScore) étaient des aliments ultra-transformés.

Cependant, les résultats de nos travaux montrent que cette moins bonne qualité nutritionnelle globale des aliments ultra-transformés n’explique probablement pas à elle seule l’augmentation du risque cardiovasculaire. D’autres hypothèses mécanistiques sont envisageables, faisant par exemple intervenir des composés tels que certains additifs alimentaires ou substances formées lors des processus de transformation. Certains effets adverses sur la santé de tels composés ont en effet déjà été suggérés dans des études expérimentales.

C’est par exemple le cas de l’acrylamide, qui se forme au moment de la cuisson à haute température de certains aliments riches en asparagine (un acide aminé) et en amidon (frites/chips de pomme de terre, céréales du petit déjeuner, produits de panification, biscuits…). Cette molécule est reconnue comme cancérogène probable pour l’être humain, et a été liée au risque de maladies cardiovasculaires.

On peut aussi citer la carboxyméthylcellulose (E466), additif utilisé comme émulsifiant, qui, selon une étude sur des modèles animaux (souris), pourrait provoquer des réactions intestinales inflammatoires et augmenter le risque de syndrome métabolique, ou les matériaux au contact des aliments (comme le bisphénol A, maintenant interdit des emballages alimentaires et qui a lui aussi été lié à des désordres cardiométaboliques).

Les résultats obtenus dans cette étude sont robustes. Pour limiter les biais, ils tiennent compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie : âge, sexe, tabagisme, consommation d’alcool, niveau d’étude, activité physique, poids, les comorbidités métaboliques (maladies qui en accompagnent une autre), antécédents familiaux…

Cette étude observationnelle ne permet pas à elle seule de conclure à un lien de cause à effet. Cependant, des essais d’intervention au long cours, qui consisteraient à faire consommer des aliments ultra-transformés à des participants pendant plusieurs années, puis à évaluer l’impact sur leur santé (cancers, mortalité, maladies cardiovasculaires) ne sont pas envisageables.

Pour confirmer ces résultats, de nouvelles études épidémiologiques d’observation devront donc être réalisées, sur des populations diverses et dans d’autres pays. Il faudra également aller plus loin dans la compréhension des procédés de transformation grâce à de nouvelles approches épidémiologiques, couplées à des approches expérimentales in vitro et in vivo. Des essais randomisés, mais à court terme et portant sur des facteurs de risque précoces (comme la prise de poids) pourraient aussi être envisagés.

Aux États-Unis, un tel essai a récemment montré qu’un régime ultra-transformé favorise la consommation d’une quantité plus importante d’aliments, et la prise de poids.

En attendant d’en savoir plus, les recommandations nutritionnelles publiées récemment par Santé publique France dans le cadre du Programme national nutrition santé 2019conseillent, au nom du principe de précaution, de limiter la consommation d’aliments ultra-transformés et de privilégier la consommation d’aliments bruts ou peu transformés.

Pour parvenir à faire le tri dans les rayons des supermarchés, les consommateurs peuvent utiliser des applications gratuites comme celle d’Open Food Facts. S’appuyant sur une base de données ouverte et collaborative, elle permet en scannant le code-barre d’un produit alimentaire, d’afficher à la fois son NutriScore (logo qui renseigne sur la qualité nutritionnelle des aliments), sa catégorie NOVA (qui renseigne sur le degré de transformation), et la liste d’ingrédients (et d’additifs) qu’il contient.

Ce type d’outil est précieux pour atteindre l’objectif que s’est fixé le Haut Conseil de la Santé publique : réduire de 20 % la consommation d’aliments ultra-transformés en France d’ici à 2022.

Pour aller plus loin : À l’occasion des 10 ans de cette étude publique coordonnée par l’équipe EREN, un appel au recrutement est lancé. Vous souhaitez vous aussi faire avancer la recherche sur les liens entre nutrition et santé ? Rejoignez les 165 000 « Nutrinautes » de l’étude NutriNet-Santé ! Toutes les informations sont disponibles sur etude-nutrinet-sante.fr/.

 

 

 

  • * Par Bernard Srour, Epidémiologiste – Equipe de Recherche en Epidémiologie Nutritionnelle EREN (Inserm U1153 / Inra U1125 / Cnam / USPC) – Centre de Recherche en Epidémiologie et Statistiques Sorbonne Paris Cité (CRESS), Institut national de la santé et de la recherche médicale (Inserm) ; Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Cité (USPC) et Serge Hercberg, Professeur de Nutrition Université Paris 13 – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Paris 13 – USPC

 

 

Internet : les dangers d’une régulation précipitée (ONG internet Society)

Internet : les dangers d’une régulation précipitée (ONG internet Society)

 

La  directrice des politiques publiques de l’ONG Internet Society s’inquiète d’influence grandissante des GAFA mais tout autant d’une régulation précipitée. (‘Interview La Tribune)

 

Votre rapport alerte sur la « standardisation du web » sous l’effet d’une concentration de plus en plus marquée autour d’acteurs essentiellement américains (les Gafam – Google, Apple, Facebook, Amazon et Microsoft) et chinois (les Batx – Baidu, Alibaba, Tencent et Xiaomi). Quels risques cela fait-il peser sur l’économie et la société ?

CONSTANCE BOMMELAER DE LEUSSE - Quelques entreprises hégémoniques, comme Google dans la recherche en ligne, Facebook dans les réseaux sociaux et avec ses messageries Messenger, Instagram et WhatsApp, ou encore Amazon et Alibaba dans le e-commerce, concentrent l’essentiel de la valeur de l’économie numérique. Ce phénomène prend même de l’ampleur, car la domination de ces entreprises est accentuée par l’essor sans précédent des réseaux et par l’afflux des données récoltées en permanence sur les utilisateurs. Les géants du Net peuvent ainsi étendre leur influence et leur force de frappe sur de nouveaux marchés comme la mobilité autonome, le cloud, l’intelligence artificielle, la santé, le paiement et bien d’autres domaines.

En d’autres termes, ils sont devenus « too big to fail ». Leurs écosystèmes de services globaux, parfois fermés, facilitent grandement le quotidien et créent une vraie dépendance économique. Les entreprises, notamment les TPE et les PME, doivent souvent les utiliser pour exister en ligne. De fait, cette domination limite en réalité le choix des usagers et peut compliquer l’éclosion de services concurrents. Elle pourrait menacer la nature même d’Internet, qui est par essence libre et ouvert, composé d’une interconnexion de réseaux indépendants les uns des autres.

 

Pourtant, vous mettez en garde les régulateurs sur la nécessité de ne pas se précipiter pour réguler. N’est-ce pas paradoxal ?

Non, car un remède mal conçu pourrait être pire que le mal. Le danger de réguler trop vite, de ne pas articuler les différentes normes au niveau international, pourrait avoir des conséquences difficiles à prévoir. La multiplication des régulations pourrait par effet de ricochet créer plusieurs webs selon les lois en vigueur, avec des conséquences potentiellement néfastes sur l’innovation. En clair, en fonction du pays où un utilisateur se trouve, il n’aurait pas accès aux mêmes contenus et aux mêmes services sur Internet.

Si chaque grande région du monde, voire chaque pays, développe ses propres régulations sur la fiscalité ou la protection des consommateurs, on risque de fragmenter l’espace numérique sans pour autant agir efficacement sur le phénomène de la concentration des pouvoirs autour des géants du Net, qui ont les moyens de s’adapter aux

La France, avec sa « taxe Gafa » qui vient d’être annoncée par Bruno Le Maire, et l’Union européenne, avec notamment le Règlement général sur la protection des données (RGPD), ont déjà enclenché la machine. Est-ce une erreur ?

Il est regrettable que le débat public aujourd’hui se concentre uniquement sur la partie visible de l’iceberg. Pour nous, la concentration des géants du Net est plus complexe. Elle agit à trois niveaux. Le premier, le plus évident, est celui des applications et usages sur Internet, dominés par cinq grosses entreprises qui sont Google, Amazon, Tencent, Facebook et Alibaba. Google et Facebook cannibalisent à eux deux 80% du marché publicitaire mondial, Amazon pèse près de 50% du e-commerce, Google 90% de la recherche en ligne en Europe, Alibaba est l’équivalent d’Amazon en Chine tandis que Tencent, via WeChat, est une plateforme polyforme qui touche plus d’un milliard d’utilisateurs. Cette concentration des usages autour de quelques acteurs inquiète l’opinion et pousse les régulateurs à agir.

Or, deux autres niveaux de concentration, plus discrets, sont tout aussi importants : l’accès aux infrastructures et les services associés à ces infrastructures. Dans chaque pays un petit nombre de fournisseurs d’accès à internet (FAI) maîtrisent les réseaux. Parfois, notamment dans les pays en développement comme en Afrique, il n’existe qu’un ou deux FAI, ce qui pose question. Par ailleurs, les leaders mondiaux du cloud computing, c’est-à-dire Amazon, Microsoft, Google, IBM et Alibaba, disposent d’un pouvoir grandissant car ils fournissent l’infrastructure sur laquelle se développe l’économie numérique.

Il faut appréhender ces trois niveaux de concentration. Les deux derniers sont le nerf de la guerre pour que ces monopoles perdurent sur la durée. On sait moins que Google et Facebook, davantage connus pour leur domination dans les usages, investissent aussi massivement dans les câbles sous-marins et les infrastructures du Net, car il s’agit d’un enjeu de diversification stratégique pour eux. Les géants du Net pratiquent une consolidation à la fois horizontale – étendre leurs activités -, et verticale – maîtriser l’ensemble de la chaîne de valeur de l’innovation. Ils investissent aussi énormément dans la recherche fondamentale pour se mettre en position de profiter d’une éventuelle rupture technologique.

 

Quelle approche de la régulation préconisez-vous ?

L’enjeu principal est avant tout de protéger l’Internet, c’est-à-dire sa neutralité et son caractère libre et ouvert, pour ne pas brider l’innovation et permettre à d’autres entreprises de pénétrer le marché. On oublie que la concentration autour de quelques géants est un phénomène économique naturel. La liberté et l’ouverture qui caractérisent l’Internet ont permis l’éclosion d’entreprises devenues hégémoniques, comme Yahoo ou Myspace dans les années 1990, qui ont elles-mêmes été remplacées, avec l’avènement de nouvelles ruptures technologiques, par les géants actuels. Il faut garder en tête que dans l’histoire économique, les monopoles changent. Dans les années 1990, on appréhendait Yahoo et Myspace exactement comme Google, Facebook et Amazon aujourd’hui.

De fait, certains pays annoncent des mesures fiscales ou des réglementations sur les données. Ces tentatives sont précipitées, pour répondre à une pression de l’opinion publique. Alors même que plusieurs questions restent en suspens. Si une forme d’intervention publique est nécessaire, faut-il refonder le droit de la concurrence, renforcer la protection du consommateur ou encore ajuster la fiscalité ? Les politiques communiquent sur des mesures avant même d’avoir appréhendé le problème dans sa globalité. Au-delà du risque de fragmenter l’Internet en régulant à outrance, nous nous inquiétons aussi que les gouvernements finissent par brider les bienfaits de cette concentration. Car ils existent. Les géants du Net ont accéléré la digitalisation d’un grand nombre d’entreprises dans de nombreux secteurs, y compris des PME et des TPE. Ils ont offert aux utilisateurs des univers beaucoup plus homogènes, pratiques et sécurisés. Le discours dominant est alarmiste, alors que le bilan global est plus nuancé.

Vous dites que les monopoles d’aujourd’hui ne sont pas forcément ceux de demain. Mais grâce à leurs extraordinaires moyens d’investissement dans la recherche fondamentale et leur capacité à aspirer l’innovation, les géants actuels ne se mettent-ils pas en position de faire perdurer leur puissance dans la durée, contrairement aux empires d’hier ?

La blockchain, l’Internet des objets et l’intelligence artificielle sont loin d’avoir livré tout leur potentiel. D’autres technologies vont sûrement arriver et rebattre les cartes. Est-ce que les géants actuels qui investissent massivement dans la recherche fondamentale sont mieux placés que les autres pour perdurer ? Intuitivement, on peut le penser mais l’histoire nous réserve probablement des surprises. Google, Netflix, Uber et Facebook ne sont peut-être pas là pour toujours. Si on préserve la neutralité technologique et des principes comme l’interopérabilité des systèmes informatiques, la capacité d’innovation restera intacte et il ne sera pas impossible pour de nouveaux acteurs de pénétrer le marché. Il n’y a pas de fatalité.

 

Référendum : atouts, limites et dangers

.

 

 

Dans la boîte à outils démocratiques figure le référendum, c’est-à-dire l’occasion entre deux échéances électorales de solliciter l’opinion sur une question majeure souvent de nature constitutionnelle. Rares sont les référendums portant sur les questions économiques ou sociales même si la thématique n’est pas interdite. La plupart des régimes à caractère centraliste voire dictatorial s’appuie sur un dialogue direct avec les citoyens en passant par dessus tous les outils de médiation que peuvent être un Parlement, des syndicats, des associations voire des médias et des organisations politiques. C est le referendum plébiscite.  Ceci étant,  dans certains démocratie le référendum peut être utile. Le référendum a l’avantage de centrer l’opinion sur une question précise alors que la consultation électorale classique noie un peu tous les sujets dans le programme proposé. Face au foisonnement de revendications parfois contradictoires des gilets jaunes, il semble qu’on ait trouvé la martingale démocratique pour se rassembler sur la proposition de référendum d’initiative citoyenne. Reste que l’objet même de ce référendum demeure lui aussi parfois contradictoire. Ce référendum pourrait en effet avoir des objectifs constitutionnels, d’autres révocatoires, abrogatoires ou législatifs. Certains partis politiques notamment au pouvoir voudraient en « cadrer » la portée à quelques consultations sur des thèmes limités. Les plus radicaux souhaitent un référendum à caractère révocatoire pour virer des élus dont ils sont mécontents, des élus locaux, nationaux voire même le président de la république et même en supprimer la fonction. Dans la dimension constitutionnelle, certains envisagent une nouvelle constitution ou encore la suppression du Sénat. Il ne paraît pas certain qu’une majorité de Français en dépit des critiques soit prêts à jeter aux orties la constitution de la Ve République. L’abrogation, elle, viserait à supprimer des lois jugées injustes ou inopérantes et la dimension législative au contraire donnerait la possibilité de faire adopter de nouvelles lois. La demande de référendum d’initiative citoyenne caractérise en tout cas une forte demande de nouvelle démocratie, une démocratie ne qui se limite pas à la délégation de mandat. En gros,  une fois tous les cinq ans par exemple pour les députés lesquels ensuite sont soumis aux pressions du gouvernement, des lobbys et des groupes financiers voire ont tendance à confondre intérêt personnel et intérêt collectif. Cette question de la médiation politique est au cœur de la problématique de la crise actuelle. Bien entendu des revendications matérielles concrètes  sont en cause comme la fiscalité ou le pouvoir d’achat mais au-delà se pose avec autant d’acuité la problématique de la médiation par les corps intermédiaires et notamment par les élus politiques. En clair, cette crise met en évidence le manque de confiance et de représentativité vis-à-vis des  élus. De ce point de vue, le référendum peut être intéressant,  il semble toutefois nécessaire d’élargir le problème à la question des conditions d’exercice du mandat et non de se limiter à la seule question du référendum. En effet,  le plus souvent dans les élections nationales comme locales, les engagements, les promesses sont assez approximatives voire contradictoires pour ne pas dire démagogiques. Une fois élus, certains responsables ont un peu trop tendance à se croire investis d’un pouvoir suprême voir monarchique. Se pose surtout le problème  des conditions de préparation démocratique des orientations, de leur évaluation scientifique et de leur contrôle démocratique. Cela vaut au plan national, régional, intercommunal ou communal. En outre, la préparation des orientations et les  évaluations ne peuvent être le fait de structures qui sont associées à la gestion. Ces structures doivent être indépendantes sur le mode par exemple de la Cour des Comptes pour l’évaluation ou le conseil économique et social et environnemental pour les propositions. Après cette évaluation scientifique, ou en tout cas technique et sur cette base,  devrait s’opérer un contrôle démocratique pour vérifier si les orientations sont cohérentes, justes et efficaces et s’il y a une bonne affectation des moyens notamment financiers. Il ne s’agit pas forcément de donner un pouvoir de décision à ces structures de propositions et d’évaluation mais de leur attribuer une mission d’éclairage des conditions d’exercice du mandat politique. Au plan national, la situation de ce point de vue est loin d’être satisfaisante mais au plan local il n’existe à peu prés rien,  ni de structures d’évaluation ni de structures de contrôle démocratique réellement représentatives, compétentes et indépendantes. Il est clair qu’on ne pourra pas organiser un référendum tous les trois mois. D’où la nécessité de mettre en place des outils d’évaluation et démocratiques plus permanents. Le référendum est un peu réducteur de la demande de démocratie. En effet pour  certaines questions. On se contente de  répondre par oui ou par non. Cela  ne constitue pas le summum de la démocratie, le vote peut même être assez caricatural. L’évaluation et le contrôle démocratique doivent être autrement plus complexes et plus permanents.

 

 

Ondes et courants vagabonds : dangers pour la santé

Ondes et courants vagabonds : dangers pour la santé

un homme a été reconnu victime d’un accident du travail en raison de son hypersensibilité aux ondes électromagnétiques. Ce salarié d’une entreprise de télécommunications avait été victime d’un malaise en novembre 2013, sur son lieu de travail. S’appuyant sur une expertise médicale, le Tribunal des affaires de sécurité sociale (Tass), qui juge les conflits entre les caisses de sécurité sociale et les usagers, a estimé le 27 septembre qu’il est impossible d’exclure «tout lien de causalité entre le malaise et le travail», d’après une retranscription de la décision par l’AFP. Il n’existe pourtant aucune reconnaissance officielle de l’électrohypersensibilité en France. Les personnes se disant affectées par une telle pathologie souffrent de symptômes variés – maux de tête, saignements, fatigue, problèmes de peau -qu’elles associent à la présence d’ondes électromagnétiques. Ces ondes sont émises par tout un ensemble d’objets ou installations variés: lignes à haute tension, éoliennes téléphone portable, antenne-relais ou encore radio, pour ne citer que Autres danger, celui des courants vagabonds. . Ils sont détectables sur des objets métalliques fixés au mur ou au sol, ou simplement déposés sur le sol. Ces tensions ou ces courants sont en général alternatifs, de la fréquence du réseau (50 Hz en Europe, 60 Hz aux Etats-Unis et au Canada), mais il n’est pas rare que ces courants deviennent continus ou semi-redressés suite à l’effet semi-conducteur de certains matériaux (béton, oxydes métalliques, sols particuliers…) traversés par la tension ou le courant d’origine. Ces tensions ou ces courants, lorsqu’ils atteignent une intensité suffisante, peuvent traverser le corps d’un homme, d’une vache, d’un porc, d’un mouton, d’un chien ou de tout autre être vivant et affecter fâcheusement son état de santé et son comportement Des expérimentations, réalisées en Belgique et en France par des vétérinaires indépendants dans des élevages bovins et porcins exposés à des lignes à très haute tension, montrent qu’après trois semaines d’exposition aux champs d’induction magnétique, les animaux présentent de nettes chutes de cuivre, de calcium, de phosphore et de magnésium sanguins.

 

 

 

 

 

Les dangers de l’inclusion numérique

Les dangers de l’inclusion numérique

Interview dans de  JACQUES MARCEAU  Président dans les Echos 

« Vouloir l’inclusion numérique pour tous n’est pas sans conséquence sur notre société de tradition et de culture démocratique. Un « numérique inclusif » peut en effet transformer le citoyen d’une nation en usager d’une plateforme sur laquelle le politique n’est plus en capacité d’exercer sa souveraineté. Un débat qui est loin de n’être que sémantique…

Après la réduction de la fracture numérique, l’inclusion numérique est devenue le nouveau leitmotiv de nos politiques et fait même aujourd’hui l’objet d’un plan gouvernemental intitulé « Stratégie nationale pour l’inclusion numérique ». En effet, l’aménagement numérique du territoire en très haut débit fixe et mobile ne s’accompagne pas, loin s’en faut, d’une adoption du numérique par tous les Français. Un constat étayé par les résultats d’une enquête(1) menée en 2018 par la Mission Société Numérique et qui révèle que 13 millions de Français sont « en difficulté avec le numérique ». C’est ainsi, qu’à l’heure de la virtualisation massive du commerce, des services et plus généralement de toutes les activités économiques et sociales, la modernité numérique vient ajouter une nouvelle source d’exclusion à celles bien connues que sont le chômage, le faible niveau d’instruction, l’isolement, les mauvaises conditions de vie, etc. Une exclusion qui frappe en priorité et majoritairement, comme une double peine, des personnes déjà fragilisées pour lesquelles, par exemple, l’accès aux droits sociaux est conditionné à celui de services en ligne qu’elles sont dans l’incapacité d’utiliser. C’est ainsi que la tendance à la virtualisation des services publics vient exacerber la complexité d’une relation par essence complexe et souvent conflictuelle entre l’Etat et l’individu, entre le bien collectif et l’intérêt individuel. Il y a peu, quand l’Etat était représenté par ses seuls agents, même protégés par un guichet dont le rideau pouvait, tel un couperet, tomber à tout moment indifférent au temps passé à attendre son tour, la relation humaine pouvait toujours laisser la place à l’échange, à la compréhension, voire à la compassion. Sentiments dont on conviendra que le robot, même doté d’une intelligence artificielle dernier cri, est absolument incapable. Qui n’a d’ailleurs pas, à cet égard, fait l’expérience de l’exaspération que peut procurer la relation avec la machine pour effectuer une déclaration ou une demande en ligne ? En réponse à cette déshumanisation croissante des services en général et du service public en particulier et conscient des risques de fracture sociale associés, l’Etat élève aujourd’hui l’idée d’inclusion numérique au rang de priorité nationale. Ainsi, et dorénavant, pour satisfaire à ses obligations d’honnête citoyen ou simplement vivre dans un monde sensé être plus simple et plus sûr grâce au numérique, il faudra être inclus ! Un mot ambigu quand on y réfléchit et quand on lui cherche, pour mieux en appréhender la signification, des synonymes dans les dictionnaires : assimilé, soumis, dilué, intégré, enfermé, et même compromis. Visionnaire, Paul Valéry déclarait en 1935 dans son « Bilan de l’intelligence(2) » que « suggestionné, harcelé, abêtis, (…) l’individu est déjà compromis avant même que l’Etat l’ait entièrement assimilé ». Une vision pessimiste mais qui se révèle aujourd’hui pertinente à la différence inquiétante que l’Etat, en perdant sa souveraineté face aux géants du numérique, se retrouve lui-même assimilé. Une perte de souveraineté de l’Etat, et plus généralement des élus, sur la chose numérique qui rend encore plus hasardeuse sa tentative de promotion d’un « numérique inclusif » qui pourrait bien, en définitive, s’effectuer au seul profit du renforcement de la dominance économique et peut-être un jour politique, de plateformes hégémoniques. L’inclusion numérique suppose en effet, et au lieu de mettre la machine à la main et au service de l’homme, son assujettissement. L’injonction est claire : « si vous ne voulez pas être exclu du monde à venir, il vous faudra être capable non seulement de faire usage mais encore de servir et renseigner la machine ! ». C’est ainsi que le citoyen à l’ère numérique se doit, pour ne pas être un exclu, être inclus, comme si le simple jeu des antonymies justifiait une nouvelle doxa politique. Doxa qui ne s’arrête pas à son expression littérale mais qui prend forme aujourd’hui dans toutes sortes d’initiatives en faveur de l’inclusion numérique mêlant l’incitation à la contrainte, la séduction à l’obligation, la solidarité à la soumission. Les prévisibles et sombres conséquences de ce désordre sémantique pourraient être évitées si l’on se résolvait, enfin, à considérer le numérique comme un simple outil au service de l’homme et de la société et l’intelligence artificielle comme un esclave au service de l’Esprit. Car il est peut-être là, notre problème. La perte de l’Esprit que vient palier la prothèse numérique qui lui évite, la flemme étant l’un des ressorts favoris de l’assujettissement, de se fatiguer à compter, écrire, traduire, penser, décider. Formé, formaté, adapté, enfermé dans la bulle sociale et cognitive choisie pour lui par des algorithmes, l’inclus numérique ne deviendra-t-il pas l’idiot utile d’un pouvoir qui aura demain échappé au politique, qui ne sera pas non plus celui de la machine, mais de ceux à qui obéit la machine ? C’est aujourd’hui, car demain il sera trop tard, que nous devons faire le choix entre la Cité Politique(3), matrice historique des sociétés démocratiques, et la Cité Numérique où le citoyen éduqué se transformera en « usager inclus ». Faire le choix de la Cité Politique c’est d’abord proposer une vision portée par un discours(4), la parole précédant toujours l’action, tout comme la pensée précède le projet et l’invisible le visible. C’est ainsi que, nommer devenant un acte politique fondateur, la parole doit être juste pour que les mots ne deviennent pas la source des maux. C’est pourquoi, et au regard des sombres perspectives portées par un numérique inclusif, je proposerais volontiers les vocables de cohésion numérique et de numérique cohésif, porteurs de nos valeurs de liberté, d’égalité et de fraternité qui persistent à orner le fronton de nos écoles. »

1. https://societenumerique.gouv.fr/13-millions-de-francais-en-difficulte-avec-le-numerique/ 2. Le Bilan de l’intelligence, conférence de Paul Valéry à l’Université des Annales le 16 janvier 1935 3. « Comment les géants du numérique veulent gouverner nos villes » – Jean Haëntjens – Editions Rue de L’échiquier 2018 4. Jacques Marceau – Stratégies – 5 janvier 2016 – http://www.strategies.fr/blogs-opinions/idees-tribunes/1030349W/rehabiliter-le-discours-de-l-entreprise-un-nouvel-enjeu-pour-les-relations-publics.html

Les dangers du paracétamol

Les dangers du paracétamol

 

L’affaire dramatique de Naomi Musenga, cette jeune femme décédée en décembre dernier après que son appel au Samu n’a pas été pris au sérieux, et qui aurait été  victime d’une intoxication au paracétamol, rappelle les dangers de l’utilisation excessive de ce médicament antidouleur. Un antidouleur qui peut se révéler dangereux pour la santé, notamment pour le foie en cas d’excès et de mauvaise utilisation.   Antidouleur efficace et peu cher, le paracétamol est le médicament le plus vendu en France, de quoi contribuer à alimenter une fausse image de remède que l’on peut consommer sans danger, au moindre bobo ou à la moindre fièvre. En vérité, le paracétamol peut s’avérer très dangereux puisqu’il est l’un des traitements dont la dose mortelle est la plus proche de la dose thérapeutique, c’est-à dire-qu’il suffit de dépasser de peu la dose journalière maximum (4 grammes pour un adulte) pour risquer l’intoxication. Une mauvaise prise de paracétamol peut conduire à une destruction complète du foie. C’est d’ailleurs le surdosage de ce médicament qui, en France, est la première cause de greffe de foie après avoir provoqué une hépatite aiguë. Enfin, il ne doit jamais être mélangé à l’alcool, car là aussi il peut s’agir d’un cocktail de choc pour cet organe essentiel à la métabolisation de certaines molécules. 

Perturbateurs endocriniens : dangers confirmés par l’administration

Perturbateurs endocriniens : dangers confirmés par l’administration

La France qui a souvent abordé la problématique des perturbateurs endocriniens avec des pincettes reconnaît cette fois les dangers extrêmes dans un rapport de l’administration. Une étude publiée par 50 millions de consommateurs avait déjà démontré que des polluants pouvaient être détectés dans les cheveux de tous les jeunes participants à l’étude : 23 à 54 molécules ont été retrouvées selon les enfants (34 en moyenne). Des résultats qui « suggèrent fortement » que les petits Français sont « tous contaminés », s’alarmait  le magazine. L’impact des innombrables produits chimiques dans le secteur agro alimentaire est contesté par les industriels. Des industriels qui exercent une énorme pression sur Bruxelles pour obtenir une réglementation à minima de ces perturbateurs endocriniens susceptibles de dérégler le système hormonal et à l’origine de nombreuses pathologies. Du coup près de cent scientifiques européens et américains avaient dénoncé, les « intérêts industriels » qui « déforment délibérément des preuves scientifiques » pour empêcher la mise en place, par cette instance européenne, d’une réglementation visant à limiter l’utilisation des perturbateurs endocriniens. « Le projet d’établir une réglementation de ce type dans l’Union européenne est activement combattu par des scientifiques fortement liés à des intérêts industriels, produisant l’impression d’une absence de consensus, là où il n’y a pourtant pas de controverse scientifique », estimaient les signataires d’une tribune publiée par Le Monde. Des scientifiques qui accusent les lobbys de déformer délibérément des preuves scientifiques pour créer une fausse impression de controverse – et régulièrement utilisée lorsque des découvertes scientifiques touchent « de puissants intérêts industriels », soulignent les scientifiques.  Les précédents de l’industrie du tabac, du secteur agrochimique ou du réchauffement climatique ont « retardé des actions préventives et eu de graves conséquences pour la santé des populations et l’environnement », avertissent-ils. Selon eux, « la très grande majorité des scientifiques activement engagés dans la recherche des causes [de l'augmentation des maladies en lien avec le système hormonal] s’accordent pour dire que plusieurs facteurs y contribuent, dont les produits chimiques capables d’interférer avec le système hormonal », appelés perturbateurs endocriniens. Alors que la « seule solution » pour enrayer ces effets est de « prévenir l’exposition aux produits chimiques à l’aide d’une réglementation plus efficace. En France,  l’Inspection générale des affaires sociales (IGAS), le Conseil général de l’environnement et du développement durable et le Conseil général de l’alimentation, de l’agriculture et des espaces ruraux souligne de nombreuses limites de la politique nationale et européenne au regard des enjeux, qualifiés de « majeurs pour la santé et l’environnement ». Les rapporteurs se montrent aussi, en creux, très critiques vis-à-vis de l’action conduite au niveau européen, notamment par la Commission de Bruxelles, et s’interrogent sur la « crédibilité » de l’action communautaire. Incidemment, le rapport des trois institutions forme l’un des premiers documents officiels résumant, dans un langage non technique, l’étendue des problèmes posés par les perturbateurs endocriniens (PE), décrits comme sources de « très fortes externalités négatives », c’est-à-dire de dégâts collatéraux très importants. Ces substances – pesticides, plastifiants, solvants, etc. – sont présentes dans une grande diversité d’objets ou de produits du quotidien et dans la chaîne alimentaire. Elles ont en commun d’interférer avec le système hormonal des humains et des animaux.

« Un certain nombre d’affections de la santé humaine sont aujourd’hui suspectées d’être la conséquence d’une exposition aux PE : baisse de la qualité du sperme, augmentation de la fréquence d’anomalies du développement des organes ou de la fonction de reproduction, abaissement de l’âge de la puberté, détaille le rapport. Le rôle des PE est aussi suspecté dans la survenue de certains cancers hormonodépendants, » indique encore le rapport. …

2025 : trois dangers, le vieillissement, le déclin, le manque de capital (Moscovici)

2025 : trois dangers, le vieillissement, le déclin, le manque de capital (Moscovici)

En guise de rentrée gouvernementale ce lundi 19 août, François Hollande reçoit à 10 heures ses ministres, à l’Elysée, pour un séminaire consacré à « la France en 2025″. Objectif de l’exécutif: dessiner la France du futur. Chaque ministère a eu un mois pour rendre sa copie. Parmi elles, celle de Pierre Moscovici, le ministre de l’Economie et des Finances. Pour lui, trois périls menacent la France. Le premier est d’ordre macro-géo-économique. En clair, il consiste en une perte d’influence et un déclassement de la France notamment face au émergents. Le second danger est démographique et social. La France vieillit, le nombre d’actifs diminue. Enfin, le dernier est un péril micro-économique et technologique. Sans accumulation massive de capital, la révolution numérique pourrait être compromise, estiment les services de Bercy.  Pierre Moscovici relativise toutefois. « Ces trois périls inévitables ne sont pas pour autant inéluctables », si tant est que le France soit capable de « rénover son état providence ». Dans la check-list du ministre: modernisation, dématérialisation des services publics, réforme du marché du travail, allègement de la fiscalité. Au niveau européen, le ministre de l’Economie propose de définir une politique économique commune. A noter, cette petite phrase en page 3 du document: « Prenons garde à ne pas faire l’erreur stratégique de copier le modèle allemand actuel, et de chercher à grand renfort d’argent public, à reconstruire une industrie perdue. ». Bref, beaucoup d’incantations, douze ans pour les concrétiser.

 




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol