• Accueil
  • > Archives pour juillet 2019

Archive mensuelle de juillet 2019

Page 2 sur 22

Sécheresse: un plan bidon

Sécheresse: un plan bidon

78 des départements  restent en effet placés en restriction d’eau. Une situation qui perdure dans le temps, l’hiver ayant été sec, et qui a des conséquentes concrètes pour les agriculteurs et éleveurs. Ceci étant, les plans de restriction d’usage de l’eau demeurent relativement théoriques. Face à la sécheresse la France a mis en place un plan sophistiqué de lutte pour économiser l’eau. Il existe quatre niveaux de vigilance. Mais même dans les zones concernées par la plus haute vigilance zone dite rouge le plan de lutte contre la sécheresse apparaît à la fois dérisoire et non respectée. Dans ces zones dites rouges on peut toujours voir de nuit comme de jour des canons à eau arrosée des cultures souvent d’ailleurs en pure perte. En effet de jour 80% de cette eau s’évaporent aussitôt. Dans nombre de ces régions la culture de maïs très gourmande en eau est complètement inappropriée au climat. Des millions de tonnes d’eau sont ainsi gaspillés et l’interdiction de laver des voitures en comparaison paraît particulièrement désuète. La canicule fait encore des ravages.

Dans les Alpes (comme ailleurs, NDLR) °, région habituellement épargnée par la sécheresse, l’inquiétude est de mise. « Il n’y a plus d’herbe depuis plusieurs semaines, plus de pâtures, les vaches sont à l’étable et consomment le fourrage réservé à l’hiver », s’alarme Denis Novel, exploitant en Savoie. De fait, la production laitière est plus faible, certains professionnels l’estimant en baisse d’un tiers.

Pourtant, les précipitations et orages des derniers jours ont donné de l’espoir aux agriculteurs. « On a eu de la pluie très fine qui a bien pénétré le sol, ça va bien le regorger et ça peut sauver les meubles », espère quant à lui David Judicq, agriculteur dans le même département. Mais pour nombreux de production c’est déjà trop tard notamment quand les plantes ont été brûlées. Non seulement le volume de production va être affecté mais les coûts de production s’envolent.

Risques sanitaires de l’industrie alimentaire

Risques sanitaires de l’industrie alimentaire 

Bernard Srour, Institut national de la santé et de la recherche médicale (Inserm); Mathilde Touvier, Université Sorbonne Paris Cité (USPC); Serge Hercberg, Université Paris 13 – USPC, d’autres experts  s’interrogent à propos de certains  risques sanitaires pour les aliments dits ultra transformé sans doute pour ne pas utiliser le terme plus clair mais plus accusateur d’industrie alimentaire,  sorte de chimie qui ajoute nombre d’additifs aux produits de base :

 

« Dans de nombreux pays, le degré de transformation des aliments a augmenté au cours des dernières décennies. Aujourd’hui, les aliments dits « ultra-transformés » représenteraient 25 à 60 % des apports énergétiques journaliers en Europe, aux États-Unis, au Canada, en Nouvelle-Zélande, et au Brésil.

Or, depuis quelques années, les études suggérant qu’une consommation excessive de ce type d’aliments pourrait avoir des effets délétères pour la santé s’accumulent. Plusieurs recherches ont notamment mis en évidence un lien entre la consommation d’aliments ultra-transformés et un risque plus élevé de surpoids ou d’obésité ainsi que d’hypertension artérielle dans une cohorte d’étudiants espagnols, tout comme un risque accru de dyslipidémies (taux anormalement élevé ou diminué de certains lipides dans le sang : cholestérol, triglycérides…) dans une cohorte d’enfants au Brésil.

Jusqu’à présent, aucune étude épidémiologique n’avait étudié les relations entre la consommation de ces aliments et le risque de maladies cardiovasculaires. C’est désormais chose faite.

Les travaux de l’équipe EREN, qui associe des chercheurs en épidémiologie nutritionnelle de l’Inserm, de l’Inra, de l’Université Paris 13 et du CNAM révèlent, dans un article publié dans le British Medical Journal, que la consommation d’aliments ultra-transformés est associée à un risque accru de maladies cardiovasculaires.

Ces travaux robustes s’appuient sur des données issues de la cohorte NutriNet-Santé. Ils ont inclus plus de 100 000 participants, suivis entre 2009 et 2018, et porté sur >3 300 aliments et boissons différents, classés en fonction de leur degré de transformation.

La notion de transformation des aliments est complexe à appréhender, car les procédés possibles et les additifs autorisés pour modifier les aliments sont très nombreux.

Afin de clarifier les choses, des chercheurs de l’Université de São Paulo ont proposé de classer les aliments en quatre groupes reflétant les niveaux de transformation des aliments. Cette classification « Nova » catégorise les aliments en 4 groupes :

  • les aliments pas ou peu transformés ;
  • les ingrédients culinaires (sel, sucre, matières grasses animales et végétales, épices, poivre…) ;
  • les aliments transformés combinant les deux premiers groupes ;
  • les aliments ultra-transformés.

Ce dernier groupe inclut, entre autres, les sodas sucrés ou édulcorés, les légumes assaisonnés de sauces contenant des additifs alimentaires, les steaks végétaux reconstitués avec ajout d’additifs, les confiseries et barres chocolatées, et tous les produits transformés avec ajout de conservateurs autre que le sel (nitrites par exemple). On y trouve aussi les produits alimentaires principalement ou entièrement constitués de sucre, de matières grasses et d’autres substances non utilisées dans les préparations culinaires, telles que les huiles hydrogénées et les amidons modifiés.

Ainsi, les viandes rouges ou blanches salées sont considérées comme des « aliments transformés » alors que les viandes ou charcuteries contenant des nitrites et des conservateurs ajoutés, comme les saucisses et le jambon, sont classées comme « aliments ultra-transformés ».

Dans le même ordre d’idée, les soupes liquides en brique préparées uniquement avec des légumes, des herbes et des épices sont considérées comme des « aliments transformés » alors que les soupes déshydratées sont classées comme « aliments ultra-transformés ».

Formulés pour être microbiologiquement sains et pratiques d’utilisation, les aliments ultra-transformés ont, en moyenne, une qualité nutritionnelle plus faible que les autres aliments. Ils sont en effet souvent non seulement plus denses en énergie, plus riches en sel, sucre et acides gras saturés, mais également plus pauvres en fibres et en vitamines, et ils pousseraient à manger davantage.

Qui plus est, ces aliments ultra-transformés contiennent pour la plupart des additifs alimentaires (colorants, émulsifiants, texturants, édulcorants, etc.).

Ils sont par ailleurs susceptibles de véhiculer des substances provenant des emballages au contact des aliments, ainsi que certains composés « néoformés », c’est-à-dire produits lors des processus de transformation (chauffage à haute température, hydrogénation, prétraitement par friture, hydrolyse, extrusion, etc.).

Dans le cadre de la cohorte NutriNet-Santé, une association significative avait déjà pu être observée entre la part d’aliments ultra-transformés dans le régime alimentaire (en quantité) et une augmentation de divers risques : risque de cancers (au global et du sein), risque de mortalité, risque de symptômes dépressifs et de troubles fonctionnels digestifs.

Pour étudier les liens éventuels entre la consommation de ces aliments et le risque de maladies cardiovasculaires, nous avons recruté des participants qui n’avaient pas de maladie cardiovasculaire à leur entrée dans l’étude. Grâce à des enregistrements de 24 h répétés et validés, nous avons évalué la consommation alimentaire habituelle, et les milliers d’aliments et boissons consommés ont été classés en fonction de leur degré de transformation (selon la classification NOVA).

Les participants ont été suivis de 2009 à 2018 afin de détecter la survenue de maladies, et d’étudier les associations de ces maladies avec leurs consommations alimentaires. Les résultats sont clairs : la consommation d’aliments ultra-transformés s’est révélée être associée à un risque plus élevé de maladies cardiovasculaires, à la fois coronariennes et cérébro-vasculaires.

Une augmentation de 10 points de la part d’aliments ultra-transformés dans le régime alimentaire (par exemple, en comparant deux individus consommant respectivement 15 % et 25 % du poids de leurs aliments sous forme ultra-transformée) était associée à une augmentation de 12 % de risque de maladies cardiovasculaires au global (13 % pour les maladies coronariennes et 11 % pour les maladies cérébro-vasculaires).

La mauvaise qualité nutritionnelle n’est pas seule en cause

Au sein des produits recensés par NutriNet-Santé, 85 % des produits de mauvaise qualité nutritionnelle (classés E par le NutriScore) étaient des aliments ultra-transformés.

Cependant, les résultats de nos travaux montrent que cette moins bonne qualité nutritionnelle globale des aliments ultra-transformés n’explique probablement pas à elle seule l’augmentation du risque cardiovasculaire. D’autres hypothèses mécanistiques sont envisageables, faisant par exemple intervenir des composés tels que certains additifs alimentaires ou substances formées lors des processus de transformation. Certains effets adverses sur la santé de tels composés ont en effet déjà été suggérés dans des études expérimentales.

C’est par exemple le cas de l’acrylamide, qui se forme au moment de la cuisson à haute température de certains aliments riches en asparagine (un acide aminé) et en amidon (frites/chips de pomme de terre, céréales du petit déjeuner, produits de panification, biscuits…). Cette molécule est reconnue comme cancérogène probable pour l’être humain, et a été liée au risque de maladies cardiovasculaires.

On peut aussi citer la carboxyméthylcellulose (E466), additif utilisé comme émulsifiant, qui, selon une étude sur des modèles animaux (souris), pourrait provoquer des réactions intestinales inflammatoires et augmenter le risque de syndrome métabolique, ou les matériaux au contact des aliments (comme le bisphénol A, maintenant interdit des emballages alimentaires et qui a lui aussi été lié à des désordres cardiométaboliques).

Les résultats obtenus dans cette étude sont robustes. Pour limiter les biais, ils tiennent compte d’un grand nombre de facteurs sociodémographiques et liés au mode de vie : âge, sexe, tabagisme, consommation d’alcool, niveau d’étude, activité physique, poids, les comorbidités métaboliques (maladies qui en accompagnent une autre), antécédents familiaux…

Cette étude observationnelle ne permet pas à elle seule de conclure à un lien de cause à effet. Cependant, des essais d’intervention au long cours, qui consisteraient à faire consommer des aliments ultra-transformés à des participants pendant plusieurs années, puis à évaluer l’impact sur leur santé (cancers, mortalité, maladies cardiovasculaires) ne sont pas envisageables.

Pour confirmer ces résultats, de nouvelles études épidémiologiques d’observation devront donc être réalisées, sur des populations diverses et dans d’autres pays. Il faudra également aller plus loin dans la compréhension des procédés de transformation grâce à de nouvelles approches épidémiologiques, couplées à des approches expérimentales in vitro et in vivo. Des essais randomisés, mais à court terme et portant sur des facteurs de risque précoces (comme la prise de poids) pourraient aussi être envisagés.

Aux États-Unis, un tel essai a récemment montré qu’un régime ultra-transformé favorise la consommation d’une quantité plus importante d’aliments, et la prise de poids.

En attendant d’en savoir plus, les recommandations nutritionnelles publiées récemment par Santé publique France dans le cadre du Programme national nutrition santé 2019conseillent, au nom du principe de précaution, de limiter la consommation d’aliments ultra-transformés et de privilégier la consommation d’aliments bruts ou peu transformés.

Pour parvenir à faire le tri dans les rayons des supermarchés, les consommateurs peuvent utiliser des applications gratuites comme celle d’Open Food Facts. S’appuyant sur une base de données ouverte et collaborative, elle permet en scannant le code-barre d’un produit alimentaire, d’afficher à la fois son NutriScore (logo qui renseigne sur la qualité nutritionnelle des aliments), sa catégorie NOVA (qui renseigne sur le degré de transformation), et la liste d’ingrédients (et d’additifs) qu’il contient.

Ce type d’outil est précieux pour atteindre l’objectif que s’est fixé le Haut Conseil de la Santé publique : réduire de 20 % la consommation d’aliments ultra-transformés en France d’ici à 2022.

Pour aller plus loin : À l’occasion des 10 ans de cette étude publique coordonnée par l’équipe EREN, un appel au recrutement est lancé. Vous souhaitez vous aussi faire avancer la recherche sur les liens entre nutrition et santé ? Rejoignez les 165 000 « Nutrinautes » de l’étude NutriNet-Santé ! Toutes les informations sont disponibles sur etude-nutrinet-sante.fr/.

______

Par Bernard Srour, Epidémiologiste – Equipe de Recherche en Epidémiologie Nutritionnelle EREN (Inserm U1153 / Inra U1125 / Cnam / USPC) – Centre de Recherche en Epidémiologie et Statistiques Sorbonne Paris Cité (CRESS), Institut national de la santé et de la recherche médicale (Inserm) ; Mathilde Touvier, Directrice de l’Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Sorbonne Paris Cité (USPC) et Serge Hercberg, Professeur de Nutrition Université Paris 13 – Praticien Hospitalier Département de Santé Publique, Hôpital Avicenne (AP-HP), Equipe de Recherche en Epidémiologie Nutritionnelle, U1153 Inserm,Inra,Cnam, Université Paris 13 – USPC

Le « numérique », quelles définitions et quelles conséquences ?

Le « numérique », quelles définitions et quelles conséquences ?

 

Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal  s’interroge dans la tribune sur la définition générale du numérique et surtout sur ses usages. Une analyse intéressante mais qui est loin d’être exhaustive. «

 

« Nous  parlons de plus en plus de « numérique » en substantivant un adjectif qui – initialement – comporte une signification technique précise et qui devient désormais davantage un phénomène culturel qu’une notion liée à des outils technologiques particuliers. Cette universalisation du numérique nous permet de comprendre des changements qui affectent l’ensemble de notre société et notre façon de penser, comme l’a bien expliqué notamment Milad Doueihi par son concept de « culture numérique ».

Cet usage pose pourtant un problème majeur : nous avons de plus en plus tendance à penser « le numérique » comme un phénomène uniforme et homogène (sur ce sujet, il est intéressant de lire le débat entre Morozov et Johnson) alors que, de toute évidence, il ne l’est pas. « Le » numérique n’existe pas en tant que tel. Il existe de nombreuses pratiques, usages, outils et environnements différents, chacun fondé sur des principes particuliers, chacun promouvant des valeurs spécifiques et entraînant des conséquences caractéristiques.

Le fait de penser « le numérique » comme un tout nous amène souvent à exprimer des jugements de valeur qui font abstraction des caractéristiques propres à des outils ou pratiques distincts : inévitablement donc, le jugement se radicalise, s’uniformise, se généralise en perdant tout son sens et sa cohérence vis-à-vis du particulier. « Le numérique » devient ainsi tantôt synonyme d’émancipation et de liberté, tantôt synonyme de contrôle et d’assujettissement : en somme, le numérique est bien ou le numérique est mal. D’un côté les technoptimistes, de l’autre les technophobes.

Les modes changent : nous sommes passés d’un technoptimisme généralisé à une technophobie universelle. Dans les années 1990, le discours des optimistes semblait prévaloir : de la déclaration de l’indépendance du cyberespace de John Perry Barlow aux discours d’émancipation transhumanistes, en passant pas les merveilles de la virtualisation.

Depuis quelques années, il semblerait que la mode ait changé : il faut être critique vis-à-vis du numérique. Les grands gourous du numérique sont les premiers à le blâmer : de Bill Gates à Tim Berners-Lee, en passant par Jimmy Wales… Le discours critique est aussi porté par les intellectuels - Morozov est devenu le porte-drapeau de ce mouvement, avec des arguments que je partage dans l’ensemble – ou des universitaires. Des critiques philosophiques approfondies ont été développées, consacrées à des phénomènes particuliers – je pense en premier lieu à la fine analyse que Gérard Wormser propose de Facebook.

Il me semble cependant nécessaire de différencier – et ainsi d’identifier – les aspects du « fait numérique » qui peuvent et doivent nous faire peur. Bien que j’ai toujours rejeté cette opposition entre optimistes et technophobes, je conserve néanmoins une préférence pour les optimistes – encore aujourd’hui alors que cette posture est passée de mode. J’ai tendance à être en accord avec les analyses de Pierre Lévy qui soulignent le fait toujours d’actualité que plusieurs idéaux utopistes, qui portaient le développement informatique dans les années 1990, sont encore présents et en vigueur. Cependant, dans les dernières années – probablement aussi du fait que je suis devenu le père de deux enfants -, je suis de plus en plus angoissé, non pas par « le numérique » en général, mais par la place dans nos vies à laquelle accède – notamment via certaines technologies numériques – un nombre très restreint de sociétés privées : celles qu’on a commencé à appeler les GAFAM pour se référer à Google, Apple, Facebook, Amazon et Microsoft, sachant que cet acronyme est devenu une métonymie pour inclure également les nouveaux acteurs comme Netflix, Airbnb, Uber, etc.

Cette influence ne dépend pas « du numérique », mais de certains usages spécifiques : plus précisément des usages de logiciels et de matériels propriétaires. Et, plus important, ces usages ne sont pas inévitables, mais on fait, hélas, trop peu – ou presque rien – pour les contrer, alors qu’il serait facile de mettre en place des mécanismes et dispositifs de protection de l’espace public.

Concrètement, le fléau dont nous sommes victimes est représenté par le fait que dans tous les domaines, de la vie privée à la vie publique en passant par l’activité professionnelle, nous sommes encouragés à utiliser des solutions propriétaires : MacOs, iOS, Windows, Word, Adobe, Facebook, WhatsApp, Skype, Gmail, Outlook… Ce problème n’émane pas, à mon sens, des entreprises – dont l’objectif principal est, évidemment, de vendre leurs produits -, mais du manque quasi total de sensibilité des institutions publiques et privées et de l’absence de littéracie numérique pour les usagers.

Quelques exemples :

  • nous utilisons des systèmes d’exploitation propriétaires – MacOS et Windows – alors que nous pourrions utiliser des systèmes d’exploitation libres ;
  • nous utilisons des dispositifs portables propriétaires sans nous soucier des conséquences ;
  • nous utilisons des applications mobiles alors que nous pourrions utiliser des services web ;
  • nous utilisons des logiciels propriétaires alors que nous pourrions utiliser des solutions libres ;
  • nous ne nous posons pas de questions sur les pilotes qui font fonctionner les dispositifs de nos ordinateurs alors que nous pourrions choisir les dispositifs en fonction de la transparence de leur conception.

Ce sont fondamentalement les revendications de la Free Software Foundation qui n’ont malheureusement que trop peu d’impact sur les pratiques.

Or deux considérations :

  • ces pratiques sont très dangereuses ;
  • il serait très facile de les changer.

Il me semble, en d’autres termes, que, le fait de penser « le numérique » comme quelque chose d’uniforme nous empêche de cerner le véritable problème et de chercher des solutions. Être génériquement technophobes est une posture qui n’amène à rien : cela revient à un nostalgique « o tempora o mores » qui plonge dans une inactivité abrupte. Des positions du type : « le numérique doit/ne doit pas être utilisé par les enfants » me semblent juste stupides. Elles réunissent des réalités hétérogènes qui n’ont aucun rapport entre elles : « le numérique » ? Quels outils ? Quelles plates-formes ? Quels environnements ? Quels dispositifs ? Identifier des problèmes spécifiques est sans doute plus complexes : cela demande une étude et une compréhension du fait numérique dans sa diversité, une analyse des enjeux liés à un logiciel, à un format, à un protocole qui demandent du temps et de l’expertise. Mais cela permet de trouver des alternatives et des solutions concrètes.

_________

Par Marcello Vitali-Rosati, Professeur agrégé au département des littératures de langue française, Université de Montréal

La version originale de cet article a été publiée sur The Conversation

Ouvriers et employés chassés de Paris

Ouvriers et employés chassés de Paris

Une enquête des notaires démontre que les ouvriers comme les employés ne cessent de régresser dans la population de propriétaires de logements. Mais c’est évidemment la même tendance concernant la location compte tenu de leur niveau ; des niveaux forcément liés à l’amortissement des investissements sauf  dans le logement social est encore. . Rien de surprenant quand il faut compter 300 à 400 000 € pour un très petite appartement et autour d’un million pour un logement classique. La proportion d’employés d’ouvriers a été divisée par trois dans la capitale, passant de 15% à 5% alors qu’elle fondait de 27% à 19% sur l’ensemble de l’Île-de-France. La couronne elle-même suit la même tendance, puisque la part des acquéreurs de maisons employés et ouvriers est passée de 34% à 28%, en 20 ans, pendant que celle des acquéreurs d’appartements passait de 33% à 26%. Et tout ce terrain perdu est gagné par les CSP+. «Dans le détail au sein des CSP+, c’est la part des cadres qui a le plus évolué en Ile-de-France, passant de 27% en 1998 à 37% en 2018, précisent les notaires, alors que le poids des acquéreurs issus des professions intermédiaires est resté assez stable autour de 30%.»

Brexit: Boris Johnson ne manque pas d’air et veut un vaste accord commercial avec l’UE

Brexit: Boris Johnson ne manque pas d’air et veut  un vaste accord commercial avec l’UE

 

La force de Boris Johnson, mais aussi sa faiblesse, c’est d’être capable de dire tout et le contraire en 24 heures. Ainsi hier il affirmait que le Brexit dur c’est-à-dire sans accord commercial était incontournable. Aujourd’hui il indique qu’il est prêt à négocier un accord commercial avec l’union européenne. Le problème c’est que l’union européenne refuse de négocier à nouveau et considère que l’accord de transition passé avec Teresa May  n’est pas négociable. En fait il est difficile de connaître quelles perspectives exactes se donne Boris Johnson. Veut-il réellement un Brexit  dur sans concession voire même sans remboursement des sommes dues à l’union européenne. Au contraire veut-il faire semblant de renégocier l’accord de transition en se contentant d’une modification des termes de l’avant-propos qui accompagne l’accord. Boris Johnson utilise la stratégie de Trump en soumettant la sémantique à l’hystérie davantage pour satisfaire ses électeurs que pour atteindre un objet précis. La difficulté que rencontre Boris Johnson ne se trouve pas seulement avec l’union européenne mais aussi avec son parlement interne qui d’une certaine façon a voté  des dispositions pour cadenasser les espaces de liberté du Premier ministre britannique. «Ce que nous voulons faire, c’est établir un nouveau partenariat pour tout ce qui est important pour nous, collaborer sur la défense, la sécurité, le renseignement, la culture, la science, tout ce à quoi pour pouvez vous attendre», a ajouté Boris Johnson.

«Au cœur de tout cela, (il faut) un nouvel accord de libre-échange qui nous permette de reprendre le contrôle de nos droits de douane et de nos règlements, et d’agir différemment là où nous voulons le faire.» L’Union européenne a exclu de renégocier l’accord de Brexit conclu avec le gouvernement de Theresa May. De toute façon, assure Boris Johnson, le Royaume-Uni quittera l’UE le 31 octobre, avec ou sans accord.

Le Premier ministre britannique a par ailleurs exclu tout nouveau référendum sur l’indépendance de l’Ecosse, après celui de 2014 qui s’est conclu par une victoire du «non».

 

Mercosur: une évaluation tardive par 10 experts

Mercosur: une évaluation tardive par 10 experts

 

 

Mieux vaut tard que jamais mais il paraît curieux que le gouvernement français mette seulement en place maintenant un groupe d’évaluation concernant l’accord commercial appelé Mercosur conclu avec  quatre pays d’Amérique latine (Brésil, Argentine, Paraguay et Uruguay). En effet il aurait sans doute été préférable d’évaluer ce projet avant qu’il ne soit bouclé par l’union européenne. Certes contrairement au CETA, le Mercosur n’entrera pas en vigueur avant d’avoir été ratifié. Le CETA,  accord commercial passé avec le Canada, constitue à cet égard une bizarrerie juridique puisse qu’il a été t mis en application avant d’être ratifié par les Etats. Pour le Mercosur, l’union économique aura la décence d’attendre la ratification avant la mise en œuvre. On sait que le Mercosur comme d’ailleurs le CETA  utilise le secteur agricole comme une variable d’ajustement pour faciliter les exportations européennes. Alors la grande question qui se pose est celle du différentiel en matière de concurrence. En effet encore plus que pour le Canada, les conditions sociales, sanitaires et environnementales sont notoirement moins contraignantes en Amérique latine par rapport à l’Europe. Il est curieux que la France s’interroge seulement aujourd’hui sur la possibilité qu’elle aura d’appliquer des normes européennes aux produits importés grâce aux Mercosur. Le gouvernement a toutefois tenté de rassurer verbalement le milieu agricole En affirmant qu’il ne le signera pas à n’importe quel prix. Pour entrer en vigueur, l’accord doit être ratifié par chacun des Etats européens et par le Parlement européen. Le ministre de l’Agriculture, Didier Guillaume, a déclaré mercredi que le texte n’était «pas ratifiable en l’état».

 

La commission d’évaluation, présidée par Stefan Ambec, économiste de l’environnement à la Toulouse School of Economics et directeur de recherche à l’Inra, remettra ses conclusions en novembre, précisent les services du Premier ministre, Edouard Philippe, dans un communiqué. Elle «s’attachera en particulier à évaluer les effets de l’accord en termes d’émission de gaz à effet de serre, de déforestation et de biodiversité. Elle appréciera les conséquences du projet d’accord sur la capacité des Etats et de l’Union européenne à réguler et à appliquer leurs normes aux produits consommés sur le marché européen», écrivent-ils.

«La commission formulera des recommandations pour répondre aux risques qu’elle identifiera» et ses conclusions «ont vocation à apporter un éclairage objectif sur les enjeux de l’accord pour nourrir le débat public et préparer le positionnement de la France», poursuivent-ils. Une étude d’impact quantitative et de travaux sur les filières agricoles sensibles seront également menés.

Les théories économiques et monétaires mises en question ?

Les   théories économiques et monétaires mises en question ?

Olivier Passet, Xerfi   dans la Tribune estime que nombre de théories économiques sont  remises en question par les réalités. Un questionnement intéressant mais qui n’évacue pas l’hypothèse cependant d’un éclatement de bulle financière à moins  d’imaginer l’obsolescence totale de la théorie ;  un pari intellectuel (et financier) qu’il vaut mieux ne pas prendre.

«  La déroute paraît totale. C’est tout l’appareillage théorique des économistes qui sombre tel le Titanic après l’impact de la crise de 2007-2008. L’orchestre des experts continue à jouer durant le naufrage. Mais quel que soit le marché vers lequel on se tourne, les anomalies, les paradoxes s’accumulent. Un à un, chacun de ces phénomènes peut trouver éventuellement une explication a posteriori. Mais mises bout à bout, ces explications partielles forment un puzzle qui défie les cohérences doctrinales habituelles.

En numéro un des bizarreries : les taux longs négatifs. Ce régime de taux très bas dans lequel s’installent les économies développées bouscule bien des préconçus. Il se produit alors même que l’endettement des États a bondi avec la crise. Il s’amplifie en France au moment même où le gouvernement annonce une nouvelle dérive du déficit. Au moment même aussi où a volé en éclat l’idée selon laquelle les États étaient à l’abri du risque de défaut. Où est donc cette fameuse remontée des taux que pronostiquaient tant d’économistes, la pointant comme un risque majeur en sortie de crise. Un retour à la normale inévitable, puisque l’économie a vocation à revenir sur ses valeurs centrales à long terme. Une vision de la normalité qui oublie au passage qu’historiquement des taux d’intérêt inférieurs au taux de croissance nominale sont la normalité. Et que la fameuse règle d’or, qui veut qu’à l’équilibre le taux d’intérêt s’égalise au taux de croissance, n’est qu’un mythe.

Ces taux historiquement faibles ne seraient que le reflet d’un déséquilibre plus profond entre l’épargne mondiale et le besoin d’investissement. La loi de l’offre et de la demande vient toujours à la rescousse des économistes. Et les raisons d’imaginer les sources d’un tel déséquilibre ne manquent pas. Ben Bernanke les a énumérées dans son célèbre discours global saving glut de 2005, pointant notamment la prégnance du vieillissement et du ralentissement démographique.

Certes, mais comment se fait-il que le régime devienne permanent. La baisse des taux aurait dû modérer la propension à épargner des agents. Rétablissant l’équilibre à terme. Sauf à imaginer que le rendement du capital productif est tellement faible en face, que la baisse des taux ne crée aucune opportunité d’investissement. Panne du progrès technique, baisse de la productivité marginale du capital, ce sont les tentatives d’explications avancées par les tenants de la stagnation séculaire. Mais, il y a deux gros hic à cette version des choses. Si tel est le cas, comment se fait-il que le rendement moyen du capital soit aussi élevé ? Autrement dit, les bénéfices rapportés aux immobilisations des entreprises ? Comment expliquer aussi le ralentissement de la productivité, alors même que la robotisation et la digitalisation créent tant d’opportunités d’automatisation.

Face à cela, les tombereaux de monnaie injectés par les banques centrales n’ont réanimé ni la croissance ni l’inflation. L’équation de Fisher et la doxa monétariste sont à ranger au magasin des antiquités. Trappe à liquidité nous répondent les keynésiens. L’activisme des banques centrales a fait baisser les taux à un plancher. À ce niveau, plus personne ne prend le risque de s’exposer sur des titres dont la valeur dégringolera inévitablement dès que les taux remonteront. L’interprétation est séduisante. Et la préférence pour les encaisses liquides est forte aujourd’hui. À cela près que cette liquidité n’est pas thésaurisée. Elle alimente les marchés d’actifs, mobiliers et immobiliers, sur lesquels les perspectives de plus-values demeurent l’aiguillon de l’activisme des acteurs financiers. Et au final, l’environnement de taux zéro produit un rendement des actifs financiers et mobiliers élevé, par le truchement des plus-values. Bref, les bribes d’explication sont soit non démontrables, soit partiellement convaincantes.

Sur le marché du travail, même constat. La courbe de Phillips est à l’agonie. Les salaires restent étrangement inertes. Les tensions sont elles-mêmes de plus en plus difficilement identifiables, tout comme le concept de plein emploi. Les taux de chômage refluent, enfoncent leurs planchers dans certains pays, sans explication convaincante. Les taux d’emplois battent des records, au moment même où se déploie tout le discours sur la fin du travail. La productivité tendancielle ralentit, ce qui devrait augmenter le taux de chômage d’équilibre de long terme, selon les approches les plus orthodoxes… Mais rien de tel n’est observé.

Que dire encore de l’approche ricardienne du commerce international. De ce credo si largement partagé selon lequel l’ouverture des échanges ne peut que déboucher sur un jeu gagnant-gagnant pour toutes les nations. Le credo commençait à être sévèrement écorné avec la prise en compte des phénomènes d’agglomération industrielle. Avec le constat de l’impact des échanges sur les inégalités.

Mais voici que les États passent à l’acte. Un acte de défiance, à la hauteur de la crise de crédibilité des économistes, et du défi qui les attend pour refonder leur science.

 

Actu, infos, économie, social, politique : articles les plus lus

Hong Kong : Xi Jinping, le nouveau Mao veut installer aussi la dictature

Hong Kong : Xi Jinping, le nouveau Mao veut installer aussi la dictature

 

Manifestation pro démocratie, répression policières se succèdent à HONG Kong ou XI Ping veut aussi installer la dictature. Le pouvoir chinois a même eu recours à la mafia pour bastonner des manifestants. L’origine de l’affaire, c’est le refus des résidents de Hong Kong d’être jugé par l’Etat chinois (conformément à l’accord qui a prévu le rattachement de Hong Kong la Chine). En apparence, Xi Jinping, le nouveau maître de la Chine, donne l’impression d’une grande sérénité voir même d’une certaine sagesse. La vérité est toute autre, c’est le nouveau dictateur de la Chine puisqu’il a même réussi à obtenir des instances démocratiques  (le parti communiste)  un caractère illimité pour la durée de son mandat. Bref c’est un nouveau Mao qui certes est préoccupé de développement économique et a connu des réussites indiscutables ces dernières années ;  même si en ce moment,  la Chine connaît de sérieux problèmes de croissance. Des problèmes qui ne sont pas tous liés aux difficultés commerciales avec les États-Unis mais qui sont aussi structurels (la question de l’endettement général en particulier). On a pu voir quelles étaient les réelles intentions de ce nouveau Mao vis-à-vis de Hong Kong dont le rattachement à la Chine garantissait l’’indépendance judiciaire pour la zone considérée. L’accord a volé en éclats et la Chine a exigé le rapatriement des résidents. En Chine,  le lavage de cerveau fait office de culture historique. Ainsi a-t-on gommé dans les mémoires et dans tous les documents officiels le massacre de la place Tiananmen. Ainsi développe-t-on la culture de l’enlèvement de personnalités trop gênantes (au motif souvent qu’elles sont corrompues comme si l’appareil communiste de l’était pas tout entier !). Surtout la Chine ne se prive pas de prendre des intérêts financiers à l’extérieur (pays développés ou pays pauvres) sans qu’aucune contrepartie ne soit possible en Chine où tout est contrôlé par l’Etat. Le pire c’est sans doute la chape de plomb culturelle et démocratique qui permet au parti communiste de maintenir le pays en état de dictature. Il serait peut-être temps que les pays développés s’intéressent un peu à autre chose qu’à leur commerce avec la chine. Exemple de la fermeture culturelle, maintenant on  veut siniser le nom des rues, des quartiers et des cinémas. Bref une révolution culturelle nouvelle qui ne dit pas son nom, chape de plomb supplémentaire pour écraser toute culture étrangère et les Chinois avec.

 

Télé : chute d’audience, en cause l’info surgelée

Télé : chute d’audience, en cause l’info  surgelée

Il y a évidemment La tendance se confirme : les Français regardent moins la télé. . Il est il y a évidemment plusieurs facteurs explicatifs à la baisse d’audience de la télé. La principale raison tient sans doute à la multiplication des supports et à la possibilité de se construire en quelque sorte des programmes à la carte. Progressivement, l’ordinateur et les Smartphones se substituent à la télé. En cause, le fait que ces supports sont beaucoup plus interactifs, qu’on trouve une beaucoup plus grande diversité d’informations et de programmes. On a aussi en quelque sorte individualisé la consommation du divertissement, de l’info et de la connaissance. La durée d’écoute a encore reculé, perdant plus de 9 minutes au premier semestre (à environ 3 heures 30 en moyenne) comparée à la même période l’an dernier, selon les données de Publicis Media, comprenant le « live » et le replay . Les produits télévisés sont un peu comparable à du surgelé. D’ailleurs certains programmes de 20, 30 ou 40 ans d’âge donnent l’impression de sortir du congélateur télévisuel. D’autres sont bâtis à la hâte pour satisfaire la diffusion sur les innombrables chaînes dont certaines sans grand intérêt. Heureusement de temps en temps des produits originaux permettent de sortir de la routine des trop nombreuses rediffusions. Parmi les produits surgelés de la télé, il faut aussi signaler l’information. Une information à peu près construite sur le même modèle avec la lecture de  presque des cinq ou six événements que signalent les dépêches d’agence. À peu près les mêmes événements sur toutes les chaînes avec quelquefois deux ou trois micros trottoir pour donner l’illusion d’une enquête. Même les chaînes d’info continue ne parviennent pas à retenir l’intérêt. Pour des questions économiques surtout ;  ces dernières se résument à des tables rondes de pseudos experts et de vieilles barres en mal existentiel qui parle de tout, surtout de rien comme on le fait dans n’importe quel bistrot mais avec la prétention scientiste en plus.

La démocratie en Russie: 1400 arrestations !

La démocratie en Russie: 1400 arrestations !

Ce n’est plus le régime communiste depuis longtemps mais c’est la même dictature au service de Poutine et de ses partisans qui par ailleurs pillent le pays. Ainsi de l’ordre de 1500 manifestants ont été arrêté pour n’importe quel motif alors qu’ils militent  pour des élections libres.  la réponse du pouvoir est claire et directement inspirée de l’ancien KGB d’où a émergé Poutine. En Russie il n’y a pas de place pour l’opposition, pour le débat encore moins pour l’alternative politique.

L’opposition dénonce le rejet des candidatures indépendantes en vue des élections locales du 8 septembre, qui s’annoncent difficiles pour les candidats soutenant le pouvoir dans un contexte de grogne sociale. Les domiciles et les permanences de plusieurs candidats exclus avaient été perquisitionnés par avance et, mercredi, l’opposant numéro un au Kremlin Alexeï Navalny avait été renvoyé en prison pour 30 jours pour des infractions aux « règles des manifestations ».

Ces procédures font suite à l’ouverture d’une enquête pour « entrave au travail de la Commission électorale » de Moscou au cours de manifestations mi-juillet. Elles peuvent aboutir à des peines atteignant cinq ans de prison, rappelant les sévères condamnations prononcées au moment du mouvement de 2011-2012 contre le retour à la présidence de Vladimir Poutine.

Le dérèglement climatique : Accélération dramatique

Le dérèglement climatique : Accélération dramatique

Indiscutablement, on assiste à une accélération du dérèglement climatique dans son ampleur et dans son rythme. En outre, toute la planète est affectée. L’épisode de la récente canicule n’est qu’un aspect des changements météorologiques. Si les bouleversements s’accélèrent c’est en grande partie du fait de l’immobilisme face à cet enjeu. Certes des déclarations sont faites, des intentions internationales se manifestent  mais globalement les mesures ne sont pas à la hauteur. L’urgence environnementale imposerait de mettre en question les conditions de production, de consommation et plus généralement de vie. Au lieu de cela, on privilégie toujours le productivisme, les gaspillages, les flux de transport parasites. Pourtant des pratiques durables devraient s’imposer dans le champ de responsabilité des Etats, des entreprises et des citoyens. “On joue tellement gros dans les 18 prochains mois”, soupire Sue Reid, vice-présidente de l’ONG américaine Ceres, qui incite les entreprises et les investisseurs à adopter des pratiques durables.

“Nous entrons dans une période cruciale pour que les responsables politiques comme le secteur privé inversent réellement la courbe des émissions carbone”, a-t-elle dit à Reuters. Alors que les études scientifiques montrent les unes après les autres une accélération bien plus rapide que prévu des conséquences du dérèglement climatique, comme la fonte des glaces et la hausse du niveau des mers, même les objectifs convenus à Paris en 2015 semblent insuffisants pour contenir la hausse de la température mondiale à 1,5°C au-dessus du niveau de l’époque préindustrielle.

En octobre dernier, le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) a prévenu que les émissions de Co2 devraient commencer à baisser dès l’année prochaine pour qu’il y ait une chance d’atteindre cet objectif. Alors que selon la trajectoire actuelle, la hausse de la température pourrait dépasser 3°C d’ici la fin du siècle, le secrétaire général de l’Onu, Antonio Guterres, s’efforce de convaincre les Etats de renforcer leurs engagements avant la session de l’Assemblée générale des Nations unies en septembre.

Soulignant qu’il serait “suicidaire” de ne rien faire, le diplomate portugais espère provoquer un sursaut en vue de la prochaine conférence mondiale sur le climat (COP25) en novembre au Chili.

“Dans les 18 mois qui viennent, la diplomatie climatique va atteindre une intensité d’un niveau sans égal depuis la signature de l’Accord de Paris”, souligne Tessa Khan, une avocate spécialisée dans la lutte contre le changement climatique.

Mais l’enjeu majeur reste de convertir les engagements des Etats en actes concrets car jusqu’à présent, aucune des grandes économies n’a véritablement entamé sa mutation.

Pour le climatologue américain Michael Mann, directeur du Centre des sciences de la Terre à l’Université de Pennsylvanie, cela implique que les gouvernements accordent à la transition énergétique la même priorité que la mobilisation de l’industrie pendant la Seconde Guerre mondiale.

Face à l’inaction des Etats, certains préfèrent se préparer à l’effondrement du monde actuel. “Soit nous transformons radicalement notre mode de vie collectif en renonçant aux énergies fossiles, soit, et c’est plus probable, le changement climatique précipitera la fin de la civilisation capitaliste mondiale alimentée par les énergies fossiles”, écrivait l’auteur américain Roy Scranton dans une tribune publiée en avril dans la MIT Technology Review. “Révolution ou effondrement. Dans les deux cas, la belle vie d’avant n’est plus viable.”

L’Italien Sandro Gozi conseiller à Matignon

L’Italien Sandro Gozi conseiller à  Matignon

 

L’internationalisation de la classe politique est peut-être une des voies à suivre pour lutter contre le nationalisme et au-delà contre le risque de conflit y compris guerrier. Certes pour l’instant chaque État entend rester dans son village gaulois et le projet par exemple de créer une liste inter états aux élections européennes a complètement échoué. Dommage car c’est  sans doute seul ce type d’élection qui pourrait donner une vraie légitimité démocratique au responsable de l’union économique. Des responsables aujourd’hui désignés comme des fonctionnaires en fonction d’arrangements entre pays et qui politiquement pèsent peu. À noter une avancée toutefois (modeste cependant) avec l’ex-secrétaire d’État italien aux Affaires européennes, candidat en mai sur la liste de la majorité, va être nommé au cabinet d’Édouard Philippe où il sera en charge des questions d’Europe. L’Italien Sandro Gozi, numéro 22 sur la liste Renaissance lors des dernières élections européennes, va rejoindre Matignon dans les prochains jours en tant que chargé de mission. Il devrait y rester jusqu’à ce que le Brexit lui permette de prendre son siège d’eurodéputé au Parlement européen. L’ex-secrétaire d’État aux Affaires européennes dans le gouvernement de Matteo Renzi, membre du Parti démocrate italien, aura en charge le suivi de la mise en place des nouvelles institutions européennes et les relations avec le Parlement européen. Il travaillera, bien sûr, en collaboration étroite avec le Secrétariat général aux Affaires européennes.

 

Sandro Gozi, qui enseigne à Sciences Po depuis une quinzaine d’années, est un spécialiste des questions européennes. Il fut durant dix ans le collaborateur de Romano Prodi à la Commission européenne et préside depuis fin 2018 l’Union des fédéralistes européens.

Changement de com. : Macron reconnaît la colère des Français

Changement de com. : Macron reconnaît la colère des Français

 

 

La reconnaissance de la colère des Français ne constitue sans doute pas un changement de politique chez Macon. Plutôt une modification profonde de la communication. À la condescendance voire au mépris,  on va maintenant substituer la compassion et la proximité. Pour parler clair, il a été fortement recommandé à Macron d’éviter cette posture de donneur de leçons qui peut d’ailleurs aller jusqu’à l’injure. La colère “profonde” d’une partie des Français qui s’est manifestée au cours des derniers mois avec le mouvement des “Gilets jaunes” n’est pas “derrière nous”, a déclaré samedi Emmanuel Macron estimant qu’il fallait encore “redonner un sens à l’action”. Il y a dans ses propos toute l’insuffisance de la politique actuelle pouvoir qui d’une part nie les réalités sociales, d’autre part empile les réformes plus ou moins abouties sans qu’on aperçoive une vraie vision. “Je pense qu’il y a une partie à laquelle nous avons su répondre, et une partie à laquelle nous n’avons pas encore répondu parce que ça prend du temps. Il y a aussi une colère à laquelle il n’y a pas forcément de réponse immédiate”, a ajouté Macron.

Il estime qu’”il y a des problèmes profonds dans notre pays qui sont liés à l’injustice, aux difficultés économiques qu’on connaît depuis très longtemps, parfois aux doutes qui existent, aux défis qu’on a devant nous liés au vieillissement, au numérique, à l’écologie”.“Je pense que ceci créé des peurs, parfois ces peurs sont exploitées et donc notre défi est d’y répondre”, a-t-il ajouté, en se disant “vigilant” et “à la tâche”.

“Je pense qu’il faut continuer à agir concrètement pour nos concitoyens à la rentrée, c’est ce que j’ai demandé au gouvernement, et à redonner du sens à l’action parce qu’il faut, non pas chercher à éteindre les peurs, mais à redonner une perspective, un cap de ce qui est vivre ensemble entre Français de manière apaisée”. “Il y a une aspiration à un sens profond dans notre pays et on ne l’a pas encore trouvé”, a-t-il conclu. D’une certaine manière, Macon avoue sa grande faiblesse ;  à savoir l’incapacité à définir une cohérence à son projet. Pour preuve entre 65 et 70 pour cent des Français estiment que la politique du gouvernement est inefficace sur le plan économique.

Greta Thunberg, symbole d’une jeunesse qui bouge mais qui gène

Greta Thunberg, symbole d’une jeunesse qui bouge mais qui gène

De toute évidence le symbole Greta Thunberg gêne surtout certains adultes bien installés dans le confort de leurs convictions rétrogrades. Parmi eux aussi des hommes politiques, des intellectuels qui n’apprécient pas de recevoir une leçon de la part de la jeunesse. Au-delà de l’« effet Greta Thunberg », qui insupporte certains adultes, la défense du vivant par la jeune génération marque le passage d’une adolescence assise à une jeunesse en action, souligne Marion Robin, psychiatre d’adolescents, dans une tribune au « Monde ».

« L’image dominante de l’adolescence est aujourd’hui représentée par des jeunes de 12 à 25 ans qui traversent une crise. Apathiques, repliés sur eux-mêmes, critiques envers leurs parents : la vision d’une adolescence « canapé-selfie » inquiète, et plus personne ne sait exactement à quel âge ce stade de développement est censé se terminer. Activisme idéologique et engagement politique paraissent loin de cette construction de l’adolescence occidentale des trente dernières années, qui a plutôt été l’objet d’une médicalisation à l’excès.

Pourtant, la génération Z, née après 2000, nous montre que cette époque est en train d’être révolue. Brutalement, en 2018, une mobilisation citoyenne émerge chez les jeunes, qui ne sont plus appelés adolescents. Greta Thunberg, 15 ans à ce moment, engage une grève étudiante qui mobilise des centaines de milliers de participants à travers le monde.

En fait, elle semble surtout avoir rendu visible un mouvement qui avait démarré quelques années plus tôt, une mobilisation croissante des jeunes pour la survie de l’espèce : en marge de la COP21, le mouvement COY (Conference of Youth) avait par exemple mobilisé des milliers de jeunes venant de nombreux pays pour la défense du climat. Leur organisation très précise incluait des méthodes collaboratives de travail et de modération de réunions inspirées des Nations unies, signant là une forme de maturité inédite. Ils montraient d’ores et déjà leur volonté d’accomplir une transition citoyenne aux côtés des nombreux adultes engagés dans cette voie.

Au-delà de la jeune Greta, qui a la particularité de questionner sans détour la lucidité et la culpabilité des adultes, les poussant ainsi à se mobiliser dans l’action ou à se replier dans le discrédit, cette nouvelle génération sollicite directement la fonction de « contenance » du monde adulte : il s’agit de la façon dont celui-ci est capable de répondre, de reformuler, d’agir et non seulement de réagir à cette jeunesse qui l’interroge et avance vite. Mais comment est-on passé si rapidement d’une adolescence assise à une jeunesse en action ?

Au premier plan, il existe une bascule individuelle : la conscience d’un danger a produit un passage à l’action en lieu et place de la dépression liée à une impuissance défaitiste (que peut-on faire face au système ?), d’un doute obsessionnel (une issue est-elle possible ?) ou d’un déni de la réalité (ça n’existe pas). Pour cela, il a fallu contenir individuellement les angoisses de mort, les dégager d’un sentiment de devoir et d’une culpabilité devenus paralysants. »

12345...22



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol