Archive pour le Tag 'comment'

Relocalisations : mais comment ?

Relocalisations : mais comment ?

«Délocaliser notre industrie a été une faute majeure. Maintenant il faut relocaliser», expliquait de son côté le ministre de l’Économie, Bruno Le Maire, le 14 mai.

A la  relocalisation brutale et immédiate s’opposent  de nombreuses raisons. La première c’est que la France a perdu une bonne partie de ses capacités industrielles et de recherche. En 20 à  30 ans, on a perdu 1 million d’emplois et en même temps le savoir-faire. Il Faudrait trouver évidemment dés investisseurs ce mais également réinvestir dans la formation aussi bien des cadres que des ouvriers. La seconde difficulté tient à la complexification des processus de production qui fait  que nombre d’éléments de production viennent  de l’étranger. Une reproduction relocalisation totale apparaît difficile. Elle ne pourrait être que progressive et sans doute ceux situés sur des secteurs très stratégiques et très pointus, lorsque notamment cela remet en cause la souveraineté française. Le problème est tellement complexe qu’on a de la difficulté à savoir ce qui est réellement produit en est ce qui ne l’est pas ainsi la célèbre marque Renault, considéré comme un étendard français ne fabrique en France environ 30 % de sa production, encore un peu moins pour Peugeot. À l’inverse dés marches étrangère fabriquent au moins en partie certains produits entre France,  Toyota par

Une hypothèse  relocalisation ne pourra s’inscrire que dans le temps et après un examen complexe et approfondi des différentes filières, des forces et des faiblesses du pays. En attendant peu de choses changeront sauf sans doute dans le secteur agricole là les choses peuvent aller mais en tenant compte aussi de l’État de ne nos echanges internationaux et de notre balance commerciale favorable.

 

 

«Délocaliser notre industrie a été une faute majeure. Maintenant il faut relocaliser», expliquait de son côté le ministre de l’Économie, Bruno Le Maire, le 14 mai.

A la  relocalisation brutale et immédiate s’opposent  de nombreuses raisons. La première c’est que la France a perdu une bonne partie de ses capacités industrielles et de recherche. En 20 à  30 ans, on a perdu 1 million d’emplois et en même temps le savoir-faire. Il Faudrait trouver évidemment dés investisseurs ce mais également réinvestir dans la formation aussi bien des cadres que des ouvriers. La seconde difficulté tient à la complexification des processus de production qui fait  que nombre d’éléments de production viennent  de l’étranger. Une reproduction relocalisation totale apparaît difficile. Elle ne pourrait être que progressive et sans doute ceux situés sur des secteurs très stratégiques et très pointus, lorsque notamment cela remet en cause la souveraineté française. Le problème est tellement complexe qu’on a de la difficulté à savoir ce qui est réellement produit en est ce qui ne l’est pas ainsi la célèbre marque Renault, considéré comme un étendard français ne fabrique en France environ 30 % de sa production, encore un peu moins pour Peugeot. À l’inverse dés marches étrangère fabriquent au moins en partie certains produits entre France,  Toyota par

Une hypothèse  relocalisation ne pourra s’inscrire que dans le temps et après un examen complexe et approfondi des différentes filières, des forces et des faiblesses du pays. En attendant peu de choses changeront sauf sans doute dans le secteur agricole là les choses peuvent aller mais en tenant compte aussi de l’État de ne nos echanges internationaux et de notre balance commerciale favorable.

 

 

Transition écologique agricole : comment en finir avec la chimie ?

Transition écologique agricole : comment en finir avec la chimie ?

 

Justine Lipuma, CEO & Cofondatrice de Mycophyto.  start-up basée à Sophia Antipolis commercialise une technique unique au monde. Associés aux tomates ou à la lavande, des champignons microscopiques permettent d’accroître la production tout en protégeant la plante. (chronique la Tribune)

 

« A l’occasion de la remise des prix du concours d’innovation i-Lab, le 4 juillet dernier, Justine Lipuma était sur un petit nuage. Non seulement Mycophyto, la start-up deeptech qu’elle a lancée en 2017 pour commercialiser le résultat de ses recherches était reconnue, mais en plus, le prix lui était remis par Frédérique Vidal, ministre de l’Enseignement supérieur, de la Recherche et de l’Innovation. « Elle a été l’une des enseignantes qui a le plus compté dans le choix de mon parcours universitaire », confie Justine Lipuma. Et surtout, « elle a souligné dans son discours l’importance du retour de la science à la société. C’est exactement ma vision ».

Avec, pour la jeune scientifique, une passion particulière, celle de la vulgarisation. « J’ai toujours aimé rallier des partenaires sur des projets, et pour cela, il faut faire beaucoup de pédagogie », dit-elle. Que ce soit pendant son parcours de thèse, à l’occasion des recherches collectives qu’elle a ensuite menées à l’université de Turin, ou en tant que présidente de l’association des doctorants de l’université Nice-Sophia-Antipolis, et même lorsqu’elle participait, toute jeune, à des fêtes de la science, Justine Lipuma aime parler, en termes simples, de la science, des recherches qui y sont associées et de leurs implications pour le monde. Un exercice qui lui a bien servi lorsqu’il s’est agi de convaincre des investisseurs…

 

Son parcours, d’abord

 

Une fois sa thèse de doctorat en biologie sur les interactions entre les bactéries fixatrices d’azote et les légumineuses fourragères, de type luzerne, soutenue à l’INRA, en 2015, Justine Lipuma cherche, pour son travail post-doctoral, « à trouver de vraies solutions, accessibles à tous », insiste-t-elle.

En sélectionnant la meilleure association possible de plantes et de champignons microscopiques, elle découvre qu’il est possible d’augmenter la surface d’échange des plantes, ce qui maximise la production tout en protégeant les végétaux. Un concept qu’elle a validé sur la tomate, grâce à un programme de pré-maturation à l’Université Côte-d’Azur, dont elle a été lauréate, après son passage à l’université de Turin.

 

Les implications, ensuite

Il s’agit ni plus ni moins « d’en finir avec la chimie et de donner les outils aux producteurs agricoles pour effectuer la transition vers une activité durable. Nos solutions s’appuient sur la biodiversité augmentée », dit-elle. Elles sont actuellement disponibles pour les tomates et les plantes médicinales et odorantes, comme la lavande.

 

Les enjeux, enfin

« La méthode fonctionne bien en zones arides », souligne Justine Lipuma. Alors que le réchauffement climatique menace le pourtour méditerranéen, il s’agit donc, en l’appliquant, de préserver le gagne-pain des producteurs et de dynamiser l’économie territoriale. Se greffent donc sur la transition agricole des enjeux sociaux et sociétaux.

 

La création de la start-up deeptech, maintenant

Une fois le concept d’interaction plante et champignons validé, Justine Lipuma trouve en Christine Poncet, de l’Unité Inra Institut Sophia Agrobiotech, l’associée idéale. Et pour cause, « Christine est spécialiste de recherche appliquée et planchait sur la conception de systèmes agricoles plus durables », dit-elle. Le transfert de la recherche vers une structure, incubée pendant 18 mois à l’incubateur public Paca-Est, et qui commercialisera à terme la technique d’association plantes et champignons, se fait donc naturellement. Par le biais d’une bourse French Tech Emergence, Bpifrance l’épaule également. Et Mycophyto voit le jour en 2017.

Premiers contrats et première levée de fonds

Les premiers contrats sont signés dans la foulée avec des coopératives et des industriels qui utilisent les plantes comme matière première. Grâce à l’intégration de la filière, les méthodes de Mycophyto devraient progressivement se diffuser aux producteurs. Cet automne, pour poursuivre la R&D, Mycophyto a levé 1,4 million d’euros auprès de Créazur (Crédit Agricole), deux family offices, Olbia et Obsidian, ainsi que Région Sud Investissement. La jeune pousse a déjà pu embaucher quatre personnes, dont une responsable R&D, une responsable de production, une assistante technique de serre et un technicien de laboratoire. « Les femmes sont en majorité chez nous ! », rit la dirigeante de Mycophyto. Les recrutements suivants porteront sur des commerciaux. De fait, une deuxième levée de fonds servira à industrialiser la méthode et à la vendre en masse. Rompue à l’exercice qui consiste à expliquer ce qu’elle fait, et surtout, pourquoi, il est évident que Justine Lipuma saura, une fois de plus, embarquer talents et financiers avec elle, afin d’apporter sa contribution à la révolution agricole.

Transition agricole : comment en finir avec la chimie ?

Transition agricole : comment en finir avec la chimie ?

 

Justine Lipuma, CEO & Cofondatrice de Mycophyto.  start-up basée à Sophia Antipolis commercialise une technique unique au monde. Associés aux tomates ou à la lavande, des champignons microscopiques permettent d’accroître la production tout en protégeant la plante. (chronique la Tribune)

 

« A l’occasion de la remise des prix du concours d’innovation i-Lab, le 4 juillet dernier, Justine Lipuma était sur un petit nuage. Non seulement Mycophyto, la start-up deeptech qu’elle a lancée en 2017 pour commercialiser le résultat de ses recherches était reconnue, mais en plus, le prix lui était remis par Frédérique Vidal, ministre de l’Enseignement supérieur, de la Recherche et de l’Innovation. « Elle a été l’une des enseignantes qui a le plus compté dans le choix de mon parcours universitaire », confie Justine Lipuma. Et surtout, « elle a souligné dans son discours l’importance du retour de la science à la société. C’est exactement ma vision ».

Avec, pour la jeune scientifique, une passion particulière, celle de la vulgarisation. « J’ai toujours aimé rallier des partenaires sur des projets, et pour cela, il faut faire beaucoup de pédagogie », dit-elle. Que ce soit pendant son parcours de thèse, à l’occasion des recherches collectives qu’elle a ensuite menées à l’université de Turin, ou en tant que présidente de l’association des doctorants de l’université Nice-Sophia-Antipolis, et même lorsqu’elle participait, toute jeune, à des fêtes de la science, Justine Lipuma aime parler, en termes simples, de la science, des recherches qui y sont associées et de leurs implications pour le monde. Un exercice qui lui a bien servi lorsqu’il s’est agi de convaincre des investisseurs…

 

Son parcours, d’abord

 

Une fois sa thèse de doctorat en biologie sur les interactions entre les bactéries fixatrices d’azote et les légumineuses fourragères, de type luzerne, soutenue à l’INRA, en 2015, Justine Lipuma cherche, pour son travail post-doctoral, « à trouver de vraies solutions, accessibles à tous », insiste-t-elle.

En sélectionnant la meilleure association possible de plantes et de champignons microscopiques, elle découvre qu’il est possible d’augmenter la surface d’échange des plantes, ce qui maximise la production tout en protégeant les végétaux. Un concept qu’elle a validé sur la tomate, grâce à un programme de pré-maturation à l’Université Côte-d’Azur, dont elle a été lauréate, après son passage à l’université de Turin.

 

Les implications, ensuite

Il s’agit ni plus ni moins « d’en finir avec la chimie et de donner les outils aux producteurs agricoles pour effectuer la transition vers une activité durable. Nos solutions s’appuient sur la biodiversité augmentée », dit-elle. Elles sont actuellement disponibles pour les tomates et les plantes médicinales et odorantes, comme la lavande.

 

Les enjeux, enfin

« La méthode fonctionne bien en zones arides », souligne Justine Lipuma. Alors que le réchauffement climatique menace le pourtour méditerranéen, il s’agit donc, en l’appliquant, de préserver le gagne-pain des producteurs et de dynamiser l’économie territoriale. Se greffent donc sur la transition agricole des enjeux sociaux et sociétaux.

 

La création de la start-up deeptech, maintenant

Une fois le concept d’interaction plante et champignons validé, Justine Lipuma trouve en Christine Poncet, de l’Unité Inra Institut Sophia Agrobiotech, l’associée idéale. Et pour cause, « Christine est spécialiste de recherche appliquée et planchait sur la conception de systèmes agricoles plus durables », dit-elle. Le transfert de la recherche vers une structure, incubée pendant 18 mois à l’incubateur public Paca-Est, et qui commercialisera à terme la technique d’association plantes et champignons, se fait donc naturellement. Par le biais d’une bourse French Tech Emergence, Bpifrance l’épaule également. Et Mycophyto voit le jour en 2017.

Premiers contrats et première levée de fonds

Les premiers contrats sont signés dans la foulée avec des coopératives et des industriels qui utilisent les plantes comme matière première. Grâce à l’intégration de la filière, les méthodes de Mycophyto devraient progressivement se diffuser aux producteurs. Cet automne, pour poursuivre la R&D, Mycophyto a levé 1,4 million d’euros auprès de Créazur (Crédit Agricole), deux family offices, Olbia et Obsidian, ainsi que Région Sud Investissement. La jeune pousse a déjà pu embaucher quatre personnes, dont une responsable R&D, une responsable de production, une assistante technique de serre et un technicien de laboratoire. « Les femmes sont en majorité chez nous ! », rit la dirigeante de Mycophyto. Les recrutements suivants porteront sur des commerciaux. De fait, une deuxième levée de fonds servira à industrialiser la méthode et à la vendre en masse. Rompue à l’exercice qui consiste à expliquer ce qu’elle fait, et surtout, pourquoi, il est évident que Justine Lipuma saura, une fois de plus, embarquer talents et financiers avec elle, afin d’apporter sa contribution à la révolution agricole.

 

Comment évaluer la transformation de la biodiversité

Comment évaluer la transformation  de  la  biodiversité

Le  Club des entreprises pour une biodiversité positive (Club B4B+), appellent dans la Tribune à la mise en place de métriques quantitatives de la biodiversité, d’outils d’évaluation de l’empreinte biodiversité et d’objectifs scientifiques mesurables à tous niveaux pour faire face au déclin alarmant de la biodiversité.

 

La décennie qui s’achève se sera malheureusement soldée par l’échec tragique de la plupart des Objectifs d’Aichi pour la période 2011-2020 [adoptés par les parties à la Convention sur la diversité biologique en octobre 2010, Ndlr] et le constat sans appel de l’Evaluation mondiale de la Plateforme intergouvernementale scientifique et politique sur la biodiversité et les services éco systémiques (IPBES), qui révélait en mai 2019 que le déclin de la nature se poursuit à un rythme sans précédent dans l’histoire de l’humanité. Le Congrès mondial de la Nature, organisé par l’Union internationale pour la conservation de la nature (UICN) à Marseille, puis la COP15 de la Convention sur la diversité biologique (CDB) en Chine -tous deux reportés au premier trimestre 2021-doivent nous permettre d’entrer dans le temps de la biodiversité.

Nous sommes persuadés que le secteur privé peut et doit jouer un rôle clé dans la concrétisation à la fois de la vision 2050 de la CBD pour « vivre en harmonie avec la nature », et des Objectifs de développement durable (ODD) – en particulier des ODD 14 et 15 concernant la biodiversité. Pour ce faire, et afin qu’advienne le « New Deal » pour la nature et les hommes, il est essentiel que nous mesurions notre impact sur la biodiversité et que nos objectifs en matière de biodiversité soient en capacité de rejoindre les scénarios proposés par la communauté scientifique et retenus par la communauté internationale.

La tonne équivalent CO2 a joué un rôle déterminant dans la prise de conscience des enjeux liés au changement climatique. Cette métrique a constitué un levier incontestable dans la mise en œuvre d’actions d’atténuation du changement climatique. Des métriques comparables, autrement dit des métriques quantitatives décrivant l’état de la biodiversité, largement utilisées et accessibles à tous, consensuelles sur le plan scientifique et pouvant être agrégées ou désagrégées à de multiples niveaux de granularité, sont nécessaires pour répondre efficacement à l’enjeu de la perte de biodiversité. Associées à des analyses qualitatives, de telles métriques sont indispensables aux États, aux entreprises et aux institutions financières désirant évaluer leurs impacts, démontrer des gains de biodiversité et piloter leur action opérationnelle.

Comment réussir la refondation de l’Hôpital

 Comment réussir la refondation de l’Hôpital

chronique collective des professionnels de santé dans la Tribune.

 

« Prononcées le 14 avril dernier par le Chef de l’Etat, au cœur d’un confinement jamais connu dans notre pays, tous les soignants ont entendu des paroles fortes. Elles ont créé une attente que les Français ont relayée tous les jours : celle d’une nouvelle page de l’histoire de nos politiques de santé.

Aujourd’hui, nous engageons une mobilisation générale pour préparer l’« après COVID ». Cet « après » qui ne peut pas, qui ne doit pas être la reproduction de l’avant, nous avons commencé à le dessiner ensemble. Nous, professionnels de santé, directeurs d’hôpitaux, présidents de Conseils de Surveillance et de Commissions Médicales d’Etablissement, doyens, cadres, sommes prêts, avec tous nos collègues, à assumer une refondation de l’hôpital en lien avec la révolution nécessaire de notre système de santé. Nous attendons du Gouvernement le soutien clair et résolu de cette ambition.

Cette ambition est d’abord celle d’une organisation refondée sur des objectifs de santé publique que notre société doit réaffirmer urgemment.

La refondation de l’hôpital passe par l’abandon du prisme budgétaire étroit et inadapté qui a prévalu depuis deux décennies en France, et dont les limites sont apparues cruellement depuis le début de cette pandémie.

« Tout ambulatoire », « rationalisation de capacités de réanimation », « ratios d’effectifs », « taux de marge brute comme critère majeur de gestion», « objectifs de taux d’occupation des lits créateurs de pénurie »… : toutes ces politiques issues de tableurs appliquées sans discernement ont affaibli les hôpitaux, de référence ou de proximité, en diminuant leurs capacités matérielles et humaines, les transformant en établissements à flux tendus, débordés par l’épidémie malgré l’engagement et le professionnalisme dont les hospitaliers ont fait preuve. La traduction en a été des pertes de chance pour des malades et des décès qui auraient pu être évités. Oui, la première chose à faire est de reprendre une distance sanitaire avec les oukases des cost-killers et autres COPERMO.

Corollaire de ce constat : tout le système de financement doit être repensé, à la ville comme à l’hôpital, en abandonnant la tarification à l’activité telle qu’elle est conçue et appliquée. Elle n’a sans doute pas tous les défauts qui lui sont prêtés, mais l’hôpital ne peut s’accommoder d’un financement à la commission. L’impact sur les salaires du coût du système et la question de son financement global ne sauraient être une variable évacuée mais cette tarification a montré toutes ses limites dans la crise. Ces limites avaient déjà été dénoncées préalablement dans d’autres domaines comme ceux de la prévention, ou de la prise en charge des maladies chroniques notamment.

Cette ambition, c’est ensuite celle d’une réelle politique d’investissement. Elle ne doit plus être conçue comme la contrepartie de la suppression de capacités ou d’emplois, dont on a vu le caractère délétère. Une politique d’investissement ambitieuse est la seconde condition majeure de l’adaptation de l’hôpital. Les équipes hospitalières, dans la plupart des régions, ont travaillé avec l’Etat depuis des années pour définir les investissements nécessaires au renforcement de l’Hôpital. Citons par exemple le CHRU de Nancy ; celui-ci a reçu un premier aval du ministère juste avant le développement de l’épidémie COVID. La refondation passera par une politique d’investissement qui prendra en compte les leçons de la crise COVID, dynamisera les projets existants et transformera les hôpitaux du pays en lieux de soins préparés aux enjeux sanitaires de notre temps.

L’investissement, c’est aussi le soin dû aux professionnels, qui ne peuvent plus être considérés comme la variable d’ajustement. Leurs effectifs doivent retrouver dans des organisations sans doute innovantes, des niveaux compatibles avec la qualité des soins aux malades, mais aussi au respect dû à ceux qui donnent beaucoup.

Cette ambition, c’est aussi celle de la considération qui est due à tous les professionnels hospitaliers. Leur travail doit être reconnu au-delà des discours et propos convenus, avec des conditions de rémunérations qui permette à l’hôpital de conserver soignants et médecins. Une refonte des métiers et des carrières, leurs contenus, les formations qui y conduisent doit permettre de retrouver une attractivité perdue. Le rattrapage de l’insuffisance des rémunérations est une urgente priorité, mais, au-delà, il est essentiel de mieux prendre en compte la réalité de l’exercice professionnel, des responsabilités assumées, des compétences demandées ; il faut individualiser, évoluer en prenant en compte l’expérience.

Cette ambition, c’est celle de la liberté et de l’agilité. La gouvernance de l’Hôpital a montré dans la crise sa capacité à faire face, mais aussi les limites qui l’entravent : donner de la liberté, limiter toutes les strates internes ou externes qui alourdissent la décision, dégraisser le cadre réglementaire ou normatif, réduire le nombre d’agences thématiques qui produisent du texte et des normes contradictoires.

L’organisation sanitaire a été mise en cause dans cette crise. S’interroger sur le sens de son action, ses missions, son lien avec les acteurs de terrain, les élus, apparait indispensable. Chacun connaît des interactions qui peuvent être chaotiques entre des ARS plus budgétaires qu’opérationnelles, assujetties aux services parisiens, des Groupements Hospitaliers de Territoire inaboutis – dont sont absents les établissements privés qui ont su collaborer dans la crise – des établissements publics soumis à une tutelle d’autant plus tatillonne qu’elle perd parfois de vue sa raison d’être… Cette organisation a montré ses insuffisances qui doivent être corrigées par une réelle décentralisation. En interne, il faut aussi laisser les professionnels déterminer leur cadre de travail, retrouver le sens des projets collectifs en dépassant le couple directeur-médecin pour intégrer les professionnels non médicaux dont le rôle majeur a été rappelé de manière éclatante depuis le début du COVID.

Cette ambition, enfin, c’est la capacité à nous « donner de l’air » en partant des territoires, des élus locaux, et du lien global avec la population. La question n’est pas seulement l’hôpital. Elle intéresse chaque territoire, les villes, les professionnels de santé, les structures médico-sociales, alors que les déserts médicaux, avant COVID, étaient déjà une préoccupation forte de ces mêmes élus. Aujourd’hui, la reconnaissance des élus locaux par nos concitoyens reste forte, dans un contexte où la parole publique est contestée. En lien avec les professionnels de la santé, soignants, médecins, directeurs, avec les représentants des patients, ils sauront organiser les concertations populaires qui nourriront la feuille de route de ce futur système hospitalier, et du système de santé en général.

En ce mois de mai 2020, alors que l’épidémie semble marquer le pas, nous considérons avec bienveillance la proposition de « Ségur de la santé » proposée par le ministre Olivier Veran, tout en affirmant la nécessité absolue à sortir des alcôves des pouvoirs, des cercles corporatistes étroits de professionnels, ou des sociétés de conseil, pour associer les soignants, directions, usagers et élus de tout le pays, territoire par territoire. C’est seulement ainsi que nous construirons un socle partagé, adapté au terrain, premier pas d’une refondation « 

«Relocalisation: comment ? »

«Relocalisation: comment ? »

 

La chronique de Tanguy Tauzinat et Thomas Duteil dans l’Opinion

« 

 » De ces semaines de confinement propices à un foisonnement de réflexions sur l’avenir de notre économie, une opinion se dégage qui, si elle n’a rien de nouveau, semble enfin avoir pris la place qui s’impose : il est urgent de reconstituer notre patrimoine industriel alors que nous nous sommes dépouillés année après année de notre souveraineté économique.

Mais la relocalisation, comme la transition écologique, ne se décrète pas. Elle exige un changement de comportement et de priorités. Comme on ne construit pas un château sur du sable, on ne pourra relocaliser une industrie que si ses fondations reposent sur un écosystème solide. Un tissu compétitif et dense de fournisseurs et de sous-traitants, de sociétés de maintenance et de distribution, de bureaux d’études… Ces entreprises ne sont pas des géants. Ce sont des PME beaucoup moins visibles que les start-up qui font la Une avec des millions levés malgré des business models restant souvent à démontrer. Ces PME régionales, souvent premiers employeurs locaux, fournissent pourtant des produits et prestations de première qualité. Même souvent dépourvues d’avance technologique majeure, elles aussi innovent, se réinventent et détiennent des savoirs faire humains concrets.

. Si l’on souhaite réussir la relocalisation, il y a urgence car ces PME sont paradoxalement délaissées. Un constat étonnant à l’heure où les fonds de capital investissement français détiennent des sommes colossales à investir. Mais ces investisseurs n’ont, pour beaucoup d’entre eux, plus aucun désir d’investir dans des PME. Ils réservent aujourd’hui leurs choix à des start-up lancées dans une course folle à la croissance, ou aux sociétés déjà les plus développées, réalisant plus 50 millions de chiffre d’affaires. Pour rappel en France : 5 400 ETI emploient trois millions de personnes alors que 139 000 PME en emploient 3,6 millions. Les chiffres de cette course à la taille sont sans appel : entre le premier semestre 2013 et le premier semestre 2019, la taille de l’investissement moyen des fonds de capital transmission a doublé pour passer de 12,2 à 24,1 millions d’euros, plus vraiment l’échelle d’une PME.

Il y a urgence parce que, pour un grand nombre de PME, cette crise risque d’être la dernière. Pour celles qui s’en sortiront, le remboursement des dettes accumulées pèsera lourdement sur la capacité d’investissement. Ce sera autant en moins pour moderniser les appareils productifs, digitaliser, recruter et assurer le développement. A moins de faire une priorité du renforcement des fonds propres de nos PME, le terreau de notre économie va s’appauvrir définitivement ruinant tout effort de relocalisation.

Les pouvoirs publics ont un rôle majeur à jouer. Il faut d’abord cesser de lire l’avenir de notre économie au prisme du mythe de la licorne. Les mesures présentées dans l’annexe de la loi de Finances 2020 dédiée au financement des PME sont caricaturales : les seules clés de lecture en sont l’innovation et les nouvelles technologies. La seule source de financement en fonds propres mentionnée est le capital-risque. C’est ignorer la réalité d’un grand nombre de PME qui ne sont pas des jeunes pousses du digital. Il suffit de constater qui fait tourner la France en mai 2020 : acteurs de l’agroalimentaire, distributeurs, logisticiens et fabricants de matériel médical.

Soyons clairs : investir dans les technologies de demain est une évidente nécessité, mais si cela se fait au détriment du financement de l’écosystème actuel, ces start-up n’auront plus grand monde à qui vendre leurs services ! Il est ensuite temps d’interroger la pertinence d’un système qui conduit à favoriser l’accroissement de la taille des fonds d’investissement à travers l’action des régulateurs et des grands investisseurs publics qui souhaitent concentrer leur portefeuille : en pénalisant les petits fonds d’investissement, ce sont les financeurs historiques des PME que l’on pénalise.

Notre appel est simple : dans le fléchage des efforts d’investissement à venir, n’oublions pas que tout effort de reconstruction et de relocalisation ne sera viable que s’il se fait sur des bases solides.

Tanguy Tauzinat et Thomas Duteil sont les cofondateurs de la société d’investissement Trajan Capital.

Relance de la consommation ? Comment ?

Relance   de la consommation ? Comment ?

Jean-Louis Bricout, député de l’Aisne, membre de la Commission des Finances, et Christopher Dembik, Responsable de la recherche Economique chez Saxo Bank préconise dans une chronique de la Tribune de donner la priorité à la relance de la consommation. La crainte en effet c’est que succède à la crise de l’offre, une crise de la demande. Le soutien de cette demande est sans doute nécessaire pour relancer la dynamique économique;  se pose toutefois le problème du volume et de la nature de cette consommation qu’il convient d’encourager.

Tribune:

 

 

« La capacité d’épargne des Français a bondi au mois de mars pour atteindre 19,6 milliards d’euros contre un montant moyen habituel de 5,9 milliards d’euros, selon la Banque de France. Dans le même temps, la consommation des ménages est revenue à son niveau de mars 2000. Une fois la crise sanitaire terminée, l’évolution de la consommation sera un facteur critique qui déterminera la vitesse de la reprise économique. Allons-nous assister à un effet de rattrapage de la consommation ou à une augmentation de l’épargne ? L’enseignement qu’on peut tirer du déconfinement chinois, c’est que les capacités de production sont rapidement revenues à la normale mais la consommation reste morose. Les ventes au détail ont chuté de 15,8% en mars sur un an et les dépenses au restaurant ont plongé de près de 50% sur la même période. Beaucoup de boutiques sont encore désespérément vides, y compris dans la capitale, Pékin.

 

Ce phénomène s’appelle l’effet d’hystérèse. Bien que la pandémie ait disparu, elle continue d’avoir un effet notable sur les comportements de consommation et d’épargne. En France, comme en Chine, les mesures de distanciation sociale, l’accroissement du taux de chômage et les pertes de pouvoir d’achat vont freiner durablement les dépenses des ménages et inciter à épargner par crainte de l’avenir. La normalisation pour certains secteurs de services, tels que l’hôtellerie, la restauration et les loisirs pourrait ne pas se produire avant 2021.

Pour débloquer l’acte d’achat et relancer la consommation, nous proposons de créer un fonds de solidarité chargé de distribuer des bons d’achat aux ménages une fois les mesures de confinement totalement levées. Plusieurs pays asiatiques ont annoncé au cours des dernières semaines des mesures similaires : la Corée du Sud, Singapour, le Japon ou encore Hong Kong. En Chine, une cinquantaine de villes distribuent des bons d’achat pour une valeur totale qui avoisine 6 milliards de yuans, soit environ 780 millions d’euros.

Ce fonds de solidarité doté de plusieurs milliards d’euros serait directement financé par l’État, les collectivités territoriales, les assureurs et les banques qui ont tout intérêt à une reprise rapide de l’activité économique. Les banques ont un rôle particulier à jouer dans ce dispositif car elles bénéficient depuis le début de la crise d’un soutien massif de la Banque centrale européenne (BCE) qui a assoupli la réglementation bancaire et leur prête à un taux négatif de moins 1% ! Par le passé, les banques françaises n’ont jamais hésité à participer à l’effort national. A n’en pas douter, elles sauront de nouveau le faire pour surmonter cette crise sans précédent.

Contrairement à l’Asie qui a choisi de distribuer des bons d’achat à chaque ménage, sans distinction de revenus, nous pensons qu’ils doivent être attribués en priorité aux ménages à revenus modestes (soit 30% de la population française) et être automatiquement versés aux forces vives de la nation qui ont été en première ligne ces dernières semaines pour surmonter la pandémie et permettre à l’économie de continuer de fonctionner aussi normalement que possible (personnels soignants, caissiers, éboueurs, agents de sécurité etc.).

Nous voulons aussi éviter certains écueils, comme une hausse des importations de produits finis étrangers, c’est pourquoi seuls certains produits et services seraient éligibles, parmi lesquels :

- les achats d’équipements concourant à l’amélioration de la performance énergétique ou à l’adaptation du logement au vieillissement ;

- les meubles et équipements portant la mention « Fabriqué en France » ;

- l’acquisition de véhicules émettant moins de 125g CO2/km afin de favoriser les véhicules les moins polluants ;

- les dépenses liées au secteur du tourisme, de la culture, de l’évènementiel, de la restauration et de l’hôtellerie.

Ce dispositif viendrait renforcer au bon moment le plan de soutien aux secteurs les plus touchés par la crise que doit présenter prochainement le gouvernement et qui va reposer sur des annulations de charge et des aides spécifiques. Si nous n’agissons pas aujourd’hui, le risque évident est d’avoir une reprise économique qui soit lente et fragile aboutissant à des faillites en cascade et à un accroissement des inégalités. Face à une situation inédite, nous devons lever certains tabous. »

 

L’UE : comment sauver l’activité touristique ?

L’UE : comment sauver l’activité touristique ?

 

Pour plusieurs pays, le tourisme constitue un élément énorme de l’activité économique. C’est le cas pour la France le pays le plus visité mais aussi pour d’autres comme l’Italie, l’Espagne la Grèce ou  le Portugal; en moyenne, l’activité touristique représente 10 % du PIB européen ; pour certains  pays cela peut atteindre 25 %.

L’union européenne commence donc à s’interroger pour voir comment elle pourrait relancer une activité actuellement en état de mort clinique. Pour l’instant la réflexion de l’union européenne apparaît bien maigre;  elle se concentre uniquement sur les conditions de remboursement de prestations touristiques déjà payées mais non effectuées en raison du Coronavirus.

La problématique est évidemment plus large. La première urgence , c’est   de limiter les dégâts de l’immense vague de défaillances d’entreprises et d’organisations qui  se prépare. La seconde est d’ imaginer des labels qualité qui garantissent  le respect de normes d’hygiène.

Pour la France en particulier cela supposerait que les vacances ne soient pas toutes concentrées sur seulement deux mois. De toute façon, cette réflexion ne peut être utile que si elle est menée avec les acteurs économiques sinon on risque de déboucher sur des dispositions de nature technocratique inopérantes  tant sur le plan économique que  sanitaire.

.

En attendant ,l ’Allemagne et 11 autres pays de l’UE ont demandé à la Commission de suspendre le règlement européen disant que les compagnies aériennes et l’industrie hôtelière sont tenues de rembourser intégralement les vols et les voyages.

Ces pays proposent à la place de ce remboursement un bon d’achat.

En réponse à cette suggestion, l’exécutif européen va dire aux Etats membres de l’UE qu’ils doivent garantir ces bons, afin de convaincre les clients de les accepter, selon le document vu par Reuters.

“Pour encourager les passagers et les voyageurs à accepter ces bons d’achat plutôt qu’un remboursement, ils devraient être mis à l’abri de la faillite de leurs émetteurs et rester remboursables, lors de l’expiration de leur validité, s’ils n’ont pas été utilisés”, lit-on dans le texte.

Le tourisme génère normalement quelque 150 milliards d’euros de recettes sur la période juin-août à la faveur notamment de 360 millions d’arrivées internationales, précise la Commission.

Cette dernière a dit vendredi souhaiter que les frontières extérieures de l’Union restent fermées jusqu’à la mi-juin pour les déplacements non-essentiels, dans le cadre de la lutte contre la propagation du coronavirus.

“Notre industrie touristique est en grave danger”, poursuit la Commission dans son document, disant que 6,4 millions d’emplois pourraient disparaître dans le secteur, où les restaurants et hôtels ont fait état d’une chute de 50% de leurs chiffre d’affaires et les compagnie aériennes et les croisiéristes d’un plongeon des revenus pouvant atteindre 90%. Un bon constat, mais on attend autre chose de l’union européenne.

Sécurité routière : comment expliquer la hausse de la mortalité

Sécurité routière : comment expliquer la hausse de la mortalité

 

Il y a quelques semaines seulement le gouvernement se félicitait de la baisse de la mortalité sur les routes en attribuant pour l’essentiel la cause à la limitation de vitesse à 80 km/h. Le problème c’est que malheureusement la mortalité augmente assez nettement en janvier. Comme d’habitude, c’est le grand flou sur les facteurs explicatifs puisque l’État ne dispose d’aucune institution scientifique capable d’analyser les évolutions. L’observatoire national interministériel de la sécurité routière est en effet une coquille vide qui se contente de reprendre les commentaires gouvernementaux. Pour preuve, cette fois l’observatoire national de la sécurité routière n’explique aucunement cette hausse de tous les indicateurs. Bien entendu il conviendrait d’étudier ces statistiques de manière scientifique notamment en les rapprochant de l’évolution du volume de la circulation et des conditions météorologiques. Un exercice qui n’a jamais été fait.

260 personnes sont donc  mortes sur les routes en janvier 2020, contre 237 en janvier 2019. La mortalité des cyclomotoristes, cyclistes et automobilistes augmente, alors que la mortalité à deux-roues motorisé est stable et celle des piétons baisse.

En ce début d’année 2020, le bilan des accidents sur les routes de France est considérable. Selon les estimations de l’Observatoire national interministériel de la sécurité routière (ONISR), 260 personnes sont décédées sur les routes lors du mois de janvier 2020. En 2019, le nombre de morts était de 237 sur cette même période, soit un hausse de 9,7%.

Dans son rapport, l’ONISR précise que tous les autres indicateurs sont en hausse. Il y a eu 4422 accidents corporels en janvier 2020 contre 3812 en janvier 2019, soit un augmentation de 16%.

L’observatoire dénombre aussi une hausse de 18,4% des blessés. Ils ont été 5628 cette année contre 4754 l’année précédent, soit 874 personnes de plus.

 

Avant d’avoir des chiffres plus détaillés selon les axes routiers, l’ONSIR ne donne pas d’analyse précise de cette hausse des accidents et des victimes. « Plusieurs facteurs sont a prendre ne considération ». On aurait aimé évidemment que ces facteurs soient indiqués ! Et si possible expliquait quantitativement et qualitativement.

Comment gérer la menace de risque épidémique international

Comment gérer la menace de risque épidémique international 

 

Comment gérer la menace internationale s’interroge, dans une tribune au « Monde » l’infectiologue François Bricaire.(extraits) 

«  Une fois encore, un nouveau virus vient d’émerger, responsable d’un phénomène épidémique apparu courant décembre 2019 en Chine et qui depuis s’étend géographiquement et numériquement. Son apparition provoque inquiétude et interrogations. Ces questionnements parfaitement légitimes peuvent soulever quelques réflexions. De tout temps, l’homme a vécu dans un monde où les événements infectieux épidémiques se succèdent de façon quasi permanente. Chaque nouvelle épidémie suscite à la fois un intérêt majeur et beaucoup de fantasmes dictés par la peur de mourir. Ces agresseurs microbiens invisibles fascinent. Ils sont d’autant plus source d’anxiété qu’on ne les connaît pas ou mal, qu’on ignore tant leur potentiel de nuisance que la durée de leur action.

 

Il est clair que l’épidémie que nous vivons aujourd’hui sera suivie par d’autres. Les virus sont extrêmement nombreux, la plupart sont inconnus à ce jour et nombreux sont les animaux porteurs constituant des réservoirs que nous sommes amenés d’une façon ou d’une autre à côtoyer. De multiples activités humaines contribuent à favoriser ces échanges avec le monde animal : exploitation forestière, chasse, commerce… Les concentrations de population, les mégapoles, et bien sûr la facilité des déplacements et des échanges favorisent le développement et l’extension rapide d’une épidémie qui, très vite, peut devenir pandémique. Fort heureusement, les moyens scientifiques modernes permettent aussi de détecter l’agent responsable, d’établir son génome et son mode de réplication dans des délais brefs, donnant ainsi les moyens de le combattre, notamment en mettant très rapidement à disposition les tests nécessaires à un diagnostic rapide.

Doit-on avoir peur ? Que doit-on exactement redouter ? A ces questions posées de manière répétée, les réponses sont souvent imprécises, incomplètes ou insatisfaisantes. Mais en début d’épidémie, trop d’inconnues existent pour que l’on puisse correctement répondre. Et même avec le temps, certaines demeurent. Un nouveau virus appelle des interrogations sur ses caractéristiques, sa provenance, la connaissance de son réservoir, sa virulence, ses modalités de transmission, sa capacité de diffusion… Est-il stable ou risque-t-il de muter ? Quelles manifestations provoque-t-il ? Sont-elles graves, et pour qui ? Quelle est sa durée d’incubation ? Se transmet-il avant l’apparition des premiers symptômes ? Existe-t-il des formes asymptomatiques mais susceptibles de favoriser sa diffusion dans la population ?….. »

 

Comment combattre les dictatures

Comment combattre les dictatures , leurs régimes mafieux et leur colonisation rampante  ( Yaël Ossowski, Fred Roeder et Luca Bertoletti)  (*).

(Opinion  la Tribune )

« Pendant des décennies, la stabilité politique, la croissance économique et la paix ont été indispensables pour faire de l’Europe un continent prospère et libre.

Les institutions de l’Union européenne ainsi que les différents États membres ont été à la tête de ces efforts, en libéralisant le commerce et en ouvrant les marchés pour que les consommateurs et les citoyens soient beaucoup mieux lotis. Une coopération et des échanges accrus ont grandement amélioré la vie de millions de personnes.

Malgré l’ampleur de ces efforts, il reste des questions clés qui devraient tous nous préoccuper en tant que citoyens de pays démocratiques. Le spectre des régimes autoritaires est encore bien réel en Europe, comme en témoignent les mouvements militaires effrontés. Un autre exemple est les influences numériques et technologiques sophistiquées dans nos infrastructures, ainsi que nos établissements politiques.

Au Hong Kong, l’État autoritaire croissant de la Chine recourt à la violence et à l’intimidation pour réprimer des manifestations découlant d’un projet de loi sur l’extradition. L’existence de camps de rééducation chinois pour un million d’Ouïghours, la minorité musulmane, a longtemps été niée, mais elle est maintenant reconnue et couverte dans la presse grand public, comme le New York Times, après des années de campagnes menées par des groupes de défense des droits de la personne.

Les vastes capacités de surveillance de l’État chinois, bien connues de sa population nationale, commencent à avoir un impact sur les citoyens européens. Ceci est une tendance inquiétante.

Compte tenu de l’influence économique croissante de la Chine en Europe, ces faits doivent être revus à mesure que nous mettons en œuvre de nouvelles technologies. Le débat sur l’infrastructure 5G et Huawei n’en est que la salve d’ouverture. La protection de la vie privée des consommateurs et la sécurité des données doivent être garanties: les efforts visant à les protéger en tenant compte des préoccupations de sécurité nationale lors de l’approvisionnement en technologies clés, comme l’ont fait le Royaume-Uni, la France et l’UE avec le 5G, semblent être la meilleure approche.

Mais des politiques numériques intelligentes ne seront pas efficaces si elles ne protègent pas nos démocraties des menaces réelles.

Aux frontières de l’Union européenne, l’Ukraine se reconstruit après cinq années d’invasion, de conflit et d’affaiblissement stratégique par son puissant voisin russe. Des milliers d’Ukrainiens ont perdu la vie en défendant leur territoire, et la situation reste périlleuse alors que des millions d’anciens citoyens ukrainiens vivent maintenant derrière les frontières russes. C’est souvent oublié. Et il faut tenir compte de l’influence russe dans de nombreux grands partis politiques européens, sans parler des « socialbots » lors des élections.

L’attention renouvelée accordée aux ressources énergétiques et à la position géopolitique de l’Ukraine lors des auditions de destitution du président Donald Trump ne fait qu’accentuer cette tendance, et l’on peut espérer que les pays européens resteront fermes dans leur volonté d’aider le pays qui a déjà aspiré à adhérer à l’UE. L’appui non seulement diplomatique, mais aussi commercial est essentiel à cet égard. Plus de 40 % des échanges commerciaux de l’Ukraine sont directement liés à l’UE, mais ils seront bientôt éclipsés par la Chine.

Des milliers d’entreprises européennes et américaines détiennent des intérêts stratégiques en Ukraine et encore plus d’entreprises ukrainiennes dépendent entièrement de clients européens. Ces relations doivent également persévérer, malgré les menaces de la Russie et de la Chine.

La technologie électrique ukrainienne utilisée dans les conducteurs et les allumages représente près de 285 millions d’euros de commerce avec l’Allemagne, tandis que les exportations allemandes de machines et de voitures sont essentielles pour les consommateurs ukrainiens.

Une autre de ces technologies est le catapultage des aéronefs à bord d’un porte-avions à l’aide d’un moteur à induction électromagnétique. Le président Trump a bizarrement fait sauter cette innovation en déclarant qu’il préférerait les lanceurs à vapeur, qui ont été utilisés pendant des décennies. Cependant, il semble que de nombreux pays européens, dont la France, soient enthousiastes à l’idée d’adopter la nouvelle technologie.

La Chine s’est déjà engagée à utiliser des lanceurs électromagnétiques pour ses futurs porte-avions et s’associe à la Russie pour construire la prochaine génération de navires nucléaires. Cela intervient alors que la Chine est devenue le premier partenaire commercial de l’Ukraine et qu’elle augmente ses investissements sur l’ensemble du continent.

L’Europe va-t-elle se permettre d’être concurrencée ? Quel sera l’impact d’une alliance militaire plus solide entre la Chine et la Russie sur les Européens? Seul l’avenir nous le dira, et nous espérons que nos principes démocratiques nous guideront vers la prospérité et la sécurité en même temps. Ce qui reste clair, c’est que les nations européennes doivent mener des politiques intelligentes pour combattre cette montée des régimes autocratiques. Des évaluations minutieuses des importations des technologies, dont la technologie de 5G et autres, seront essentielles, de même qu’un soutien diplomatique.

Les principes démocratiques tels que l’État de droit sont extrêmement importants. Les démocraties libérales telles que l’UE et les États-Unis doivent trouver une approche commune pour protéger les citoyens de l’influence croissante d’acteurs autoritaires comme le régime communiste chinois.

C’est ainsi que nous pouvons continuer à soutenir la démocratie et la prospérité dans le monde entier. »

(*) Yaël Ossowski, Fred Roeder et Luca Bertoletti sont directeurs de 21Democracy, un projet de l’agence pour le Choix du Consommateur.

Comment la France crée des emplois avec seulement 1% de croissance ?

Comment la France crée des emplois avec seulement 1% de croissance ?

 

 

D’une certaine façon, c’est  un peu une sorte de miracle en tout cas  une forte interrogation. Comment la France peut-elle créer des emplois ( autour de 200 000 par an ) avec une croissance aussi faible. Une croissance qui tourne autour de 1 %. On peut relativiser cette création d’emplois si on considère qu’il y a en France environ 30 millions de salariés et 6 à 7 millions de chômeurs. Pour autant,  il y a création d’emplois. Avant la crise de 2008, il fallait atteindre une hausse du PIB  de 3 % pour déclencher des progressions de l’emploi; depuis quelques années on considérait que le seuil nécessaire était de 1,5 %. Maintenant même avec une hausse du PIB  à peine supérieure à 1 % le nombre de créations d’emplois  progresse.une explication viendrait de la faiblesse des gains de productivité limitée à 1 %. Il y a sans doute aussi un changement de structure de la nature des emplois et des conditions sociales.

Pour Éric Heyer, économiste à l’OFCE il y a une explication structurelle: celle d’une croissance faible, riche en emplois peu qualifiés et à temps partiel. «Un même taux de croissance ne crée plus les mêmes emplois, estime-t-il. Il n’y a aucune autre explication que celle de la baisse de la durée du travail par tête.» Selon le baromètre Adecco, les entreprises françaises devraient embaucher 3,7 millions de personnes d’ici juin 2020. Une embellie qui s’explique principalement par la stagnation des gains de productivité. 

.Cela ne veut pas dire que le chômage va baisser d’autant. Le baromètre ne comptabilise que les embauches et ne tient pas compte des destructions d’emplois et des licenciements sur la période. Mais au final les embauches devraient être supérieures aux destructions d’emplois puisqu’Adecco estime que le chômage devrait tomber à 8% courant 2020 contre 8,4% aujourd’hui.

Et il s’agira d’emplois plutôt pérennes. La part des CDI dans ces embauches devrait atteindre 41% soit 2 points de plus que dans le précédent baromètre. La part des CDD va elle légèrement reculer à 29% et l’intérim devrait rester stable à 22%. Et toutes les régions sont concernées:  si ce sont l’Ile-de-France et l’Auvergne-Rhône-Alpes qui vont le plus embaucher parce que ce sont les régions les plus peuplées, c’est dans les Hauts-de-France que les embauches seront les plus dynamiques avec une croissance des recrutements de 10% en 2020.

Le gouvernement y est-il pour quelque chose dans cette embellie? S’il est toujours difficile de mesurer avec précision l’impact de telle ou telle mesure sur l’emploi, les économistes sont globalement d’accord pour dire que la baisse des cotisations salariales, la reprise de l’investissement, l’accent mis sur l’apprentissage ou le plafonnement des indemnités prud’homales y ont contribué. Cela a mis de l’huile dans les rouages mais ça n’explique pas tout.

Il y a un phénomène nouveau dans l’économie: on crée des emplois même avec une croissance assez faible. Il y a 20 ans il fallait près de 3% de croissance pour créer des emplois. Aujourd’hui 1% suffit.

Pourquoi? Parce que les gains de productivité sont très faibles aujourd’hui de l’ordre de 1%. Malgré les technologies numériques, la robotique et autres technologies de la communication, un salarié ne produit chaque année que 1% de plus. Et lorsque le carnet de commande progresse de 1,2% il faut donc embaucher.

En tout cas, si cette stagnation de la productivité est positive pour l’emploi, elle est en revanche négative pour le pouvoir d’achat. C’est la hausse de la quantité produite par salarié qui permet les hausses de salaire.

Or aujourd’hui, les entreprises embauchent principalement de la main d’œuvre peu qualifiée et les salaires ont tendance à stagner. La crise des gilets jaunes d’il y a un an avait bien mis en lumière ce phénomène. Bref, tant que les technologies ne permettront pas de produire plus, le chômage continuera à baisser… et les salaires risquent eux de continuer à stagner.

Comment faire face aux origines des inégalités

Comment faire face aux origines des inégalités

Un article de Xerfi qui pose la question de la redistribution ( La Tribune)

 

« Face à la montée des inégalités de revenu et de patrimoine, on songe immédiatement à la redistribution. La progressivité de l’impôt d’une part. Tout l’arsenal des transferts sociaux d’autre part, les revenus dits secondaires (prestations sociales en espèce et en nature, les revenus de solidarité). Réduire les inégalités, c’est plus de progressivité de l’impôt d’un côté, et c’est flécher les aides vers ceux qui sont en position de fragilité de l’autre.

De ce point de vue, la France est un cas d’école. Les indicateurs d’inégalité avant et après impôt et transferts montrent que le système fiscalo-social contribue très fortement à la réduction des inégalités primaires. Si l’on se réfère à l’outil standard de mesure des inégalités que constituent l’indice de Gini, les inégalités primaires de revenu avant impôt et transfert sont d’ampleur similaire, voire légèrement supérieure à celles des principales économies développées. Après impôts et transferts, la France figure plutôt en bas de l’échelle. De façon incontestable, l’État providence continue à jouer un rôle décisif en matière de cohésion.

Le débat s’engage alors inévitablement sur les effets collatéraux non désirés des politiques correctrices. Taxer le capital, ponctionner le revenu des plus riche, affecter des revenus de substitutions à ceux qui ne travaillent pas ou peu, revient à punir l’efficacité d’un côté et à récompenser la sous-qualification de l’autre. Une distorsion qui saperait les racines mêmes de l’attractivité et de la productivité et dégraderait la performance d’ensemble de l’économie. Ce dilemme équité / efficacité, on le connaît. C’est un des plus structurants en économie. Et l’accroissement des inégalités primaires ne fait qu’attiser ce conflit d’objectifs. Il faut alors s’interroger sur le risque d’épuisement de la capacité correctrice de nos outils standards de redistribution. Et sur l’acceptabilité de ces politiques quand elles mettent de plus en plus à contribution les classes moyennes supérieures, pour éviter le risque de fuite de l’assiette fiscale des plus riches.

S’attaquer autrement aux inégalités, est-ce possible ? Il faut d’abord être conscient que nos indicateurs monétaires ne donnent qu’une image très partielle des inégalités. Parmi les angles morts, il y a le fait que pour un même niveau de revenu monétaire, dans certains pays, les ménages ont accès à une ample gamme de services collectifs dont le coût est socialisé, en matière de santé et d’éducation de formation de service de l’emploi notamment, et dans d’autres pas. Ces services sont selon les pays de bonne qualité, d’accès homogène ou sont au contraire dégradés. C’est précisément sur ce terrain que se bâtit l’égalité des chances. Et il est clair c’est une des dimensions décisives de la construction de la cohésion sociale. Ce que certains appellent l’investissement social. C’est en enjeu monétaire certes, mais aussi d’organisation, de ressources humaines, qui engage le grand chantier de la réforme de l’État.

Autre angle mort de la mesure des inégalités de revenu. C’est tout ce qui relève des plus-values. Les inégalités de revenu se cristallisent en inégalités de patrimoine, et les revenus du patrimoine créent une dynamique propre d’accroissement de la richesse qui concentre les gains sur les plus riches. Dans nos mesures standards de revenu, il y a bien ce que l’on appelle les revenus de la propriété, loyers, qui peu ou prou évoluent comme l’inflation, les intérêts et les dividendes qui diminuent avec la baisse des taux. Mais ne figurent pas les plus-values, qui sont la source numéro 1 de concentration des effets de richesse depuis trois décennies. On peut certes taxer ces plus-values au risque que les détenteurs aillent rechercher des cieux fiscaux plus cléments. Mais il faut surtout s’interroger sur le métabolisme de la finance, dont la rentabilité est de plus en plus bâtie sur ces plus-values. Avec des acteurs de la gestion d’actifs de plus en plus concentrés, et influents, to big to fail, et des banques centrales dont la mission première est de maintenir en apesanteur le prix des actifs, au risque de provoquer la grande culbute de la planète finance. Il y a là un dérèglement majeur, dont la correction devrait faire appel à la politique de la concurrence, et mobiliser un arsenal réglementaire qui aujourd’hui demeure toujours insuffisant.

Reste enfin le champ de la réglementation des revenus primaires. Revenu minimum … on connaît. Revenu maximum ? Le débat revient régulièrement sur la table quand certains scandales défraient la chronique. Je n’entrerai pas dans ce débat complexe, mais il est clair que là encore, dans le dégradé des solutions possibles, tout n’a pas été fait pour éviter les dérives extrêmes. Il existe surtout, tout un pan sur lequel le législateur fait du surplace : celui du pillage de la data et du travail informel qu’opèrent les plateformes numériques. C’est pourtant là aujourd’hui, avec la finance, que se concentrent les revenus extravagants parmi les 0,1% les plus riches qui s’arrogent le plus gros des fruits de la croissance.

Réforme de l’État, réglementation financière, formalisation de l’économie des plateformes… on ne le dit pas assez, mais ce sont trois chantiers qui s’attaquent aux sources de la machine inégalitaire. »

L’intelligence artificielle : comment prendre en compte l’intelligence humaine ?

L’intelligence artificielle : comment prendre en compte  l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)

« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

L’intelligence artificielle : comment y intégrer l’intelligence humaine ?

 

Arnaud Martin, Université Rennes 1 pose la question de l’intégration de  l’incertitude humaine dans l’intelligence artificielle. (La Tribune)


« L’intelligence artificielle est devenue aujourd’hui un enjeu économique et se retrouve au cœur de nombreuses actualités. En effet les applications d’un grand nombre d’algorithmes regroupés sous le terme d’intelligence artificielle se retrouvent dans plusieurs domaines. Citons par exemple l’utilisation de l’intelligence artificielle dans les processus de recrutement ou encore pour le développement de voitures autonomes. Dans ce contexte, la France veut jouer un rôle dans lequel le rapport Villani pose les bases d’une réflexion. Ces méthodes et algorithmes d’intelligence artificielle soulèvent cependant des craintes et des critiques liées à la perte du sens commun issu des relations humaines.

Il faut toutefois avoir conscience que l’ensemble de ces approches ne font qu’intégrer des connaissances humaines qui ont été au préalable modélisées bien souvent à partir de processus d’extraction de connaissances.

C’est dans ce cadre que nous menons des recherches dans l’équipe DRUID (Declarative and Reliable Management of Uncertain, User-generated Interlinked Data) de l’IRISA (Institut de recherche en informatique et systèmes aléatoires). Il est en effet important de pouvoir modéliser de façon la plus exacte possible les connaissances des hommes aussi imparfaites qu’elles soient. Par exemple, lorsqu’on s’exprime sur les réseaux sociaux, on peut émettre des avis entachés d’incertitude ou encore d’imprécision. Il ne serait pas raisonnable de croire tout ce qui peut se dire sur les réseaux sociaux. Mais comment modéliser ces doutes que l’on a tous ?

Nous développons ainsi des approches dans le cadre de la théorie des fonctions de croyance. Cette théorie permet de modéliser à la fois le caractère incertain d’une information mais également son caractère imprécis. Par exemple, si l’on me dit qu’il pleuvra peut-être beaucoup demain, d’une part je ne suis pas certain qu’il pleuve demain et d’autre part je ne sais pas interpréter le terme « beaucoup » qui peut correspondre à la quantité d’eau qu’il va tomber ou à la durée de la pluie. Alors dois-je prendre un parapluie ?

Cette modélisation de l’information produite par les hommes, l’intelligence naturelle, doit être particulièrement fine lorsque l’on veut combiner ces informations issues de différentes personnes. En effet, si beaucoup de personnes pensent qu’il va peut-être pleuvoir demain, sur la base de leurs connaissances diverses et indépendantes, on peut penser qu’il y a plus de chance qu’il pleuve demain, même si les personnes initialement étaient incertaines.

 

Ainsi, plusieurs stratégies de combinaison de ces informations dans le cadre de la théorie des fonctions de croyance ont été proposées. Au cœur de ces approches, réside la notion de conflit car lorsqu’on laisse la possibilité à plusieurs personnes indépendantes de s’exprimer, inévitablement certaines opinions seront contradictoires. Le conflit peut donc être vu comme une conséquence inhérente à la diversité de l’intelligence naturelle. Atteindre un consensus devient donc un des principaux défis de l’intelligence artificielle.

C’est en effet à partir d’un consensus qu’une décision peut être prise que ce soit lors d’une assemblée de personnes ou par un algorithme. Si le consensus est mou, la décision sera moins fiable et parfois peu pertinente. Il serait illusoire de penser que les décisions prises par un algorithme d’intelligence artificielle sont indiscutables et sont prises de façon certaine. Toute décision doit donc être accompagnée d’un niveau de confiance que l’on peut lui porter. Ainsi, dans le cadre de la théorie des fonctions de croyance, plusieurs stratégies de décision sont développées pour m’aider notamment à prendre ou non un parapluie.

Bien sûr le développement de ces approches sous-entend qu’on laisse suffisamment d’expressivité aux personnes afin de préciser leur incertitude et imprécision. C’est malheureusement peu souvent le cas. Aujourd’hui on nous demande notre avis sur tout : on doit noter l’hôtel dans lequel on vient de séjourner, le chauffeur qui nous a conduits, le vendeur d’électroménager ou encore le livreur. Il est cependant bien souvent difficile d’attribuer une note ou un avis, qui reste très subjectif, alors que par exemple on ne s’est même pas encore servi de l’électroménager. Les questionnaires ne permettent pas de préciser nos incertitudes et imprécisions alors qu’il est des plus naturels de les exprimer dans le langage courant. Pire, les algorithmes d’apprentissage qui sont le fondement d’un grand nombre de méthodes d’intelligence artificielle ne permettent pas d’intégrer ces connaissances naturelles puisqu’elles n’ont pas été recueillies dans les bases de données. En particulier, des plates-formes de productions participatives (crowdsourcing en anglais) permettent, entre autres, d’acquérir des bases de connaissances nécessaires à l’apprentissage d’algorithmes de plus en plus gourmands avec la résurgence des réseaux de neurones.

Ainsi dans le cadre d’un projet de recherche qui porte sur le développement de ces plates-formes, nous cherchons à proposer des questionnaires permettant des réponses incertaines et imprécises.

Ces recherches nous paraissent essentielles pour l’intégration de l’intelligence naturelle dans les algorithmes d’intelligence artificielle. »

______

Par Arnaud Martin, Intelligence Artificielle, Fouille de données, Université Rennes 1

 

Affaire De Rugy : comment ne pas payer d’impôts avec un revenu de plus de 13 000 euros mensuels ?

Affaire De Rugy : comment ne pas payer d’impôts avec un revenu de plus de 13  000 euros ?

 

Comment ne pas payer d’impôt avec un revenu d de 13 000 €. C’est la question qui se pose puisque le ministre de l’écologie a réussi à ne pas être imposable en 2015 et cela paraît-il en toute légalité. Or de Rugy  touche pas moins de 11.552 euros par mois : 7.209,74 euros bruts chaque mois, plus la jolie indemnité de frais de mandat qui s’élève à 5.770 euros, que chaque député peut dépenser comme il le souhaite, excepté pour acheter un bien immobilier et pour participer à une campagne électorale. Il faut donc que disposer d’un très compétent conseiller fiscal pour  parvenir à éviter l’imposition. Nombre de français dont le salaire représente 15 à 20 % du revenu du ministre de l’écologie sont pourtant condamnés à payer cet impôt sur le revenu. On objectera sans doute que nombreux de dirigeants de grandes entreprises sollicitent aussi l’évitement fiscal par exemple en se faisant rémunérer par des filiales à l’étranger dont la fiscalité est faible voir nulle. Les sommes sont alors  considérables. Cela aussi en toute légalité. Cela vaut pour les individus, chefs d’entreprise mais aussi pour l’imposition des sociétés. La combine la plus légale consiste à externaliser les profits dans des filiales situées dans des pays à très faible fiscalité ou sans fiscalité du tout et inversement à internaliser les pertes dans les sociétés en sur facturant les filiales françaises. Il existe bien d’autres mécanismes. La fraude légale ou pas porterait sur une somme de l’ordre de 50 milliards. Une somme en réalité très approximative car par définition on ne dispose pas de chiffres pertinents dans ce domaine. Bien sûr les sommes économisées par de Rugy  en 2015 n’ont rien à voir avec les fraudes qui viennent d’être évoquées. Pour autant c’est parce qu’elle présente un caractère d’exemplarité que cette affaire choque. Cela d’autant plus que Macron et de Rugy en particulier  dés le début du mandat ont affirmé le principe de la transparence et de la rigueur. Une rigueur qu’on applique aux autres mais pas à soi-même. En fait il n’y rien il n’y a rien de nouveau sous le soleil mais aujourd’hui compte tenu du contexte d’une part et des millions d’observateurs des réseaux sociaux les petites combines sont de plus en plus difficile à dissimuler.

 

De Rugy : comment ne pas payer d’impôts avec un revenu de plus de 11 000 euros ?

De Rugy : comment ne pas payer d’impôts avec un revenu de plus de 11 000 euros ?

 

Comment ne pas payer d’impôt avec un revenu de plus de 11 000 €. C’est la question qui se pose puisque le ministre de l’écologie a réussi à ne pas être imposable en 2015 et cela paraît-il en toute légalité. Or de Rugy  touche pas moins de 11.552 euros par mois : 7.209,74 euros bruts chaque mois, plus la jolie indemnité de frais de mandat qui s’élève à 5.770 euros, que chaque député peut dépenser comme il le souhaite, excepté pour acheter un bien immobilier et pour participer à une campagne électorale. Il faut donc que disposer d’un très compétent conseiller fiscal pour  parvenir à éviter l’imposition. Nombre de français dont le salaire représente 15 à 20 % du revenu du ministre de l’écologie sont pourtant condamnés à payer cet impôt sur le revenu. On objectera sans doute que nombreux de dirigeants de grandes entreprises sollicitent aussi l’évitement fiscal par exemple en se faisant rémunérer par des filiales à l’étranger dont la fiscalité est faible voir nulle. Les sommes sont à leur considérables. Cela aussi en toute légalité. Cela vaut pour les individus chefs d’entreprise mais aussi pour l’imposition des sociétés. La combine la plus légale consiste à externaliser les profits dans des filiales situées dans des pays à très faible fiscalité ou sans fiscalité du tout et inversement à internaliser les pertes dans les sociétés en sur facturant les filiales françaises. Il existe bien d’autres mécanismes. La fraude légale ou pas porterait sur une somme de l’ordre de 50 milliards. Une somme en réalité très approximative car par définition on ne dispose pas de chiffres pertinents dans ce domaine. Bien sûr les sommes économisées par de Rugy  en 2015 n’ont rien à voir avec les fraudes qui viennent d’être évoquées. Pour autant c’est parce qu’elle présente un caractère d’exemplarité que cette affaire choque. Cela d’autant plus que Macron et de Rugy en particulier  dés le début du mandat ont affirmé le principe de la transparence et de la rigueur. Une rigueur qu’on applique aux autres mais pas à soi-même. En fait il n’y rien il n’y a rien de nouveau sous le soleil mais aujourd’hui compte tenu du contexte d’une part et des millions d’observateurs des réseaux sociaux les petites combines sont de plus en plus difficile à dissimuler.

 

Comment transformer la France en profondeur (l’Odissée)

Comment  transformer la France  en profondeur (l’Odissée)

Une tribune d’Odissée, organisation de l’intelligence sociale (la Tribune)

« L’état social du monde – 2015, la France se positionne à la 55éme place. Ces difficultés trouvent leur source dans la centralisation génératrice de non-dits : dans la société mondiale en transformation accélérée, le système socio-économico-politique monopolistique français de la France n’est plus adapté.

La France va mal. Les faits sont en rupture avec la bien-pensance :

  • La réalité du PIB par habitant doit être évaluée en comparaison avec nos voisins. En 1970, le PIB par habitant des Français était le même que celui des Allemands et le double de celui des espagnols. Il est désormais 18% derrière l’Allemagne et seulement 12% devant celui des espagnols : en deux générations, nous sommes passés de la parité avec l’Allemagne à un niveau plus proche de celui de l’Espagne ! Cela, alors que les Allemands se sont réunifiés à grand coût : ils creusent l’écart de près d’un pour cent par an depuis dix ans !!!
  • Le déficit réel de l’Etat ne doit pas être regardé à travers les critères flous de Maastricht qui le situe à environ 3%, mais au regard des ressources propres de l’Etat. Dans la Loi de finances 2018, l’Etat français dispose de 242,9 milliards d’Euros de ressources prévisionnelles en 2018 et prévoit 86,7 milliards d’euros de déficit, soit un manque de 35% !!! De plus, la charge de la dette est actuellement limitée à 40 milliards du fait de taux d’intérêts proches de zéro. Or, dans les années 80, l’Etat empruntait à 5% : si cette situation se reproduisait, dans cinq à dix ans, le déficit annuel pourrait s’élever de 100 milliards, soit 75% des ressources !!!
  • La quantité réelle de chômeurs n’est pas limitée à la seule catégorie A (3,5 millions de personnes) mais s’étend à toutes les personnes qui sont inscrites à Pôle Emploi et n’ont pas de travail (soit les catégories A, B, C et D), c’est-à-dire environ 6,2 millions de personnes : le taux de chômage réel est donc près du double de celui qui est retenu dans le débat public !!!

-

 

-

La France est débordée par le mouvement du monde. Son fonctionnement global est décalé.

Les statistiques montrent que l’opposition socialisme / libéralisme est caduque

Depuis 2004, l’Odis publie à la Documentation française des analyses comparatives des territoires français, européens et mondiaux en termes de cohésion sociale et de performance : ces deux dimensions apparaissent en corrélation dans tous les ensembles. Sur la durée, donner le primat à l’une ou l’autre revient à échouer. Les prismes du socialisme et du libéralisme sont donc incomplets.

L’analyse des territoires révèle que la racine de la performance globale réside dans la qualité des débats

Les territoires qui réussissent le mieux sont ceux où l’information circule, où les échanges de proximité intègrent à la fois avec souplesse et rigueur la plus grande diversité des personnes, des faits et des idées. Dans des pays comme la Norvège, la Suisse, la Suède, les Pays-Bas, le Danemark, l’Autriche, les barrières statutaires ne résistent pas au bon sens : les expériences, analyses et idées de chacun sont attendues et reçues par tous.

 

Les limites du système étatique français

C’est donc un excès de centralisme et de régulation qui ne permet pas à la France d’impliquer tous les français dans la prise en mains des enjeux collectifs. En effet, Paris est le centre routier, ferré, aérien parce que c’est le siège de tous les pouvoirs : politique, économique, social, culturel, médiatique. De plus, à Paris, l’Etat est l’acteur principal :

  • Régulateur expansif avec l’épaississement des codes civil, pénal, travail, mais aussi la multiplication des codes dans l’immobilier, le cinéma…
  • Formateur omniscient car, non seulement propriétaire et dirigeant unique des universités et des plus grandes écoles, il choisit les écoles du privé par l’attribution du statut de Diplôme reconnu d’Etat, sans lequel attirer des étudiants en nombre relève de l’impossible.
  • Géant économique car les plus grandes entreprises ont presque toutes été la propriété de l’Etat et conservent encore aujourd’hui, sinon des liens capitalistiques, des relations privilégiées avec leurs dirigeants qui presque tous issus de la haute fonction publique, dotés des mêmes diplômes qui les engagent à une protection mutuelle entre anciens élèves,
  • Médiateur social qui convoque en souverain du paritarisme, les syndicats et le patronat à des sommets sociaux éclairs à l’issue desquels il impose souvent son véto, sinon ses solutions.

Ainsi, un acteur unique procède seul à presque tous les arbitrages. Cela génère un déséquilibre de la responsabilité : attendu sur tous les terrains, l’Etat est sur responsabilisé tandis que les citoyens, démunis de marges de manœuvre, baignent dans l’irresponsabilité. Ils ne sont pas en situation de contribuer à la maîtrise de leur destin collectif.

Doté de cette omnipotence, le système politique ne sait pas entendre les signaux d’alerte. Il finit toujours par commettre et enchaîner les erreurs, ce qui aboutit à son renversement. Voilà pourquoi la France empile seize constitutions depuis 1789, tandis que le Royaume Uni est resté dans le même système souple qui lui permet de s’adapter en continu.

Une culture de non débat

Ce mécanisme structurel de concentration des pouvoirs en une seule main se retrouve au sein de toutes les formes d’organisation :

  • Peu de débats internes aux partis politiques, toujours créés en France par un acteur au service de sa conquête personnelle du pouvoir. Charles de Gaulle a créé le Rassemblement du Peuple Français, Valérie Giscard d’Estaing l’UDF, François Mitterrand le Parti Socialiste, Jacques Chirac le Rassemblement pour la République, Emmanuel Macron En Marche. Seuls Nicolas Sarkozy et François Hollande n’ont pas créé leur parti, mais aucun de leur concurrent ne l’avait fait non plus. Encore que Nicolas Sarkozy a eu le champ libre dans l’Union pour un Mouvement Populaire du fait des ennuis judiciaires de son créateur Alain Juppé.
  • Peu de contrepouvoirs sereins dans l’entreprise, avec la fusion ultra majoritaire des rôles de Président et de Directeur général. Quel administrateur, quel membre d’un Comité de direction peut affirmer que les réunions au sommet sont des lieux d’échange où l’on construit en transparence un raisonnement collectif… ?
  • Dialogue social en méfiance, voir défiance mutuelle, avec une France championne d’Europe des grèves, sans parler des séquestrations de dirigeants qui renvoient à des prises d’otages. L’installation des négociations n’a pas – encore – résolu le problème.

L’absence de vrai dialogue permet le triomphe de la bien-pensance et rend plus difficile l’émergence d’informations nouvelles et de projets innovants.

L’analyse des pratiques montre qu’à la culture du débat doit s’ajouter la structure du débat

Mais, même dans des pays où l’articulation du débat public et interne au sein des organisations s’opère plutôt spontanément, l’explication et l’écoute ne suffisent plus pour faire émerger des innovations porteuses de l’intérêt général.  En effet, alors que la multitude des sources d’information forge autant d’opinions que de personnes, chacun veut désormais de plus en plus participer à l’élaboration des diagnostics et des décisions et refuse d’adhérer a priori. Le rôle nouveau du dirigeant consiste à animer l’écoute mutuelle en s’assurant de l’inclusion systémique de toutes les parties prenantes dans un échange constructif.

Le scénario français

L’alternative consiste donc à inventer un nouveau modèle de gouvernance générateur d’une culture de débat, de respect mutuel, de prise de conscience et de prise en main de la responsabilité intellectuelle à tous les étages. Alors, seulement, la société française sera en situation de réformer dans la sérénité ses systèmes fiscal, éducatif, sanitaire, social, politique, administratif…. Et alors aussi, elle sera en situation de ré éclairer le monde pour bâtir la prise en charge par tous du réchauffement climatique, du maintien de la biodiversité, du dialogue interreligieux, des crises financières… Et alors seulement, elle sera en mesure d’accomplir son destin, car comme l’écrivait Charles de Gaulle : La France n’est réellement elle-même qu’au premier rang ; seules de vastes entreprises sont susceptibles de compenser les ferments de dispersion que son peuple porte en lui-même.

Révolutionner le rôle du dirigeant pour réécrire le contrat social

Depuis des années, nous alertons les décideurs économiques, sociaux et politiques sans attendre la révolution de la rue, mère de tous les excès. Le grand débat n’est qu’un grand début : dans la société, il faut instaurer maintenant le débat citoyen en amont du débat parlementaire sur tous les grands rendez-vous législatifs ; dans l’entreprise, il faut acquérir le réflexe de la réflexion collective inclusive de toutes les parties prenantes dans chaque réunion de chaque service de chaque étage de chaque immeuble de chaque établissement.

La mise en œuvre par les dirigeants de toutes les sphères, unis pour le progrès, d’un mode opératoire nouveau et producteur d’une révolution des esprits permettra la réforme sereine, acceptée et générateur de performance et de cohésion sociale.

_________

NOTES

(*) Afin d’éviter les écueils des faux dialogues générateurs de suspicion, de rupture et de conflits, La Tribune ouvre ses colonnes à l’Odissée. Pilotée par son directeur et expert de la dialectique, Jean-François Chantaraud, la chronique hebdomadaire « Ne nous fâchons pas ! » livrera les concepts, les clés opérationnelles de la méthode en s’appuyant sur des cas pratiques et sur l’actualité.

L’Odissée, l’Organisation du Dialogue et de l’Intelligence Sociale dans la Société Et l’Entreprise, est un organisme bicéphale composé d’un centre de conseil et recherche (l’Odis) et d’une ONG reconnue d’Intérêt général (les Amis de l’Odissée) dont l’objet consiste à « Faire progresser la démocratie dans tous les domaines et partout dans le monde ».

Depuis 1990, l’Odissée conduit l’étude interactive permanente Comprendre et développer la Personne, l’Entreprise, la Société. Dès 1992, elle a diffusé un million de Cahiers de doléances, ce qui l’a conduit à organiser des groupes de travail regroupant des acteurs des sphères associative, sociale, politique, économique qui ont animé des centaines d’auditions, tables rondes, forums, tours de France citoyens, démarches de dialogue territorial et à l’intérieur des entreprises.

Coût du service public : comment trouver un meilleur équilibre entre accessibilité, efficacité et coût

  • Coût du service public : comment trouver un meilleur équilibre entre accessibilité, efficacité et coût

La question posée dans le cadre du grand débat était : « Comment faire évoluer le lien entre impôts, dépenses et services publics pour mieux répondre aux besoins des Français ? »

De fait, dans certaines parties du territoire, ce lien paraît de plus en plus ténu voire inexistant, en tout cas très de plus en plus éloigné. Dans nombre de villages, il y a déjà longtemps qu’il n’existe pratiquement plus de services publics et le dernier qui semblait devoir résister, à savoir la Poste, disparaît aussi. En cause évidemment,  un  aménagement du territoire qui privilégie l’hyper concentration autour de quelques centres et qui conduit le reste à la désertification.  . La mode aujourd’hui est à la métropolisation, c’est à dire à la sururbanisation (qui constitue pourtant une  aberration environnementale) tandis que certaines  petites villes, des villages s’appauvrissent, des villes moyennes stagnent ou régressent. L’élément le plus significatif de cette désertification c’est la raréfaction de l’emploi. Du coup,  les populations sont contraintes de rechercher des embauches de plus en plus loin de leur domicile (20, 30, 50 kms). Jusqu’au  jour où elles décident de quitter leur zone d’habitat pour  rejoindre des zones plus riches en emplois et en services. Pour preuve de cette désertification : la baisse dramatique de la valeur du patrimoine immobilier. Par manque de populations,  les services rétrécissent comme peau de chagrin. Le cœur de la problématique de la désertification, c’est la disparition de l’emploi qui génère mécaniquement la fermeture des commerces et des services. La réactivation des villes moyennes, des  zones rurales défavorisées passe d’abord par une  analyse fine des réalités et de leur évolution sur longue période (emploi, PIB,  population, services etc.) ; aussi  par une prise en compte des  typologies différenciées des zones dont l’approche globale masque les disparités. Au-delà,  il convient d’agir sur les  leviers susceptibles d’abord de fixer la population active existante et d’encourager la création d’emplois. Bien entendu une  commune ne peut, à elle seule, inverser ces tendances lourdes même si elle peut intervenir utilement dans le champ actuel  de sa  responsabilité. Beaucoup de communes se préoccupent de leur développement pour autant l’environnement défavorable limite leur action (fiscalité, réglementation, transport, équipements et services). En fonction de certains scénarios économiques, sociaux et démographiques, en 2040-2050,  certains villages se transformeront en zones pour retraités voire même disparaîtront (d’autant qu’à cette date un  Français sur trois aura plus de 60 ans). L’activité économique interagit sur la qualité et le niveau des services et réciproquement. Si localement on se préoccupe légitimement des équipements et des services publics, par contre le soutien à l’emploi et à l’économie locale en particulier est plus déficient. Or en fonction du rythme de destruction  des emplois locaux, ce devrait être aussi une priorité. Encore une  fois compte tenu de la mode de la « métropolisation » ‘ pas spécifique à la France, il y a fort à parier qu’on pourra attendre encore longtemps des mesures significatives pour le développement rural des zones défavorisées. On ne saurait se limiter  à quelques dispositions certes utiles mais très insuffisantes (couverture internet, bureau de poste, quelques services …peut-être). . Parallèlement on doit aussi s’interroger sur le concept même de service public, son coût, son fonctionnement et son financement ; en effet, si le rythme de suppression des  services s’accélère, c’est notamment pour des raisons socio-économiques évoquées précédemment mais aussi à cause d’un coût que la collectivité a du mal à assumer. Ce coût explique largement que le pays détienne le double record du monde de prélèvement obligatoire et de dépenses publiques par rapport au PIB. Un record qui porte atteinte à la compétitivité donc aussi à l’emploi. Dans son acception un peu générale, la tendance est forte d’assimiler service public, secteur  public voire statut des personnels. Trois notions pourtant à distinguer. La première découle du champ régalien de l’État (ou plus généralement des collectivités)  lequel mériterait sans doute d’être mieux défini, sans doute plus restreint et en même temps mieux assumé.  Certaines tâches doivent être toujours être assumés par l’État directement mais sans nécessairement gérer directement la logistique. La deuxième confusion concernant le service public vise le statut des personnels. Si on peut comprendre par exemple  que les infirmières ou ASH soient fonctionnaires, c’est plus discutable pour les jardiniers, les menuisiers, et autres comptables. Le problème c’est qu’on résume souvent la problématique des conditions de travail par exemple du personnel des hôpitaux à celle des infirmières. La troisième dimension du service public est liée à la structure juridique qui l’effectue. Or rien n’indique que l’intérêt général doive être exclusivement assumé par le secteur public. De nombreuses fonctions d’intérêt général sont en effet exercées notamment  par voie de délégation à des organisations parapubliques ou privées (santé, transport, formation etc.) Du coup, l’amalgame des trois définitions conduit souvent en fait à masquer une défense corporatiste et coûteuse du service public qui au total porte atteinte à la qualité, à l’accessibilité et à la compétitivité de ce service. Faute de cela non seulement tout service public disparaîtra des petites communes mais nombre de fonctions d’intérêt général vont aussi s’étioler dans les petites et moyennes villes (les hôpitaux par exemple).  La problématique n’est pas simple, le service public pour certaines de ses activités constitue un atout indiscutable pour le progrès social mais aussi économique, il n’en demeure pas un  boulet financier qui hypothèque son avenir. Avant d’envisager cette réforme du service public, il sera nécessaire au préalable de procéder à une évaluation qualitative et quantitative des contenus, du fonctionnement et du coût. L’évaluation qualitative est indispensable car ce n’est par la même chose par exemple en terme d’accessibilité d’avoir la possibilité d’obtenir un rendez vous au bout de 15  jours ou au bout de 5 mois chez un cardiologue ou un ophtalmologue. Autre exemple, Ce n’est pas non plu la même chose de disposer en permanence de la 4G en téléphonie mobile et de recevoir des SMS le lendemain de leur émission dans le zones blanches ou mal couvertes. Enfin, le traitement est différent quand il suffit de  faire 500 m pour retirer 100 euros à la Poste ou faire 40 kms.

 

Comment supprimer le périphérique (Gaspard Gantzer, candidat à la mairie de Paris)

Comment supprimer le périphérique  (Gaspard Gantzer, candidat à la mairie de Paris)

A priori le projet de destruction du périphérique parisien paraît assez loufoque. Ceci étant, à long terme, il est probable que l’usage individuel de la voiture sera fortement réglementé et même interdit dans de nombreuses zones. À la place comme dans d’autres grandes métropoles internationales, les transports collectifs et les transports individuels mutualisés se seront imposés non seulement pour des questions environnementales mais aussi d’aménagement de l’espace. Gantzer en a fait son cheval de bataille dans la course à la mairie de Paris. S’il est élu en aux élections municipales de 202, Gaspard Gantzer, ancien conseiller communication de François Hollande, entend détruire le boulevard périphérique qui encercle la capitale, utilisé chaque jour par un million de véhicules. À la place le candidat à la mairie de Paris propose de récupérer les terrains pour un vaste plan de réaménagement concernant en particulier le logement. Un projet qui apparaît sans doute très irréaliste pour les 10 à 20 ans à venir mais qui pourrait bien devenir crédible autour de  2050 ne serait-ce qu’en raison d’une crise immobilière qui risquait de vider complètement Paris de ces habitants, régulier « Nous proposons d’en aménager entre 300 et 400 hectares: un tiers d’espaces verts, un tiers de logements (environ 50.000 appartements, répartis équitablement entre habitat social, intermédiaire et libre) et un tiers d’équipements publics, de commerces et de bureaux », explique-t-il. Pour penser ce projet, Gaspard Gantzer indique qu’il a travaillé avec le géographe Cédrick Allmang ainsi que des architectes-urbanistes comme les collectifs Jigen et Rescubika. Gaspard Gantzer assure que la destruction suivie de la transformation du boulevard périphérique « ne coûtera rien aux Parisiens »: “En cédant du foncier à des promoteurs [...] nous pouvons encaisser au moins trois milliards d’euros pour les logements et 1,5 milliard pour les commerces et les bureaux. Largement de quoi financer les démolitions et aménagements paysagers, chiffrés à près de deux milliards d’euros”, selon lui. Reste à savoir quoi faire du million de véhicules qui emprunte tous les jours cette voie qui sépare la capitale de sa proche banlieue. Gaspard Gantzer estime que le trafic national et international devrait tout d’abord « être rabattu sur la Francilienne » (l’ensemble d’autoroutes permettant de contourner Paris à environ 30 kilomètres, NDLR), qui devrait donc être agrandie pour passer de deux à quatre voies de circulation. Concernant le trafic local des Parisiens et des habitants d’Île-de-France, le candidat de 39 ans mise tout sur les transports en commun. « Il y aura le Grand Paris Express, le CDG-Express jusqu’à Roissy, le prolongement de la ligne 10 du métro jusqu’à Ivry, détaille-t-il. Il faudra aussi boucler l’A86. Je souhaite également boucler le tramway T3 sur les Maréchaux et créer un vaporetto du Grand Paris sur la Seine entre les Hauts-de-Seine et le Val-de-Marne. C’est ambitieux de chasser un million de véhicules. Mais on ne peut plus attendre face à l’urgence de santé publique.” Gaspard Gantzer précise cependant que « la destruction du périphérique ne se fera pas en quinze jours mais en quinze ans », tronçon par tronçon, après une période de concertation de trois ans, de 2020 à 2023. Il affirme que son projet, qui s’étendrait sur trois mandatures, serait terminé d’ici 2038. Une échéance peut-être un peu rapproché mais qui ne discréditent pas forcément l’idée à terme.

1234



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol