Archive pour le Tag 'évaluation'

Immigration : pour une véritable évaluation de notre politique d’asile

Immigration : pour une véritable évaluation de notre politique d’asile

Une nouvelle loi sur l’immigration doit être discutée en novembre à l’Assemblée nationale. Il s’agirait du 29ᵉ texte voté depuis 1980 ; cela fait un tous les 17 mois. Le projet déposé en décembre 2022 envisage, outre une exonération, sous certaines conditions, du délai de carence de six mois avant de pouvoir travailler pour les demandeurs d’asile, un durcissement des règles du droit d’asile et une accélération des expulsions. Si le sujet occupe un espace central dans le débat politique français, les réalités de l’immigration, les concepts et les chiffres qu’elle recouvre restent cependant au mieux l’objet de confusions, au pire de falsification et de fantasmes.

On se retrouve souvent face à la figure du demandeur d’asile en guenille qui incarnerait toute ou partie de l’immigration avec l’idée que la France « ne peut pas accueillir toute la misère du monde », formule lancée par le Premier ministre Michel Rocard en décembre 1989 et maintes fois reprises depuis.

Par Benjamin Michallet, Chercheur en économie des réfugiés à PSE-École d’Économie de Paris, associé à la Chaire économie des migrations internationales et l’Institut Convergences Migrations, enseignant à IEP Paris, Sciences Po

Rechercher « migrants » dans un moteur de recherche, c’est s’exposer à des dizaines de photos de personnes en détresse tentant de traverser la méditerranée ou de longues colonnes de marcheurs le long de routes et barrières barbelées. Et ce plus encore alors que l’île italienne de Lampedusa revient à la Une des journaux, sujet à propos duquel le ministre de l’Intérieur français a affirmé une « position ferme » : la France « n’accueillera pas de migrants qui viennent de Lampedusa » sinon « les réfugiés politiques », a-t-il assuré.

La thématique des migrations fait pourtant l’objet de toujours plus de statistiques, de travaux et de publications au niveau international. Comme le rappelle, par exemple, François Héran, titulaire de la chaire Migrations et sociétés au Collège de France, dans un ouvrage récent, la prophétie du Tsunami migratoire ne s’est pas réalisée. En 2022, la France a pris en charge 16 % des demandes d’asiles adressées à l’Europe quand notre PIB représente 16,7 % du PIB européen. Au total, les titres de séjours octroyés au titre de l’Asile et d’étrangers malades représentent environ 13 % de l’ensemble des titres en 2022.

L’une des pierres d’achoppement du débat réside sans doute dans le maniement des mots et dans une confusion entre politique d’asile et politique migratoire. Il existe pourtant une distinction claire entre les deux : la première relève du droit international et du respect de la Convention de Genève de 1951 dont la France et les pays européens sont signataires, la seconde relève de la politique ordinaire d’un Etat souverain. La politique d’asile est élaborée au profit des personnes Bénéficiaires de la protection internationale (réfugiés et protégés subsidiaires) tandis que la politique migratoire ordinaire est élaborée par les États, en fonction de leurs intérêts à un moment donné.

Pour le reste, les discussions quant à l’orientation à donner à la politique d’asile souffrent d’un réel manque d’études quantitatives robustes sur lesquelles se fonder.

À l’aube d’une nouvelle loi migration, la France est, de fait, peu documentée quant aux effets de sa politique d’asile et des programmes destinés à l’intégration des réfugiés. Dans un article de recherche récent, l’économiste danois Jacob Nielsen Arendt détaille avec ses coauteurs les travaux publiés qui évaluent les politiques relatives aux réfugiés et leurs performances sur le marché du travail. N’y apparaît qu’une seule étude sur la France, celle d’Alexia Lochmann, Hillel Rapoport et Biagio Speciale. On compte en parallèle plus d’une quinzaine d’études sur le Danemark et près d’une dizaine sur la Suède généralement fondées sur des données administratives de grande dimension.

L’étude sur la France date de surcroît de 2019. Les chercheurs y évaluent l’impact de la composante linguistique du Contrat d’accueil et d’intégration, l’ancêtre du Contrat d’intégration républicain. Par rapport aux études scandinaves, les auteurs doivent s’en remettre à des données d’enquête qui offrent un éventail d’indicateurs restreints et autodéclarés quant à la participation au marché du travail tandis que le nombre de Bénéficiaires de la protection internationale au sein de leur échantillon est relativement faible.

La France dispose pourtant de l’ensemble des outils et connaissances pour évaluer rigoureusement sa politique d’asile. Les centres de recherche français comptent de nombreuses équipes spécialistes de l’immigration et de l’évaluation expérimentale et non expérimentale. À ce titre, rappelons que la prix Nobel d’Économie 2019, Esther Duflo, est une Française spécialiste de l’évaluation par les méthodes expérimentales qu’elle a largement contribué à populariser.

Du côté des données, la France dispose de très importants dispositifs statistiques d’une qualité inégalable et le Centre d’accès sécurisé aux données (CASD) permet d’accéder à distance à une infrastructure sécurisée où les données confidentielles sont sanctuarisées. Toutes les conditions techniques sont réunies pour mener des travaux d’évaluation du meilleur niveau académique fondés sur un large panel de méthodes afin d’étudier finement notre politique d’asile et verser au débat des propos fondés sur des preuves scientifiques.

Quel que soit l’issue du débat sur la loi immigration, il convient donc de consacrer l’évaluation de notre politique d’asile en se dotant des moyens requis. Cela implique notamment d’anticiper le financement et le soutien à des évaluations scientifiques rigoureuses mais également de mener à bien l’élaboration de dispositifs statistiques appariés pour pallier le risque de voir les chiffres être manipulés et les scientifiques se détourner du contexte français pour mener leurs recherches.

Celles-ci s’avèrent nécessaires, notamment car les coûts liés à l’immigration sont plus directement visibles que ses retombées positives dont la mesure requière des évaluations plus fines.

Du point de vue des coûts, en plus d’instruire les demandes d’asile, la France est tenue de garantir les conditions matérielles d’accueil en vertu du droit européen. Tout ceci est chiffré au sein des programmes 303 et 104 du projet de loi de finances (PLF). Dans le PLF 2022, l’action n°2 du programme 303, « Garantie de l’exercice du droit d’asile », représentait près de 90 % du budget du programme et recouvrait les crédits d’allocation pour les demandeurs d’asile (la fameuse « ADA »), l’accueil et l’hébergement des demandeurs d’asile au sein du dispositif national d’accueil (le DNA), et le versement de la subvention de l’État à l’Office français de protection des réfugiés et apatrides, l’Ofpra.

Du côté du programme 104 qui compte pour un peu plus de 20 % des crédits consacrés à l’immigration et à l’intégration, plusieurs actions sont en lien direct avec la politique d’asile. On y retrouve notamment une part du financement de l’Office français de l’immigration et de l’intégration (Ofii).

Des politiques publiques sans évaluation !

Des politiques publiques sans évaluation !


L’économiste Simon Bouteloup détaille, dans une tribune au « Monde », l’utilité des évaluations, qui, en mesurant l’efficience de la dépense publique, constituent un outil d’aide à la décision et de transparence.

Des expériences des bénéficiaires aux mouvements professionnels, en passant par des appels d’universitaires, les conclusions convergent : les services publics, et plus largement l’action publique, apparaissent en état de détrition. La santé, la justice, les transports, le logement, l’énergie, ne sont qu’un échantillon des secteurs où les politiques publiques ne seraient plus, ou du moins plus que partiellement, à la hauteur des défis et des besoins contemporains. Pourtant, la dépense et la dette publiques n’ont jamais été aussi importantes. La fabrique des politiques publiques est-elle donc si défaillante en France ? Les récents chiffres concernant la galaxie (onéreuse et écocidaire) des aides aux entreprises privées révèlent une faiblesse majeure en France desdites politiques publiques : leur absence structurelle d’évaluation.

Il aura fallu attendre une étude de l’Institut de recherches économiques et sociales (IRES) pour connaître l’ampleur des appuis publics au secteur privé en France, estimée à 30 % du budget de l’Etat (6,5 % du PIB) en 2019. Pis, si l’on ajoute les dépenses fiscales (le manque à gagner en matière de recettes du fait d’exonérations), le coût se chiffre à 8,5 % du PIB en 2019. Or, aucune politique publique d’aucun gouvernement n’a consisté à appuyer le secteur privé à hauteur de 30 % du budget. Cette « mise au service du marché » ou ce « corporate welfare », que dénoncent respectivement les économistes Anne-Laure Delatte et Maxime Combes, ne constituent pas une politique publique.

Si les causes sont multiples, cet état de fait provient, entre autres, de dispositions législatives adoptées depuis des décennies, la plupart sans clauses de révision. Leur inflation est telle qu’un recensement ou un suivi dans la mise en œuvre est impossible. Ce faisant, cette faiblesse de la gouvernance publique contraint significativement la politique budgétaire. Et sur ces 2 000 aides, combien d’entre elles ont fait, avant leur création, et continuent à faire, chaque année, l’objet d’une évaluation ?

Car, bien loin des modèles néo-zélandais ou canadien, la France n’a pas l’habitude d’apprécier l’impact et l’atteinte des objectifs de ses lois au moyen d’évaluations. Leurs méthodes ont pourtant progressivement gagné en robustesse et les pays anglo-saxons exercent de telles évaluations depuis des décennies.

Contre l’obsolescence programmée mettre en place une évaluation de la réparabilité

Contre l’obsolescence programmée mettre en place une véritable de la réparabilité


L’indice de réparabilité, c’est quoi et pourquoi ? Par Nicolas Roisin, Université catholique de Louvain (UCLouvain); Jean-Pierre Raskin, Université catholique de Louvain (UCLouvain); Sébastien Toussaint, Université catholique de Louvain (UCLouvain) et Valerie Swaen, Université catholique de Louvain (UCLouvain) dan
s the conversation

L’initiative française d’indice de réparabilité déployé le 1ᵉʳ janvier 2021 entend répondre à ces défis en sensibilisant les consommateurs à la réparation et en incitant les fabricants à l’écoconception.

Affiché sur les produits, l’indice prend la forme d’une note sur 10 et d’un pictogramme coloré dépendant du score obtenu – rouge pour les équipements ayant une note inférieure ou égale à 1,9 ; orange, jaune, vert clair et vert foncé, jusque 3,9, 5,9, 7,9 et 10, respectivement.

Afin de calculer cet indice, cinq critères sont utilisés : la disponibilité de la documentation technique ; la démontabilité et accès, outils, fixations ; la disponibilité des pièces détachées ; le prix des pièces détachées ; et des critères spécifiques à la catégorie du produit.

En mai 2022, nous avons analysé les scores de plus de 700 équipements électroniques dans trois catégories de produits : les téléviseurs, les smartphones et les ordinateurs portables, qui sont les appareils électroniques avec le potentiel de réparabilité le plus important comparé, par exemple, aux lave-linge qui atteignent un bien meilleur taux de réparation – bien qu’améliorable également. Les données (prix de vente, marque, modèle, indice de réparabilité, score de chaque critère et sous-critère) ont été récoltées à partir du site Internet de la société Darty.

Cette analyse nous a permis de constater que, malgré l’obligation depuis le 1er janvier 2021 de rendre disponible le score lors de la vente de l’équipement, certaines marques n’ont pas encore fourni celui de leurs produits, et que certains arborent un score unique pour toute la gamme de produits. La grille de calcul de score est ainsi remplie de façon globale sans inclure les spécificités de chaque bien, ce qui pose question compte tenu de la faible standardisation des pièces détachées.

La majorité des scores obtenus par les marques pour leurs différents produits sont en outre supérieurs à 5, ce qui montre un manque d’efficacité dans l’utilisation de l’échelle complète et de sanction en cas de mauvais score sur un ou plusieurs critères. L’utilisation d’une moyenne arithmétique pour calculer l’indice final conduit en effet à ce que de bons scores sur certains critères compensent les mauvais scores sur d’autres.

Les smartphones et ordinateurs portables obtiennent ainsi de bons indices de réparabilité malgré la faible disponibilité des pièces détachées, qui rend souvent leur réparation impossible.

À ce jour, la politique en matière de pièces détachées est un élément clé dans la réparation des appareils défectueux : les grandes disparités observées dans les scores finaux des appareils proviennent en premier lieu de la politique des marques en matière de pièces détachées.

Une documentation claire et accessible, indispensable aux réparateurs, est par ailleurs encore trop souvent difficile à obtenir auprès de certaines marques. La pédagogie dans le milieu de la réparation est majoritairement le fait des particuliers et du monde associatif.

Il est enfin essentiel que les fabricants réduisent au maximum l’usage de colle et soudure dans leurs produits, principaux freins à la démontabilité des objets. Plus généralement, la miniaturisation et la compacité du design de ces équipements complexifient le processus de réparation.

D’après un rapport de l’association Halte à l’obsolescence programmée, d’autres obstacles ne sont pas pris en compte dans l’indice, tels que la sérialisation et la compatibilité des pièces détachées. Les réparateurs indépendants ont par exemple constaté une hausse des pièces irremplaçables car associées à un appareil spécifique via leur numéro de série.

Soyons clairs, l’affichage de l’indice de réparabilité représente un réel progrès pour améliorer nos habitudes de consommation. Des améliorations sont néanmoins possibles en matière de calcul, de transparence, et de contrôle de l’indice, afin d’augmenter son impact.

Comme l’illustrent nos analyses, la grille actuelle ne permet pas d’identifier strictement les produits difficilement réparables, puisqu’un indice assez élevé peut être obtenu par un équipement électronique qui dispose d’une lacune forte en la matière.

D’autres méthodes de calcul pourraient être utilisées, comme une moyenne géométrique afin qu’une note proche de zéro sur un critère réduise considérablement le score final de l’indice. Cette solution aurait le mérite de pousser les fabricants à avoir des scores corrects sur tous les critères, et le score refléterait mieux la réparabilité « réelle » de l’équipement.

Un second élément concerne la transparence du processus d’encodage des scores des différents critères. Les constructeurs adoptent des pratiques différentes, certains rapportant une même note pour une gamme de produits, alors que d’autres fixent une note spécifique par produit.

Il semble donc nécessaire que les fabricants fournissent en toute transparence la grille de calcul complète et détaillée ainsi que les engagements sur lesquels ils ont fondé leurs calculs – en particulier les périodes de disponibilité de leurs pièces et leurs conditions d’accès. Cela les obligerait à remplir avec sérieux cette liste et permettrait aux autres acteurs (publics et privés) d’être critiques par rapport aux notes obtenues par les appareils.

Notons enfin qu’un véritable contrôle de l’indice de réparabilité par le marché est difficilement réalisable. Certaines informations sont peu accessibles ; les engagements sur la disponibilité des pièces de rechange dans le temps ne sont presque jamais spécifiés ; les catalogues de pièces détachées sont rarement disponibles.

Et la vérification des déclarations des fabricants (par exemple concernant l’accès aux pièces détachées) requiert des interactions avec l’ensemble des acteurs concernés.

L’indice de réparabilité implique en effet une pluralité d’acteurs : il guide à la fois les fabricants dans leurs choix de design, les réparateurs dans l’anticipation des étapes clés de leurs réparations et les acheteurs dans leur souhait d’adopter une consommation responsable et durable. Dans cette optique, la charge de construire l’indice ne peut incomber uniquement aux fabricants et doit donner lieu à des discussions avec les parties prenantes.

L’indice associé à un produit ne devrait en outre pas être une grandeur statique établie de manière définitive à la sortie d’usine – la 1re étape de son cycle de vie où, par ailleurs, sa réparabilité n’a pas été formellement testée par des consommateurs ou des réparateurs – mais une grandeur adaptative établie à différents stades.

Une telle définition responsabilisant les réparateurs et les consommateurs en plus des fabricants contribuerait à ce que l’indice de réparabilité ne soit plus perçu par ces derniers comme une contrainte, mais bien comme un outil alimentant une analyse réflexive sur la conception de leurs produits.

Évaluation du nouveau scolaire : Nouvelle chute en français


Évaluation du nouveau scolaire : Nouvelle chute en français

Évaluation après évaluation -y compris au plan international- le niveau scolaire en France ne cesse de se dégrader. Même le ministère de l’éducation en fait la constatation.
On observe en effet encore cette année un « tassement » des résultats en français en CE1 et 6e, « lié à la crise sanitaire », et un creusement des inégalités en mathématiques à l’arrivée au collège, selon le ministère de l’Éducation.

Cette année, « on constate un tassement des résultats en français en CE1 et en 6e, très probablement lié à la crise sanitaire, avec les mois de janvier et février 2022 très perturbés dans les écoles, avec des absences d’élèves et d’enseignants », a expliqué pudiquement Edouard Geffray, directeur général de l’enseignement scolaire (Dgesco), lors d’une conférence de presse.
Les résultats en français des élèves de CE1 sont en baisse dans plusieurs domaines par rapport à 2021, notamment en écriture de mots, lecture à voix haute ou compréhension des phrases et des textes.

Le score moyen par élève passe de 260,8 points en 2021 à 256,5. La part des élèves dans les bas niveaux passe de 22,4% à 27,1%, tandis qu’elle baisse dans les hauts niveaux (de 36,7% à 33,8%).
On observe notamment « une baisse en français de 4 points, quels que soient les secteurs » en 6e, a ajouté Fabienne Rosenwald, directrice de la Depp, l’agence des statistiques du ministère.
Toujours en 6e, en mathématiques, « la part des élèves en difficulté a augmenté un peu cette année et donc tout l’enjeu est de réduire l’écart », tout en « continuant à générer des élèves excellents », selon M. Geffray.

Pas de démocratie sans évaluation des politiques publiques

Pas de démocratie sans évaluation des  politiques publiques 

Les études visant à mesurer l’impact réel d’une loi à partir de données et de méthodes scientifiques sont toujours plus fréquentes, relève le politiste Adam Baïz, Economiste (PhD) et enseignant à Sciences Po, qui souligne, dans une tribune au « Monde », leur importance pour le débat démocratique.

 

Un point de vue intéressant sur un sujet médiatiquement très peu abordé pourtant essentiel pour la démocratie. Reste qu’il manque le deuxième volet important : l’évaluation d’une politique publique après sa mise en œuvre  voire out au long de son application. L’absence d’évaluation ouvre en effet la porte à toutes les démagogies. NDLR

Evaluer une politique publique, c’est porter une appréciation sur son impact, à partir de données et de méthodes scientifiques. Il peut s’agir d’évaluer l’impact d’une campagne de vaccination sur la santé publique, l’impact d’une réforme fiscale sur le pouvoir d’achat, ou encore l’impact du dédoublement des classes sur le niveau scolaire des élèves.

L’évaluation des politiques publiques a véritablement démarré en France dans les années 2000, soit quarante ans après les Etats-Unis. Elle se développe rapidement. Mais sert-elle vraiment à éclairer la décision politique ?

Afin d’en juger, nous avons étudié (« Quelles évaluations des politiques publiques pour quelles utilisations ? », Adam Baïz et al., France Stratégie, juin 2022) 262 lois votées entre 2008 et 2020, dans des domaines aussi variés que la santé, l’éducation, les finances ou encore la sécurité. Et nous avons cherché à savoir si le Parlement et le gouvernement mobilisent vraiment les évaluations de politique publique en amont et en aval du vote de la loi

En amont du vote de la loi, le Parlement et dans une moindre mesure le gouvernement mobilisent bel et bien un nombre croissant d’évaluations de politique publique. Pour chaque loi, ils citent huit évaluations en 2008, et près de 25 en 2020. Il s’agit pour l’essentiel de rapports d’institutions publiques (Insee, ministères, Cour des comptes, etc.), de rapports parlementaires et de rapports d’experts et de chercheurs.

Ces rapports éclairent diversement les débats parlementaires, en fournissant de l’expertise sur des politiques comparables, des retours du terrain ou encore des expériences internationales. Rares sont les lois pour lesquelles aucune évaluation n’est citée ; à l’inverse pour certaines lois, comme la loi d’orientation des mobilités de 2019, plus de 100 évaluations sont citées dans les débats parlementaires.

Projets: Une évaluation multicritères

« Impact » : Pour la prise en compte socio-économico-environnemental

Le terme « impact » est entré dans le vocabulaire de tous les dirigeants, publics comme privés, du secteur de la finance, d’entreprises traditionnelles, comme du secteur de l’Économie sociale et solidaire. Mais alors que tous se réclament de l’impact, il est un piège à éviter : l’impact washing, qui, à juste titre, ne génèrerait que défiance. Par Julie de Brux, Associée et Fondatrice de Citizing.(la Tribune)

Dès lors, comment mesurer l’impact et comment éviter la cacophonie qui serait liée à des méthodes hétérogènes, rendant les résultats non comparables et non crédibles ? Après les publications de notes extra-financières flamboyantes de grandes entreprises polluantes, le temps est venu de ne plus confondre impact et RSE.

Pour évaluer l’opportunité de financer des projets publics, L’État estime la quantité et la valeur des impacts économiques, sociaux et environnementaux de ses investissements. C’est même une obligation réglementaire pour les projets de l’État de plus de 20 millions d’euros, avec une contre-expertise de l’évaluation, pilotée par le Secrétariat Général pour l’Investissement (SGPI), lorsque les investissements excèdent 100 millions d’euros (loi n°2012-1558 et décret n°2013-1211 du 23 décembre 2013 relatif à la procédure d’évaluation des investissements publics).

Dans un souci de bonne allocation des deniers publics, il importe donc de savoir si un projet a des chances de créer suffisamment d’impact positif pour la société et la planète pour justifier la dépense.

Sous forme d’une analyse coûts-bénéfices, elle permet de comparer l’ensemble des coûts (d’investissement, d’exploitation, mais aussi les éventuels coûts environnementaux ou sociaux) avec l’ensemble des bénéfices (sociaux, environnementaux, sanitaires, etc.) d’une opération. Ces coûts et bénéfices, ou impacts positifs et négatifs doivent, pour être comparés, être exprimés dans une unité commune, c’est l’unité monétaire. Cet exercice est appelé la monétarisation.

Autre particularité de l’évaluation socio-économico-environnementale : elle nécessite d’estimer l’impact additionnel, c’est-à-dire l’ampleur du différentiel d’impact entre une situation sans projet et une situation avec projet.

In fine, lorsque les impacts différentiels, positifs comme négatifs, sont monétarisés, on peut calculer des indicateurs qui parlent à Bercy et aux financiers : un ROI, ou retour sur investissement, mais pas un ROI financier, un ROI socio-économico-environnemental, que certains appellent le SROI (pour social return on investment). Car entre l’argument « il faut financer l’équipement, car le besoin est important » et l’argument selon lequel « pour chaque euro investi dans l’équipement, 8€ de valeur sociale et environnementale sont susceptibles d’être créés », le deuxième apparait comme bien plus convaincant pour un décideur pragmatique.

Cette approche, reconnue académiquement et internationalement (elle est pratiquée par toutes les banques multilatérales de développement), a tout pour séduire. Pratiquée depuis les années 70, elle a toutefois longtemps été cantonnée dans sa mise en œuvre aux infrastructures de transports et dans une moindre mesure de l’énergie. Une génération de socio-économistes a manqué à l’appel pour la faire véritablement progresser. Cela a notamment conduit à continuer de considérer que la valeur du gain de temps permis par un trajet en voiture était identique à la valeur du gain de temps en train, alors qu’il est évident (outre l’impact environnemental, qui distingue ces deux modes de transports, et qui est bien entendu pris en compte dans l’évaluation), que le temps de trajet en train peut être nettement mieux mis à profit que le temps de conduite, et qu’il génère donc plus d’impact positif.

Depuis le décret de 2013 qui a rendu l’évaluation socio-économico-environnementale et sa contre-expertise obligatoires, ce retard tend à être rattrapé, avec un effort tout particulier du comité d’experts des méthodes d’évaluation et des différents groupes de travail de France Stratégie qui ont actualisé la valeur à attribuer à la tonne de carbone pour se conformer à la trajectoire +2 degrés ; qui ont proposé une valeur des diplômes, encourageant de facto les investissements en capital humain ; plus récemment encore, qui ont progressé sur la façon de prendre en compte et d’évaluer les effets de santé et les opérations globales d’aménagement urbain. Les évaluateurs disposent désormais d’un corpus important, clair et transparent pour évaluer, c’est-à-dire quantifier et valoriser, les impacts pour la société et la planète de bon nombre d’investissements.

Un nombre croissant d’acteurs du secteur privé a désormais recours au calcul de ce fameux SROI.  La fédération des travaux publics par exemple, qui depuis cinq ans, attribue des prix à des collectivités pour leurs investissements à impact, ou encore la fédération des associations de protection juridique des majeurs (tutelles et curatelles), qui a ainsi réussi à convaincre les pouvoirs publics de moins rationner leurs financements en faisant la preuve par l’euro que s’ils n’existaient plus, le coût économique et social serait bien supérieur à leur budget de fonctionnement. Le monde de la finance, et spécifiquement de la finance d’impact, regarde aussi bien entendu cette méthode de près, avec des fonds d’investissement qui ont fait calculer l’effet de levier de leurs investissements en matière d’impact.

Ils sont ainsi quelques audacieux à considérer que pour ne pas être juge et partie, l’évaluateur ne doit pas être une partie prenante interne de l’entreprise. A accepter de prendre le risque de trouver un ROI d’impact inférieur à 1. A préférer les méthodes reconnues académiquement et internationalement aux méthodes prétendument innovantes et dites sur-mesure. A avoir compris, enfin, qu’au même titre qu’une due diligence financière ne se faisait pas en un claquement de doigts, la due diligence d’impact requiert d’y consacrer un peu de temps.

Si les audacieux se multipliaient, on verrait surement le risque d’impact washing s’éloigner un peu. Et lorsque l’impact sera pris en compte dans la valorisation des entreprises au même titre que leur rentabilité financière, alors les entreprises à vocation sociale et environnementale pourront concurrencer les futiles licornes auprès des investisseurs, et la finance durable ne sera plus uniquement un concept marketing.

Sondage Débat Macron-Le Pen : Évaluation plus serrée mais toujours aussi nulle

 Sondage Débat Macron-Le Pen : Évaluation plus serrée mais toujours aussi nulle

 

 Indiscutablement d’après la presse des financiers, Macron a remporté sans discussion le débat face à une Le Pen effectivement très insuffisante même si elle est en léger progrès. L’évaluation de ces débats est plus serrée qu’en 2017. Mais il faut tenir compte que seulement 15 millions de personnes ont suivi la confrontation. Autant dire que la grande majorité des Français n’attendait pas grand-chose du débat pas plus d’ailleurs sans doute que de l’élection ; les abstentionnistes et les non-inscrits vont constituer nettement le parti majoritaire en France.

D’après une enquête Odoxa-Backbone Consulting pour Le Figaro, Emmanuel Macron remporte le duel de l’entre-deux-tours d’une très courte tête : il a convaincu 56% des sondés, contre 72% en 2017.Un sondage qui porte cependant sur une audience assez faible et qui forcément ne tient pas compte de ceux qui n’ont pas regardé la télévision.

Pas de vainqueur par KO. C’est le principal enseignement tiré par l’institut Odoxa et Backbone Consulting après une enquête réalisée pour Le Figaro à l’issue du débat de l’entre-deux-tours. Selon le sondage, Emmanuel Macron est, d’une courte tête, le candidat qui s’est montré le plus convaincant aux yeux des Français mercredi soir. Près d’un tiers d’entre eux partage cet avis (30%) contre 23% pour Marine Le Pen, tandis que près d’un Français sur deux (47%) ne distingue aucun gagnant ou a ignoré le débat. Le président sortant ne devance son adversaire que de 7%, alors que l’écart était de près de 30 points en 2017.

À

Si on se concentre sur les Français ayant choisi entre l’un ou l’autre des deux candidats, 56% estiment que le président candidat a été le plus convaincant, contre 44% pour Marine Le Pen. Il y a cinq ans, le même sondage réalisé à l’issue du débat d’entre-deux-tours donnait le candidat En Marche vainqueur à 72%, contre 28% pour la candidate RN. Dans le détail des treize grands thèmes abordés lors du débat, le match s’avère encore plus serré : en moyenne, 48% des Français jugent qu’Emmanuel Macron a été le plus convaincant, contre 47% qui donnent l’avantage à Marine Le Pen.

 

Les domaines dans lesquels le président sortant a pris le dessus sont la place de la France à l’international (62%), la manière de gouverner et le fonctionnement des institutions (57%), ainsi que la croissance et la compétitivité de l’économie (55%). La candidate RN s’est en revanche montrée meilleure aux yeux des sondés sur les questions liées à l’immigration (57%), la sécurité (57%), les retraites (56%) et le pouvoir d’achat (54%).

 

Sur le fond, c’est Emmanuel Macron qui l’a emporté : 62% des Français qui ont regardé le débat estiment qu’il a montré qu’il maîtrisait le plus ses dossiers, 61% jugent qu’il a le plus montré la stature d’un président et 57% trouvent qu’il a plus montré qu’il savait où il allait. En revanche, sur la forme, c’est Marine Le Pen qui a davantage gardé son sang-froid aux yeux des Français : 57% estiment qu’elle a été la plus calme et qu’elle s’est le mieux maîtrisée.

 

Parmi les électeurs ayant voté pour un autre candidat au premier tour, ceux de Fabien Roussel, Anne Hidalgo, Yannick Jadot ont été les plus convaincus par la performance d’Emmanuel Macron (40% contre 10% pour Marine Le Pen), suivis par les électeurs de Valérie Pécresse (36% contre 16%). Côté Marine Le Pen, 52% des électeurs d’Eric Zemmour ont jugé qu’elle était la plus convaincante. Ils ne sont que 7% à avoir préféré la prestation du président candidat. Les électeurs insoumis, qui disposent d’un rôle clé pour le second tour, sont plus partagés : 29% ont trouvé Emmanuel Macron plus convaincant, contre 21% pour Marine Le Pen.

Les sondés se sont montrés relativement satisfaits de ce débat d’entre-deux-tours. Près de 6 sur 10 estiment qu’il a abordé les principales préoccupations des Français (66%) et l’ont trouvé intéressant (58%). Pour autant, 3 électeurs sur 4 (76%) affirment qu’il ne changera pas l’issue de leur vote.

Enseignement supérieur : pour une évaluation impartiale

Enseignement supérieur : pour une évaluation impartiale

 

Certains médias ou organismes se montrent peu regardants sur la qualité des données transmises par les établissements qu’ils classent, et se muent parfois en consultants pour les aider à être mieux placés, analysent, dans une tribune au « Monde », les chercheurs Vincent Iehlé et Julien Jacqmin, qui appellent à la création d’une institution de contrôle impartiale.

 

Tribune. 

Deux récents évènements ont eu un effet retentissant dans l’enseignement supérieur américain. Début mars, l’ancien doyen de l’école de commerce de Temple University a été condamné à quatorze mois de prison et à une amende de 250 000 dollars. Il a été reconnu coupable d’avoir falsifié les données transmises au très influent média, outre-Atlantique, U.S. News & World Report dans l’optique d’améliorer le classement de son programme MBA.

Quelques jours plus tard, Michael Thaddeus, professeur et ancien directeur du département de mathématiques de la prestigieuse Columbia University, a décortiqué la fabuleuse « remontada » de son institution qui, en quelques années, est passée de la 18e à la 2e place du classement des universités publié par ce même journal. Dans un document disponible sur son site Internet personnel, il explique de manière minutieuse, indicateur par indicateur, comment son université a systématiquement embelli les données fournies au journal en vue de manipuler le classement final en sa faveur.

Certes, ces deux évènements qui affectent l’enseignement supérieur aux Etats-Unis peuvent nous paraître lointains d’un point de vue géographique et institutionnel, d’autant que les classements publiés par U.S. News & World Report n’ont une influence que très marginale en Europe. Toutefois, cette dépendance en matière d’accès aux données, nécessaires à la construction des classements, est également omniprésente pour les classements en France.

Par exemple, pour le calcul du Times Higher Education World University Rankings, le magazine [britannique] Times Higher Education se base sur des données provenant des établissements concernant le nombre d’étudiants par professeur ou les recettes financières issues de mécénat privé.

Pour le QS World University Rankings, Quacquarelli Symonds [société d’information et de conseil sur l’enseignement supérieur] se base sur des enquêtes pour déterminer les établissements les plus prestigieux dans chaque discipline. Elles sont effectuées auprès de collaborateurs proposés directement par les universitaires eux-mêmes, à la demande de Quacquarelli Symonds.

Plus proche de nous, en France, le magazine L’Etudiant recueille des informations liées notamment à la part d’enseignants-chercheurs parmi les intervenants ou au nombre d’articles scientifiques publiés au sein des institutions afin d’établir ses classements des écoles de commerce ou d’ingénieurs. C’est également en partie le cas pour les classements effectués par d’autres médias tels Le PointLe FigaroL’Express ou Challenges.

I

Crise ukrainienne et croissance française : une évaluation au doigt mouillé de l’INSEE

Crise ukrainienne et croissance française : une évaluation au doigt mouillé de l’INSEE

 

La bataille des instituts proches du gouvernement est lancée pour minimiser les conséquences économiques de la crise ukrainienne notamment en matière d’inflation et de croissance. Ainsi c’est au doigt mouillé que l’INSEE, après la Banque de France, s’efforce de convaincre que les conséquences seront assez faibles pour la France et même plus faibles que pour la plupart des autres pays européens. Ainsi initialement le gouvernement avait retenu une prévision de croissance de 4 %. L’INSEE considère que la guerre en Ukraine va abaisser la croissance d’un pour cent.L’enjeu évidemment est de convaincre du contrôle de l’inflation afin de ne pas provoquer un réajustement des revenus, des salaires et autres pensions.

L’Insee maintient ainsi sa prévision d’une croissance de 0,3% du PIB au premier trimestre, malgré le choc de guerre en Ukraine et la hausse des prix. En février, le glissement sur un an des prix à la consommation a atteint 3,6%. «Il aurait été de l’ordre de 5% sans le ‘‘bouclier tarifaire’’ sur les tarifs réglementés de vente du gaz et de l’électricité», précise l’institut statistique. En mars, dans un scénario où le pétrole se stabiliserait autour de 125 dollars le baril, l’inflation dépasserait 4% sur un an, l’explosion des prix de l’énergie expliquant la moitié de la hausse. D’avril à juin, elle pourrait culminer à 4,5%.

L’inflation rogne le pouvoir d’achat des ménages qui baisserait de 1,4% au premier trimestre, mais cela ne provoquera qu’un un recul de 0,5% de la consommation selon l’institut !

Les enquêtes de conjoncture, réalisées entre le 25 février et le 14 mars, dévoilent cependant une baisse de 20 points des soldes d’opinion des patrons sur les perspectives générales et personnelles d’activité dans l’industrie, particulièrement marqué dans le secteur du transport.

La croissance sera, bien sûr, affectée par la guerre en Ukraine. «Si les prix des importations d’énergie se maintiennent au niveau de début mars, un tel renchérissement des matières premières affecterait le PIB français d’environ un point en 2022», a détaillé Olivier Simon, chef de la division synthèse conjoncturelle de l’Insee. Le gouvernement table toujours sur une croissance de 4%. La Banque de France s’est avancée dimanche sur un chiffre de progression du PIB de 2,8% sur l’année, dans un scénario où les prix resteraient durablement élevés.

 

Environnement–Déforestation : pour une vraie évaluation globale

Environnement–Déforestation : pour une vraie évaluation globale

 

Pour l’économiste Alain Karsenty, l’évaluation de la qualité des politiques publiques de lutte contre la déforestation doit primer sur la rémunération des Etats.

 

Tribune.

 

Dans les pays du Sud, la croissance démographique conjuguée à la faible croissance des rendements agricoles crée des pressions sur les écosystèmes. L’augmentation de la demande internationale de produits agricoles et celle, émergente, de biocarburants, se rajoutent aux dynamiques internes pour engendrer une déforestation massive. Avec en moyenne 10 millions d’hectares perdus chaque année, soit quelque 14 % des émissions de CO2 liées aux activités humaines, la déforestation est principalement concentrée dans les pays en développement. Si elle tend à se ralentir en Asie, elle s’accroît en Afrique et augmente à nouveau depuis 2015 en Amazonie brésilienne, après une décennie de baisse sensible.

Environ un tiers de la déforestation est lié au commerce international, ce qui montre toute l’importance de réduire la déforestation importée dans les biens que nous consommons. Mais la population s’accroît dans les pays tropicaux et les modèles de consommation se rapprochent de ceux des pays industrialisés. Les politiques qui seront adoptées par ces pays seront donc décisives pour parvenir, à terme, à arrêter la déforestation.

 

Les forêts ne sont pas des biens publics mondiaux ou des communs globaux. On doit distinguer les ressources qu’elles abritent (bois, foncier, ressources génétiques, etc.) des services écosystémiques qu’elles fournissent (puits et stock de carbone, réservoir de biodiversité, régulation hydrique, cycle des pluies, etc.). Les ressources relèvent de la souveraineté des Etats et les acteurs publics ou privés − dont des communautés − disposent sur celles-ci de divers droits de propriété. Seuls les services peuvent être considérés comme des biens publics mondiaux, dont le maintien dépend des modes de gestion de ces ressources.

Dès lors, faut-il que la « communauté internationale » rémunère les pays forestiers tropicaux pour les services que les écosystèmes rendent à l’humanité ? Cette demande est souvent formulée par des responsables politiques des pays concernés, qui mettent en avant le manque à gagner que représenterait la conservation des forêts au lieu d’organiser leur conversion à des activités agricoles et minières. Le mécanisme international REDD+ (pour réduction des émissions liées à la déforestation et à la dégradation), potentiellement lié à un marché international des réductions d’émissions de gaz à effet de serre − le « marché carbone » − a été instauré sous l’égide de l’Organisationn des Nations unies en écho à ces demandes. Il se veut être un programme de « paiement aux résultats ». Les rémunérations prévues ne visent toutefois pas à « payer pour les services rendus par les écosystèmes », mais à rémunérer les pays pour leurs efforts de conservation des forêts par des politiques et des mesures débouchant sur des résultats − essentiellement la baisse de la déforestation.

La différence n’est pas mince. La prendre au sérieux suppose que les payeurs potentiels (les pays industrialisés) ne se contentent pas d’un « résultat », qui peut parfois n’être qu’une hausse de la déforestation moindre qu’anticipée, mais qu’ils établissent les relations de cause à effet entre le résultat constaté et les politiques publiques mises en œuvre pour l’obtenir. Si la baisse de la déforestation est liée à la baisse du prix de l’huile de palme ou du soja, est-il judicieux de « récompenser » un pays ? Il est pour le moins singulier que le Fonds vert pour le climat ait rémunéré en 2019 le Brésil pour une déforestation moindre qu’en 2014-2015, alors que la politique vis-à-vis de la forêt a radicalement changé depuis l’avènement de Bolsonaro.

 

S’interroger sur la façon dont les résultats sont produits veut dire aussi ne pas se contenter de laisser les pays « faire le job » pour pouvoir les payer ensuite, mais investir massivement à leurs côtés afin de pouvoir maîtriser les causes directes et indirectes de la déforestation.

La priorité est de construire un agenda commun entre lutte contre la déforestation et sécurité alimentaire. Sans cela, non seulement les gouvernements du Sud n’entreront pas dans des logiques de coconstruction, mais les politiques environnementales et agricoles continueront d’être antagonistes.

Qualité et cohérence

Une intensification écologique passant par de l’agroécologie, des associations cultures-élevage et de l’agroforesterie, devrait devenir la priorité des politiques publiques.

L’investissement doit aussi viser la clarification et la sécurisation des droits fonciers, non seulement pour protéger les communautés contre les accaparements de terres, mais aussi pour créer les conditions de long terme propices à la plantation d’arbres. Il est également essentiel de financer des politiques favorisant la transition démographique, notamment en Afrique, en mettant l’accent sur l’éducation des filles et l’autonomie économique des femmes.

Déforestation : pour une vraie évaluation globale

Déforestation : pour une vraie évaluation globale

 

Pour l’économiste Alain Karsenty, l’évaluation de la qualité des politiques publiques de lutte contre la déforestation doit primer sur la rémunération des Etats.

 

Tribune.

 

Dans les pays du Sud, la croissance démographique conjuguée à la faible croissance des rendements agricoles crée des pressions sur les écosystèmes. L’augmentation de la demande internationale de produits agricoles et celle, émergente, de biocarburants, se rajoutent aux dynamiques internes pour engendrer une déforestation massive. Avec en moyenne 10 millions d’hectares perdus chaque année, soit quelque 14 % des émissions de CO2 liées aux activités humaines, la déforestation est principalement concentrée dans les pays en développement. Si elle tend à se ralentir en Asie, elle s’accroît en Afrique et augmente à nouveau depuis 2015 en Amazonie brésilienne, après une décennie de baisse sensible.

Environ un tiers de la déforestation est lié au commerce international, ce qui montre toute l’importance de réduire la déforestation importée dans les biens que nous consommons. Mais la population s’accroît dans les pays tropicaux et les modèles de consommation se rapprochent de ceux des pays industrialisés. Les politiques qui seront adoptées par ces pays seront donc décisives pour parvenir, à terme, à arrêter la déforestation.

 

Les forêts ne sont pas des biens publics mondiaux ou des communs globaux. On doit distinguer les ressources qu’elles abritent (bois, foncier, ressources génétiques, etc.) des services écosystémiques qu’elles fournissent (puits et stock de carbone, réservoir de biodiversité, régulation hydrique, cycle des pluies, etc.). Les ressources relèvent de la souveraineté des Etats et les acteurs publics ou privés − dont des communautés − disposent sur celles-ci de divers droits de propriété. Seuls les services peuvent être considérés comme des biens publics mondiaux, dont le maintien dépend des modes de gestion de ces ressources.

Dès lors, faut-il que la « communauté internationale » rémunère les pays forestiers tropicaux pour les services que les écosystèmes rendent à l’humanité ? Cette demande est souvent formulée par des responsables politiques des pays concernés, qui mettent en avant le manque à gagner que représenterait la conservation des forêts au lieu d’organiser leur conversion à des activités agricoles et minières. Le mécanisme international REDD+ (pour réduction des émissions liées à la déforestation et à la dégradation), potentiellement lié à un marché international des réductions d’émissions de gaz à effet de serre − le « marché carbone » − a été instauré sous l’égide de l’Organisationn des Nations unies en écho à ces demandes. Il se veut être un programme de « paiement aux résultats ». Les rémunérations prévues ne visent toutefois pas à « payer pour les services rendus par les écosystèmes », mais à rémunérer les pays pour leurs efforts de conservation des forêts par des politiques et des mesures débouchant sur des résultats − essentiellement la baisse de la déforestation.

La différence n’est pas mince. La prendre au sérieux suppose que les payeurs potentiels (les pays industrialisés) ne se contentent pas d’un « résultat », qui peut parfois n’être qu’une hausse de la déforestation moindre qu’anticipée, mais qu’ils établissent les relations de cause à effet entre le résultat constaté et les politiques publiques mises en œuvre pour l’obtenir. Si la baisse de la déforestation est liée à la baisse du prix de l’huile de palme ou du soja, est-il judicieux de « récompenser » un pays ? Il est pour le moins singulier que le Fonds vert pour le climat ait rémunéré en 2019 le Brésil pour une déforestation moindre qu’en 2014-2015, alors que la politique vis-à-vis de la forêt a radicalement changé depuis l’avènement de Bolsonaro.

 

S’interroger sur la façon dont les résultats sont produits veut dire aussi ne pas se contenter de laisser les pays « faire le job » pour pouvoir les payer ensuite, mais investir massivement à leurs côtés afin de pouvoir maîtriser les causes directes et indirectes de la déforestation.

La priorité est de construire un agenda commun entre lutte contre la déforestation et sécurité alimentaire. Sans cela, non seulement les gouvernements du Sud n’entreront pas dans des logiques de coconstruction, mais les politiques environnementales et agricoles continueront d’être antagonistes.

Qualité et cohérence

Une intensification écologique passant par de l’agroécologie, des associations cultures-élevage et de l’agroforesterie, devrait devenir la priorité des politiques publiques.

L’investissement doit aussi viser la clarification et la sécurisation des droits fonciers, non seulement pour protéger les communautés contre les accaparements de terres, mais aussi pour créer les conditions de long terme propices à la plantation d’arbres. Il est également essentiel de financer des politiques favorisant la transition démographique, notamment en Afrique, en mettant l’accent sur l’éducation des filles et l’autonomie économique des femmes.

Finances -Quoi qu’il en coûte : une évaluation approximative

Finances -Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Finances- Quoi qu’il en coûte : une évaluation approximative

Finances- Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Quoi qu’il en coûte : une évaluation approximative

Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Parcoursup : «La mise en cause d’une évaluation par un unique algorithme

Parcoursup : «La mise en cause d’une évaluation par un unique algorithme 

 

Outre le caractère injuste et déshumanisant de voir confier à l’intelligence artificielle l’orientation des bacheliers, Virginie Calmels, présidente de Futurae, souligne, dans une tribune au « Monde », le danger d’une fuite des talents à l’étranger. Aussi préconise-t-elle d’introduire un entretien afin d’évaluer les qualités et les motivations des élèves. (extrait)

 

Tribune.

Parcoursup laisse-t-il vraiment le choix de leur avenir aux milliers de jeunes inscrits sur la plate-forme ? « Dans la liste d’appel »« dans la liste d’attente »« oui si »« oui – en attente d’une place » … Voici quelques-unes des réponses reçues par les lycéens lors du rendu des premières propositions d’orientation. Elles ont de quoi décourager… même les plus motivés.

En effet, comment expliquer à un lycéen que ce n’est pas sa motivation, ses qualités ou ses aptitudes, mais plutôt un algorithme qui décidera de son avenir ? Aurions-nous l’idée d’appliquer le même système dans un quelconque autre segment de notre vie ? Laisserions-nous une intelligence artificielle décider des entreprises où candidater, de la ville où déménager, du talent à embaucher ? C’est peu probable. D’autant que cette méthode de sélection est considérée comme particulièrement injuste, car ayant introduit des biais permettant de privilégier certaines catégories d’élèves au détriment d’autres.


Les étudiants eux-mêmes élèvent leurs voix contre les iniquités constatées : comment expliquer que des élèves avec d’excellents résultats se retrouvent refusés dans tous leurs vœux favoris, à l’instar de Samuel Dana refusé de toutes les classes préparatoires dans Parcoursup alors qu’il affichait une moyenne en maths en terminale de 18,5/20 et un QI de 152 lui ayant permis de sauter la classe de 1re, mais consécutivement et malheureusement ne lui ayant donc pas permis de fournir les bulletins de 1re exigés par le système ?

 

Les implications d’une telle faille sont évidentes : elles éloignent de l’objectif d’orientation et de méritocratie, fondements de notre système éducatif. Mais alors, pourquoi faire subir ce système de sélection aléatoire à des centaines de milliers de jeunes ? Jamais, que ce soit dans leur vie personnelle ou professionnelle, ils ne seront à nouveau confrontés à une telle loterie.

Et pour cause… Dans le monde professionnel, par exemple, quelle entreprise oserait recruter un talent sans jamais l’avoir rencontré ? La sélection passe quasi systématiquement par un entretien, seule étape vraiment à même d’évaluer de manière équitable les aptitudes et qualités d’un candidat dans leur ensemble. Car, au-delà des résultats scolaires, n’est-ce pas aussi la motivation, le savoir être, les passions, la personnalité qui sont pris en compte dans la vie réelle ?


En persévérant dans un tel système déshumanisé, l’enseignement s’expose à un autre risque : celui de la fuite des talents. Devant des résultats aléatoires, un algorithme peut décourager les élèves, même les meilleurs. Ces derniers font parfois le choix de se tourner directement vers l’étranger, exposant ainsi la France à une fuite regrettable de ses jeunes les plus motivés.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol