Archive pour le Tag 'évaluation'

Contre l’obsolescence programmée mettre en place une évaluation de la réparabilité

Contre l’obsolescence programmée mettre en place une véritable de la réparabilité


L’indice de réparabilité, c’est quoi et pourquoi ? Par Nicolas Roisin, Université catholique de Louvain (UCLouvain); Jean-Pierre Raskin, Université catholique de Louvain (UCLouvain); Sébastien Toussaint, Université catholique de Louvain (UCLouvain) et Valerie Swaen, Université catholique de Louvain (UCLouvain) dan
s the conversation

L’initiative française d’indice de réparabilité déployé le 1ᵉʳ janvier 2021 entend répondre à ces défis en sensibilisant les consommateurs à la réparation et en incitant les fabricants à l’écoconception.

Affiché sur les produits, l’indice prend la forme d’une note sur 10 et d’un pictogramme coloré dépendant du score obtenu – rouge pour les équipements ayant une note inférieure ou égale à 1,9 ; orange, jaune, vert clair et vert foncé, jusque 3,9, 5,9, 7,9 et 10, respectivement.

Afin de calculer cet indice, cinq critères sont utilisés : la disponibilité de la documentation technique ; la démontabilité et accès, outils, fixations ; la disponibilité des pièces détachées ; le prix des pièces détachées ; et des critères spécifiques à la catégorie du produit.

En mai 2022, nous avons analysé les scores de plus de 700 équipements électroniques dans trois catégories de produits : les téléviseurs, les smartphones et les ordinateurs portables, qui sont les appareils électroniques avec le potentiel de réparabilité le plus important comparé, par exemple, aux lave-linge qui atteignent un bien meilleur taux de réparation – bien qu’améliorable également. Les données (prix de vente, marque, modèle, indice de réparabilité, score de chaque critère et sous-critère) ont été récoltées à partir du site Internet de la société Darty.

Cette analyse nous a permis de constater que, malgré l’obligation depuis le 1er janvier 2021 de rendre disponible le score lors de la vente de l’équipement, certaines marques n’ont pas encore fourni celui de leurs produits, et que certains arborent un score unique pour toute la gamme de produits. La grille de calcul de score est ainsi remplie de façon globale sans inclure les spécificités de chaque bien, ce qui pose question compte tenu de la faible standardisation des pièces détachées.

La majorité des scores obtenus par les marques pour leurs différents produits sont en outre supérieurs à 5, ce qui montre un manque d’efficacité dans l’utilisation de l’échelle complète et de sanction en cas de mauvais score sur un ou plusieurs critères. L’utilisation d’une moyenne arithmétique pour calculer l’indice final conduit en effet à ce que de bons scores sur certains critères compensent les mauvais scores sur d’autres.

Les smartphones et ordinateurs portables obtiennent ainsi de bons indices de réparabilité malgré la faible disponibilité des pièces détachées, qui rend souvent leur réparation impossible.

À ce jour, la politique en matière de pièces détachées est un élément clé dans la réparation des appareils défectueux : les grandes disparités observées dans les scores finaux des appareils proviennent en premier lieu de la politique des marques en matière de pièces détachées.

Une documentation claire et accessible, indispensable aux réparateurs, est par ailleurs encore trop souvent difficile à obtenir auprès de certaines marques. La pédagogie dans le milieu de la réparation est majoritairement le fait des particuliers et du monde associatif.

Il est enfin essentiel que les fabricants réduisent au maximum l’usage de colle et soudure dans leurs produits, principaux freins à la démontabilité des objets. Plus généralement, la miniaturisation et la compacité du design de ces équipements complexifient le processus de réparation.

D’après un rapport de l’association Halte à l’obsolescence programmée, d’autres obstacles ne sont pas pris en compte dans l’indice, tels que la sérialisation et la compatibilité des pièces détachées. Les réparateurs indépendants ont par exemple constaté une hausse des pièces irremplaçables car associées à un appareil spécifique via leur numéro de série.

Soyons clairs, l’affichage de l’indice de réparabilité représente un réel progrès pour améliorer nos habitudes de consommation. Des améliorations sont néanmoins possibles en matière de calcul, de transparence, et de contrôle de l’indice, afin d’augmenter son impact.

Comme l’illustrent nos analyses, la grille actuelle ne permet pas d’identifier strictement les produits difficilement réparables, puisqu’un indice assez élevé peut être obtenu par un équipement électronique qui dispose d’une lacune forte en la matière.

D’autres méthodes de calcul pourraient être utilisées, comme une moyenne géométrique afin qu’une note proche de zéro sur un critère réduise considérablement le score final de l’indice. Cette solution aurait le mérite de pousser les fabricants à avoir des scores corrects sur tous les critères, et le score refléterait mieux la réparabilité « réelle » de l’équipement.

Un second élément concerne la transparence du processus d’encodage des scores des différents critères. Les constructeurs adoptent des pratiques différentes, certains rapportant une même note pour une gamme de produits, alors que d’autres fixent une note spécifique par produit.

Il semble donc nécessaire que les fabricants fournissent en toute transparence la grille de calcul complète et détaillée ainsi que les engagements sur lesquels ils ont fondé leurs calculs – en particulier les périodes de disponibilité de leurs pièces et leurs conditions d’accès. Cela les obligerait à remplir avec sérieux cette liste et permettrait aux autres acteurs (publics et privés) d’être critiques par rapport aux notes obtenues par les appareils.

Notons enfin qu’un véritable contrôle de l’indice de réparabilité par le marché est difficilement réalisable. Certaines informations sont peu accessibles ; les engagements sur la disponibilité des pièces de rechange dans le temps ne sont presque jamais spécifiés ; les catalogues de pièces détachées sont rarement disponibles.

Et la vérification des déclarations des fabricants (par exemple concernant l’accès aux pièces détachées) requiert des interactions avec l’ensemble des acteurs concernés.

L’indice de réparabilité implique en effet une pluralité d’acteurs : il guide à la fois les fabricants dans leurs choix de design, les réparateurs dans l’anticipation des étapes clés de leurs réparations et les acheteurs dans leur souhait d’adopter une consommation responsable et durable. Dans cette optique, la charge de construire l’indice ne peut incomber uniquement aux fabricants et doit donner lieu à des discussions avec les parties prenantes.

L’indice associé à un produit ne devrait en outre pas être une grandeur statique établie de manière définitive à la sortie d’usine – la 1re étape de son cycle de vie où, par ailleurs, sa réparabilité n’a pas été formellement testée par des consommateurs ou des réparateurs – mais une grandeur adaptative établie à différents stades.

Une telle définition responsabilisant les réparateurs et les consommateurs en plus des fabricants contribuerait à ce que l’indice de réparabilité ne soit plus perçu par ces derniers comme une contrainte, mais bien comme un outil alimentant une analyse réflexive sur la conception de leurs produits.

Évaluation du nouveau scolaire : Nouvelle chute en français


Évaluation du nouveau scolaire : Nouvelle chute en français

Évaluation après évaluation -y compris au plan international- le niveau scolaire en France ne cesse de se dégrader. Même le ministère de l’éducation en fait la constatation.
On observe en effet encore cette année un « tassement » des résultats en français en CE1 et 6e, « lié à la crise sanitaire », et un creusement des inégalités en mathématiques à l’arrivée au collège, selon le ministère de l’Éducation.

Cette année, « on constate un tassement des résultats en français en CE1 et en 6e, très probablement lié à la crise sanitaire, avec les mois de janvier et février 2022 très perturbés dans les écoles, avec des absences d’élèves et d’enseignants », a expliqué pudiquement Edouard Geffray, directeur général de l’enseignement scolaire (Dgesco), lors d’une conférence de presse.
Les résultats en français des élèves de CE1 sont en baisse dans plusieurs domaines par rapport à 2021, notamment en écriture de mots, lecture à voix haute ou compréhension des phrases et des textes.

Le score moyen par élève passe de 260,8 points en 2021 à 256,5. La part des élèves dans les bas niveaux passe de 22,4% à 27,1%, tandis qu’elle baisse dans les hauts niveaux (de 36,7% à 33,8%).
On observe notamment « une baisse en français de 4 points, quels que soient les secteurs » en 6e, a ajouté Fabienne Rosenwald, directrice de la Depp, l’agence des statistiques du ministère.
Toujours en 6e, en mathématiques, « la part des élèves en difficulté a augmenté un peu cette année et donc tout l’enjeu est de réduire l’écart », tout en « continuant à générer des élèves excellents », selon M. Geffray.

Pas de démocratie sans évaluation des politiques publiques

Pas de démocratie sans évaluation des  politiques publiques 

Les études visant à mesurer l’impact réel d’une loi à partir de données et de méthodes scientifiques sont toujours plus fréquentes, relève le politiste Adam Baïz, Economiste (PhD) et enseignant à Sciences Po, qui souligne, dans une tribune au « Monde », leur importance pour le débat démocratique.

 

Un point de vue intéressant sur un sujet médiatiquement très peu abordé pourtant essentiel pour la démocratie. Reste qu’il manque le deuxième volet important : l’évaluation d’une politique publique après sa mise en œuvre  voire out au long de son application. L’absence d’évaluation ouvre en effet la porte à toutes les démagogies. NDLR

Evaluer une politique publique, c’est porter une appréciation sur son impact, à partir de données et de méthodes scientifiques. Il peut s’agir d’évaluer l’impact d’une campagne de vaccination sur la santé publique, l’impact d’une réforme fiscale sur le pouvoir d’achat, ou encore l’impact du dédoublement des classes sur le niveau scolaire des élèves.

L’évaluation des politiques publiques a véritablement démarré en France dans les années 2000, soit quarante ans après les Etats-Unis. Elle se développe rapidement. Mais sert-elle vraiment à éclairer la décision politique ?

Afin d’en juger, nous avons étudié (« Quelles évaluations des politiques publiques pour quelles utilisations ? », Adam Baïz et al., France Stratégie, juin 2022) 262 lois votées entre 2008 et 2020, dans des domaines aussi variés que la santé, l’éducation, les finances ou encore la sécurité. Et nous avons cherché à savoir si le Parlement et le gouvernement mobilisent vraiment les évaluations de politique publique en amont et en aval du vote de la loi

En amont du vote de la loi, le Parlement et dans une moindre mesure le gouvernement mobilisent bel et bien un nombre croissant d’évaluations de politique publique. Pour chaque loi, ils citent huit évaluations en 2008, et près de 25 en 2020. Il s’agit pour l’essentiel de rapports d’institutions publiques (Insee, ministères, Cour des comptes, etc.), de rapports parlementaires et de rapports d’experts et de chercheurs.

Ces rapports éclairent diversement les débats parlementaires, en fournissant de l’expertise sur des politiques comparables, des retours du terrain ou encore des expériences internationales. Rares sont les lois pour lesquelles aucune évaluation n’est citée ; à l’inverse pour certaines lois, comme la loi d’orientation des mobilités de 2019, plus de 100 évaluations sont citées dans les débats parlementaires.

Projets: Une évaluation multicritères

« Impact » : Pour la prise en compte socio-économico-environnemental

Le terme « impact » est entré dans le vocabulaire de tous les dirigeants, publics comme privés, du secteur de la finance, d’entreprises traditionnelles, comme du secteur de l’Économie sociale et solidaire. Mais alors que tous se réclament de l’impact, il est un piège à éviter : l’impact washing, qui, à juste titre, ne génèrerait que défiance. Par Julie de Brux, Associée et Fondatrice de Citizing.(la Tribune)

Dès lors, comment mesurer l’impact et comment éviter la cacophonie qui serait liée à des méthodes hétérogènes, rendant les résultats non comparables et non crédibles ? Après les publications de notes extra-financières flamboyantes de grandes entreprises polluantes, le temps est venu de ne plus confondre impact et RSE.

Pour évaluer l’opportunité de financer des projets publics, L’État estime la quantité et la valeur des impacts économiques, sociaux et environnementaux de ses investissements. C’est même une obligation réglementaire pour les projets de l’État de plus de 20 millions d’euros, avec une contre-expertise de l’évaluation, pilotée par le Secrétariat Général pour l’Investissement (SGPI), lorsque les investissements excèdent 100 millions d’euros (loi n°2012-1558 et décret n°2013-1211 du 23 décembre 2013 relatif à la procédure d’évaluation des investissements publics).

Dans un souci de bonne allocation des deniers publics, il importe donc de savoir si un projet a des chances de créer suffisamment d’impact positif pour la société et la planète pour justifier la dépense.

Sous forme d’une analyse coûts-bénéfices, elle permet de comparer l’ensemble des coûts (d’investissement, d’exploitation, mais aussi les éventuels coûts environnementaux ou sociaux) avec l’ensemble des bénéfices (sociaux, environnementaux, sanitaires, etc.) d’une opération. Ces coûts et bénéfices, ou impacts positifs et négatifs doivent, pour être comparés, être exprimés dans une unité commune, c’est l’unité monétaire. Cet exercice est appelé la monétarisation.

Autre particularité de l’évaluation socio-économico-environnementale : elle nécessite d’estimer l’impact additionnel, c’est-à-dire l’ampleur du différentiel d’impact entre une situation sans projet et une situation avec projet.

In fine, lorsque les impacts différentiels, positifs comme négatifs, sont monétarisés, on peut calculer des indicateurs qui parlent à Bercy et aux financiers : un ROI, ou retour sur investissement, mais pas un ROI financier, un ROI socio-économico-environnemental, que certains appellent le SROI (pour social return on investment). Car entre l’argument « il faut financer l’équipement, car le besoin est important » et l’argument selon lequel « pour chaque euro investi dans l’équipement, 8€ de valeur sociale et environnementale sont susceptibles d’être créés », le deuxième apparait comme bien plus convaincant pour un décideur pragmatique.

Cette approche, reconnue académiquement et internationalement (elle est pratiquée par toutes les banques multilatérales de développement), a tout pour séduire. Pratiquée depuis les années 70, elle a toutefois longtemps été cantonnée dans sa mise en œuvre aux infrastructures de transports et dans une moindre mesure de l’énergie. Une génération de socio-économistes a manqué à l’appel pour la faire véritablement progresser. Cela a notamment conduit à continuer de considérer que la valeur du gain de temps permis par un trajet en voiture était identique à la valeur du gain de temps en train, alors qu’il est évident (outre l’impact environnemental, qui distingue ces deux modes de transports, et qui est bien entendu pris en compte dans l’évaluation), que le temps de trajet en train peut être nettement mieux mis à profit que le temps de conduite, et qu’il génère donc plus d’impact positif.

Depuis le décret de 2013 qui a rendu l’évaluation socio-économico-environnementale et sa contre-expertise obligatoires, ce retard tend à être rattrapé, avec un effort tout particulier du comité d’experts des méthodes d’évaluation et des différents groupes de travail de France Stratégie qui ont actualisé la valeur à attribuer à la tonne de carbone pour se conformer à la trajectoire +2 degrés ; qui ont proposé une valeur des diplômes, encourageant de facto les investissements en capital humain ; plus récemment encore, qui ont progressé sur la façon de prendre en compte et d’évaluer les effets de santé et les opérations globales d’aménagement urbain. Les évaluateurs disposent désormais d’un corpus important, clair et transparent pour évaluer, c’est-à-dire quantifier et valoriser, les impacts pour la société et la planète de bon nombre d’investissements.

Un nombre croissant d’acteurs du secteur privé a désormais recours au calcul de ce fameux SROI.  La fédération des travaux publics par exemple, qui depuis cinq ans, attribue des prix à des collectivités pour leurs investissements à impact, ou encore la fédération des associations de protection juridique des majeurs (tutelles et curatelles), qui a ainsi réussi à convaincre les pouvoirs publics de moins rationner leurs financements en faisant la preuve par l’euro que s’ils n’existaient plus, le coût économique et social serait bien supérieur à leur budget de fonctionnement. Le monde de la finance, et spécifiquement de la finance d’impact, regarde aussi bien entendu cette méthode de près, avec des fonds d’investissement qui ont fait calculer l’effet de levier de leurs investissements en matière d’impact.

Ils sont ainsi quelques audacieux à considérer que pour ne pas être juge et partie, l’évaluateur ne doit pas être une partie prenante interne de l’entreprise. A accepter de prendre le risque de trouver un ROI d’impact inférieur à 1. A préférer les méthodes reconnues académiquement et internationalement aux méthodes prétendument innovantes et dites sur-mesure. A avoir compris, enfin, qu’au même titre qu’une due diligence financière ne se faisait pas en un claquement de doigts, la due diligence d’impact requiert d’y consacrer un peu de temps.

Si les audacieux se multipliaient, on verrait surement le risque d’impact washing s’éloigner un peu. Et lorsque l’impact sera pris en compte dans la valorisation des entreprises au même titre que leur rentabilité financière, alors les entreprises à vocation sociale et environnementale pourront concurrencer les futiles licornes auprès des investisseurs, et la finance durable ne sera plus uniquement un concept marketing.

Sondage Débat Macron-Le Pen : Évaluation plus serrée mais toujours aussi nulle

 Sondage Débat Macron-Le Pen : Évaluation plus serrée mais toujours aussi nulle

 

 Indiscutablement d’après la presse des financiers, Macron a remporté sans discussion le débat face à une Le Pen effectivement très insuffisante même si elle est en léger progrès. L’évaluation de ces débats est plus serrée qu’en 2017. Mais il faut tenir compte que seulement 15 millions de personnes ont suivi la confrontation. Autant dire que la grande majorité des Français n’attendait pas grand-chose du débat pas plus d’ailleurs sans doute que de l’élection ; les abstentionnistes et les non-inscrits vont constituer nettement le parti majoritaire en France.

D’après une enquête Odoxa-Backbone Consulting pour Le Figaro, Emmanuel Macron remporte le duel de l’entre-deux-tours d’une très courte tête : il a convaincu 56% des sondés, contre 72% en 2017.Un sondage qui porte cependant sur une audience assez faible et qui forcément ne tient pas compte de ceux qui n’ont pas regardé la télévision.

Pas de vainqueur par KO. C’est le principal enseignement tiré par l’institut Odoxa et Backbone Consulting après une enquête réalisée pour Le Figaro à l’issue du débat de l’entre-deux-tours. Selon le sondage, Emmanuel Macron est, d’une courte tête, le candidat qui s’est montré le plus convaincant aux yeux des Français mercredi soir. Près d’un tiers d’entre eux partage cet avis (30%) contre 23% pour Marine Le Pen, tandis que près d’un Français sur deux (47%) ne distingue aucun gagnant ou a ignoré le débat. Le président sortant ne devance son adversaire que de 7%, alors que l’écart était de près de 30 points en 2017.

À

Si on se concentre sur les Français ayant choisi entre l’un ou l’autre des deux candidats, 56% estiment que le président candidat a été le plus convaincant, contre 44% pour Marine Le Pen. Il y a cinq ans, le même sondage réalisé à l’issue du débat d’entre-deux-tours donnait le candidat En Marche vainqueur à 72%, contre 28% pour la candidate RN. Dans le détail des treize grands thèmes abordés lors du débat, le match s’avère encore plus serré : en moyenne, 48% des Français jugent qu’Emmanuel Macron a été le plus convaincant, contre 47% qui donnent l’avantage à Marine Le Pen.

 

Les domaines dans lesquels le président sortant a pris le dessus sont la place de la France à l’international (62%), la manière de gouverner et le fonctionnement des institutions (57%), ainsi que la croissance et la compétitivité de l’économie (55%). La candidate RN s’est en revanche montrée meilleure aux yeux des sondés sur les questions liées à l’immigration (57%), la sécurité (57%), les retraites (56%) et le pouvoir d’achat (54%).

 

Sur le fond, c’est Emmanuel Macron qui l’a emporté : 62% des Français qui ont regardé le débat estiment qu’il a montré qu’il maîtrisait le plus ses dossiers, 61% jugent qu’il a le plus montré la stature d’un président et 57% trouvent qu’il a plus montré qu’il savait où il allait. En revanche, sur la forme, c’est Marine Le Pen qui a davantage gardé son sang-froid aux yeux des Français : 57% estiment qu’elle a été la plus calme et qu’elle s’est le mieux maîtrisée.

 

Parmi les électeurs ayant voté pour un autre candidat au premier tour, ceux de Fabien Roussel, Anne Hidalgo, Yannick Jadot ont été les plus convaincus par la performance d’Emmanuel Macron (40% contre 10% pour Marine Le Pen), suivis par les électeurs de Valérie Pécresse (36% contre 16%). Côté Marine Le Pen, 52% des électeurs d’Eric Zemmour ont jugé qu’elle était la plus convaincante. Ils ne sont que 7% à avoir préféré la prestation du président candidat. Les électeurs insoumis, qui disposent d’un rôle clé pour le second tour, sont plus partagés : 29% ont trouvé Emmanuel Macron plus convaincant, contre 21% pour Marine Le Pen.

Les sondés se sont montrés relativement satisfaits de ce débat d’entre-deux-tours. Près de 6 sur 10 estiment qu’il a abordé les principales préoccupations des Français (66%) et l’ont trouvé intéressant (58%). Pour autant, 3 électeurs sur 4 (76%) affirment qu’il ne changera pas l’issue de leur vote.

Enseignement supérieur : pour une évaluation impartiale

Enseignement supérieur : pour une évaluation impartiale

 

Certains médias ou organismes se montrent peu regardants sur la qualité des données transmises par les établissements qu’ils classent, et se muent parfois en consultants pour les aider à être mieux placés, analysent, dans une tribune au « Monde », les chercheurs Vincent Iehlé et Julien Jacqmin, qui appellent à la création d’une institution de contrôle impartiale.

 

Tribune. 

Deux récents évènements ont eu un effet retentissant dans l’enseignement supérieur américain. Début mars, l’ancien doyen de l’école de commerce de Temple University a été condamné à quatorze mois de prison et à une amende de 250 000 dollars. Il a été reconnu coupable d’avoir falsifié les données transmises au très influent média, outre-Atlantique, U.S. News & World Report dans l’optique d’améliorer le classement de son programme MBA.

Quelques jours plus tard, Michael Thaddeus, professeur et ancien directeur du département de mathématiques de la prestigieuse Columbia University, a décortiqué la fabuleuse « remontada » de son institution qui, en quelques années, est passée de la 18e à la 2e place du classement des universités publié par ce même journal. Dans un document disponible sur son site Internet personnel, il explique de manière minutieuse, indicateur par indicateur, comment son université a systématiquement embelli les données fournies au journal en vue de manipuler le classement final en sa faveur.

Certes, ces deux évènements qui affectent l’enseignement supérieur aux Etats-Unis peuvent nous paraître lointains d’un point de vue géographique et institutionnel, d’autant que les classements publiés par U.S. News & World Report n’ont une influence que très marginale en Europe. Toutefois, cette dépendance en matière d’accès aux données, nécessaires à la construction des classements, est également omniprésente pour les classements en France.

Par exemple, pour le calcul du Times Higher Education World University Rankings, le magazine [britannique] Times Higher Education se base sur des données provenant des établissements concernant le nombre d’étudiants par professeur ou les recettes financières issues de mécénat privé.

Pour le QS World University Rankings, Quacquarelli Symonds [société d’information et de conseil sur l’enseignement supérieur] se base sur des enquêtes pour déterminer les établissements les plus prestigieux dans chaque discipline. Elles sont effectuées auprès de collaborateurs proposés directement par les universitaires eux-mêmes, à la demande de Quacquarelli Symonds.

Plus proche de nous, en France, le magazine L’Etudiant recueille des informations liées notamment à la part d’enseignants-chercheurs parmi les intervenants ou au nombre d’articles scientifiques publiés au sein des institutions afin d’établir ses classements des écoles de commerce ou d’ingénieurs. C’est également en partie le cas pour les classements effectués par d’autres médias tels Le PointLe FigaroL’Express ou Challenges.

I

Crise ukrainienne et croissance française : une évaluation au doigt mouillé de l’INSEE

Crise ukrainienne et croissance française : une évaluation au doigt mouillé de l’INSEE

 

La bataille des instituts proches du gouvernement est lancée pour minimiser les conséquences économiques de la crise ukrainienne notamment en matière d’inflation et de croissance. Ainsi c’est au doigt mouillé que l’INSEE, après la Banque de France, s’efforce de convaincre que les conséquences seront assez faibles pour la France et même plus faibles que pour la plupart des autres pays européens. Ainsi initialement le gouvernement avait retenu une prévision de croissance de 4 %. L’INSEE considère que la guerre en Ukraine va abaisser la croissance d’un pour cent.L’enjeu évidemment est de convaincre du contrôle de l’inflation afin de ne pas provoquer un réajustement des revenus, des salaires et autres pensions.

L’Insee maintient ainsi sa prévision d’une croissance de 0,3% du PIB au premier trimestre, malgré le choc de guerre en Ukraine et la hausse des prix. En février, le glissement sur un an des prix à la consommation a atteint 3,6%. «Il aurait été de l’ordre de 5% sans le ‘‘bouclier tarifaire’’ sur les tarifs réglementés de vente du gaz et de l’électricité», précise l’institut statistique. En mars, dans un scénario où le pétrole se stabiliserait autour de 125 dollars le baril, l’inflation dépasserait 4% sur un an, l’explosion des prix de l’énergie expliquant la moitié de la hausse. D’avril à juin, elle pourrait culminer à 4,5%.

L’inflation rogne le pouvoir d’achat des ménages qui baisserait de 1,4% au premier trimestre, mais cela ne provoquera qu’un un recul de 0,5% de la consommation selon l’institut !

Les enquêtes de conjoncture, réalisées entre le 25 février et le 14 mars, dévoilent cependant une baisse de 20 points des soldes d’opinion des patrons sur les perspectives générales et personnelles d’activité dans l’industrie, particulièrement marqué dans le secteur du transport.

La croissance sera, bien sûr, affectée par la guerre en Ukraine. «Si les prix des importations d’énergie se maintiennent au niveau de début mars, un tel renchérissement des matières premières affecterait le PIB français d’environ un point en 2022», a détaillé Olivier Simon, chef de la division synthèse conjoncturelle de l’Insee. Le gouvernement table toujours sur une croissance de 4%. La Banque de France s’est avancée dimanche sur un chiffre de progression du PIB de 2,8% sur l’année, dans un scénario où les prix resteraient durablement élevés.

 

Environnement–Déforestation : pour une vraie évaluation globale

Environnement–Déforestation : pour une vraie évaluation globale

 

Pour l’économiste Alain Karsenty, l’évaluation de la qualité des politiques publiques de lutte contre la déforestation doit primer sur la rémunération des Etats.

 

Tribune.

 

Dans les pays du Sud, la croissance démographique conjuguée à la faible croissance des rendements agricoles crée des pressions sur les écosystèmes. L’augmentation de la demande internationale de produits agricoles et celle, émergente, de biocarburants, se rajoutent aux dynamiques internes pour engendrer une déforestation massive. Avec en moyenne 10 millions d’hectares perdus chaque année, soit quelque 14 % des émissions de CO2 liées aux activités humaines, la déforestation est principalement concentrée dans les pays en développement. Si elle tend à se ralentir en Asie, elle s’accroît en Afrique et augmente à nouveau depuis 2015 en Amazonie brésilienne, après une décennie de baisse sensible.

Environ un tiers de la déforestation est lié au commerce international, ce qui montre toute l’importance de réduire la déforestation importée dans les biens que nous consommons. Mais la population s’accroît dans les pays tropicaux et les modèles de consommation se rapprochent de ceux des pays industrialisés. Les politiques qui seront adoptées par ces pays seront donc décisives pour parvenir, à terme, à arrêter la déforestation.

 

Les forêts ne sont pas des biens publics mondiaux ou des communs globaux. On doit distinguer les ressources qu’elles abritent (bois, foncier, ressources génétiques, etc.) des services écosystémiques qu’elles fournissent (puits et stock de carbone, réservoir de biodiversité, régulation hydrique, cycle des pluies, etc.). Les ressources relèvent de la souveraineté des Etats et les acteurs publics ou privés − dont des communautés − disposent sur celles-ci de divers droits de propriété. Seuls les services peuvent être considérés comme des biens publics mondiaux, dont le maintien dépend des modes de gestion de ces ressources.

Dès lors, faut-il que la « communauté internationale » rémunère les pays forestiers tropicaux pour les services que les écosystèmes rendent à l’humanité ? Cette demande est souvent formulée par des responsables politiques des pays concernés, qui mettent en avant le manque à gagner que représenterait la conservation des forêts au lieu d’organiser leur conversion à des activités agricoles et minières. Le mécanisme international REDD+ (pour réduction des émissions liées à la déforestation et à la dégradation), potentiellement lié à un marché international des réductions d’émissions de gaz à effet de serre − le « marché carbone » − a été instauré sous l’égide de l’Organisationn des Nations unies en écho à ces demandes. Il se veut être un programme de « paiement aux résultats ». Les rémunérations prévues ne visent toutefois pas à « payer pour les services rendus par les écosystèmes », mais à rémunérer les pays pour leurs efforts de conservation des forêts par des politiques et des mesures débouchant sur des résultats − essentiellement la baisse de la déforestation.

La différence n’est pas mince. La prendre au sérieux suppose que les payeurs potentiels (les pays industrialisés) ne se contentent pas d’un « résultat », qui peut parfois n’être qu’une hausse de la déforestation moindre qu’anticipée, mais qu’ils établissent les relations de cause à effet entre le résultat constaté et les politiques publiques mises en œuvre pour l’obtenir. Si la baisse de la déforestation est liée à la baisse du prix de l’huile de palme ou du soja, est-il judicieux de « récompenser » un pays ? Il est pour le moins singulier que le Fonds vert pour le climat ait rémunéré en 2019 le Brésil pour une déforestation moindre qu’en 2014-2015, alors que la politique vis-à-vis de la forêt a radicalement changé depuis l’avènement de Bolsonaro.

 

S’interroger sur la façon dont les résultats sont produits veut dire aussi ne pas se contenter de laisser les pays « faire le job » pour pouvoir les payer ensuite, mais investir massivement à leurs côtés afin de pouvoir maîtriser les causes directes et indirectes de la déforestation.

La priorité est de construire un agenda commun entre lutte contre la déforestation et sécurité alimentaire. Sans cela, non seulement les gouvernements du Sud n’entreront pas dans des logiques de coconstruction, mais les politiques environnementales et agricoles continueront d’être antagonistes.

Qualité et cohérence

Une intensification écologique passant par de l’agroécologie, des associations cultures-élevage et de l’agroforesterie, devrait devenir la priorité des politiques publiques.

L’investissement doit aussi viser la clarification et la sécurisation des droits fonciers, non seulement pour protéger les communautés contre les accaparements de terres, mais aussi pour créer les conditions de long terme propices à la plantation d’arbres. Il est également essentiel de financer des politiques favorisant la transition démographique, notamment en Afrique, en mettant l’accent sur l’éducation des filles et l’autonomie économique des femmes.

Déforestation : pour une vraie évaluation globale

Déforestation : pour une vraie évaluation globale

 

Pour l’économiste Alain Karsenty, l’évaluation de la qualité des politiques publiques de lutte contre la déforestation doit primer sur la rémunération des Etats.

 

Tribune.

 

Dans les pays du Sud, la croissance démographique conjuguée à la faible croissance des rendements agricoles crée des pressions sur les écosystèmes. L’augmentation de la demande internationale de produits agricoles et celle, émergente, de biocarburants, se rajoutent aux dynamiques internes pour engendrer une déforestation massive. Avec en moyenne 10 millions d’hectares perdus chaque année, soit quelque 14 % des émissions de CO2 liées aux activités humaines, la déforestation est principalement concentrée dans les pays en développement. Si elle tend à se ralentir en Asie, elle s’accroît en Afrique et augmente à nouveau depuis 2015 en Amazonie brésilienne, après une décennie de baisse sensible.

Environ un tiers de la déforestation est lié au commerce international, ce qui montre toute l’importance de réduire la déforestation importée dans les biens que nous consommons. Mais la population s’accroît dans les pays tropicaux et les modèles de consommation se rapprochent de ceux des pays industrialisés. Les politiques qui seront adoptées par ces pays seront donc décisives pour parvenir, à terme, à arrêter la déforestation.

 

Les forêts ne sont pas des biens publics mondiaux ou des communs globaux. On doit distinguer les ressources qu’elles abritent (bois, foncier, ressources génétiques, etc.) des services écosystémiques qu’elles fournissent (puits et stock de carbone, réservoir de biodiversité, régulation hydrique, cycle des pluies, etc.). Les ressources relèvent de la souveraineté des Etats et les acteurs publics ou privés − dont des communautés − disposent sur celles-ci de divers droits de propriété. Seuls les services peuvent être considérés comme des biens publics mondiaux, dont le maintien dépend des modes de gestion de ces ressources.

Dès lors, faut-il que la « communauté internationale » rémunère les pays forestiers tropicaux pour les services que les écosystèmes rendent à l’humanité ? Cette demande est souvent formulée par des responsables politiques des pays concernés, qui mettent en avant le manque à gagner que représenterait la conservation des forêts au lieu d’organiser leur conversion à des activités agricoles et minières. Le mécanisme international REDD+ (pour réduction des émissions liées à la déforestation et à la dégradation), potentiellement lié à un marché international des réductions d’émissions de gaz à effet de serre − le « marché carbone » − a été instauré sous l’égide de l’Organisationn des Nations unies en écho à ces demandes. Il se veut être un programme de « paiement aux résultats ». Les rémunérations prévues ne visent toutefois pas à « payer pour les services rendus par les écosystèmes », mais à rémunérer les pays pour leurs efforts de conservation des forêts par des politiques et des mesures débouchant sur des résultats − essentiellement la baisse de la déforestation.

La différence n’est pas mince. La prendre au sérieux suppose que les payeurs potentiels (les pays industrialisés) ne se contentent pas d’un « résultat », qui peut parfois n’être qu’une hausse de la déforestation moindre qu’anticipée, mais qu’ils établissent les relations de cause à effet entre le résultat constaté et les politiques publiques mises en œuvre pour l’obtenir. Si la baisse de la déforestation est liée à la baisse du prix de l’huile de palme ou du soja, est-il judicieux de « récompenser » un pays ? Il est pour le moins singulier que le Fonds vert pour le climat ait rémunéré en 2019 le Brésil pour une déforestation moindre qu’en 2014-2015, alors que la politique vis-à-vis de la forêt a radicalement changé depuis l’avènement de Bolsonaro.

 

S’interroger sur la façon dont les résultats sont produits veut dire aussi ne pas se contenter de laisser les pays « faire le job » pour pouvoir les payer ensuite, mais investir massivement à leurs côtés afin de pouvoir maîtriser les causes directes et indirectes de la déforestation.

La priorité est de construire un agenda commun entre lutte contre la déforestation et sécurité alimentaire. Sans cela, non seulement les gouvernements du Sud n’entreront pas dans des logiques de coconstruction, mais les politiques environnementales et agricoles continueront d’être antagonistes.

Qualité et cohérence

Une intensification écologique passant par de l’agroécologie, des associations cultures-élevage et de l’agroforesterie, devrait devenir la priorité des politiques publiques.

L’investissement doit aussi viser la clarification et la sécurisation des droits fonciers, non seulement pour protéger les communautés contre les accaparements de terres, mais aussi pour créer les conditions de long terme propices à la plantation d’arbres. Il est également essentiel de financer des politiques favorisant la transition démographique, notamment en Afrique, en mettant l’accent sur l’éducation des filles et l’autonomie économique des femmes.

Finances -Quoi qu’il en coûte : une évaluation approximative

Finances -Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Finances- Quoi qu’il en coûte : une évaluation approximative

Finances- Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Quoi qu’il en coûte : une évaluation approximative

Quoi qu’il en coûte : une évaluation approximative

 

 

. Par Eric Séverin, Université de Lille et David Veganzones, ESCE International Business School estime Dansla « Tribune » qu’il est trop tôt pour procéder à une évaluation précise du quoi qu’il en coûte.

 

Face à la crise économique liée aux mesures sanitaires, le gouvernement a mis en place différents dispositifs d’aides, dont l’objectif est de permettre aux entreprises (viables ou non) de faire face à leurs échéances. Un an demi après leur instauration, le ministre de l’Économie, Bruno Le Maire, a annoncé la levée de ces aides. « Le « quoi qu’il en coûte », c’est fini », a-t-il déclaré à l’occasion de la Rencontre des entrepreneurs de France du Medef, le 25 août.

La fin des aides de l’État laisse donc craindre une recrudescence des faillites qui avaient été jusqu’alors limitées. En effet, selon le rapport Altares 2021, celles-ci ont augmenté de 14,2 %, mais ce chiffre reste en recul de 48 % par rapport à la période 2017-2019.

Certes, il est difficile de prévoir le nombre de défaillances qui surviendront après la levée des mesures d’aides. Pour l’année 2021, le président de la Confédération des petites et moyennes entreprises (CPME) s’attend à un chiffre de 60 000 à 100 000 alors qu’Altares prévoit entre 33000 et 35000 défaillances.

Quoi qu’il en soit, il ne fait guère de doute que ces défaillances vont être coûteuses. Mais quels sont ces coûts ? Et sommes-nous réellement capables de les mesurer ?

Les coûts sont à la fois directs et indirects. En ce qui concerne les coûts directs, ils sont constitués par les frais des mandataires de justice. D’autres éléments sont à incorporer à ces coûts tels que ceux perçus par le commissaire à l’exécution du plan. Quel est l’ordre de grandeur de ces coûts ? Plusieurs études apportent des éléments de réponse.

Premièrement, leur étendue est variable selon les pays et représente entre 1 et 10 % de la valeur de la firme. Deuxièmement, ils sont inversement proportionnels à la taille de l’entreprise (plus lourds pour les PME comparativement aux grandes entreprises). Troisièmement, ils ne sont pas supportés de façon identique par tous les acteurs en fonction de la règle de priorité et de la législation en vigueur.

En revanche, contrairement aux coûts directs, les coûts indirects restent d’une extrême complexité, non pas à définir mais à mesurer. On peut circonscrire cinq types de coûts indirects.

Le premier est celui de la perte du chiffre d’affaires faisant suite à la perte de clients. Devant l’incertitude d’être approvisionné et de ne pas bénéficier d’un service après vente, un client se détournera d’une entreprise en redressement judiciaire, augmentant conséquemment ses difficultés.

Le deuxième se porte de l’autre côté du spectre avec les fournisseurs. Percevant la difficulté d’un client, les fournisseurs infèrent la possibilité de perdre leurs créances en raison de l’ordre de priorité des créanciers dans le redressement judiciaire. Par conséquent, ils vont exiger des délais de paiement plus rapides.

Le troisième tient dans l’attitude du personnel. En effet, dans un redressement judiciaire, on assiste très souvent à des licenciements qui traduisent un double coût : celui d’une perte de compétence et de formation financée par l’entreprise et celui de la démotivation des salariés restants qui sont dans la crainte de perdre leurs emplois si la situation venait à empirer encore. Le coût pour la firme est d’autant plus important que les meilleurs de ses salariés partent car ces derniers sont les plus employables et recherchés par les compétiteurs.

Le quatrième coût est appelé par les Américains fire sale (vente précipitée). Pour résoudre leurs problèmes de cash, les firmes vont chercher à désinvestir de façon sous optimale en vendant leurs actifs à vil prix.

 

Le cinquième coût est lié à l’asymétrie d’information et au risque. En effet, les dirigeants, qui ont un meilleur accès à l’information que les actionnaires, peuvent soit retarder la faillite pour préserver leurs avantages, soit extraire des avantages importants avant leur mise à l’écart. Un exemple célèbre met en évidence que plus de 50 % de la valeur de la compagnie aérienne Eastern Airline a été détruite pendant le redressement judiciaire en raison du comportement opportuniste du dirigeant dans les années 1990.

Qu’y a-t-il derrière le « quoiqu’il en coûte » ?

Dans les années 1980, une étude avait tenté d’évaluer plus précisément ces coûts indirects en mesurant d’une part, le différentiel de la baisse du chiffre d’affaires des entreprises ayant fait faillite comparativement à la moyenne des ventes du secteur et d’autre part, l’écart entre le montant réel des ventes et les prévisions réalisées trois ans avant la faillite. Ces coûts pourraient ainsi représenter de 6,6 à 8,1 % de la valeur de la firme. La difficulté d’une telle approche reste toutefois l’accès aux données.

Une seconde méthode consiste à mesurer les coûts indirects en utilisant les données boursières au travers des coûts de réputation et des effets de contagion. On mesure les variations de cours boursier des clients et fournisseurs des sociétés ayant fait faillite. On capte ainsi la perte de valeur subie par les partenaires des entreprises ayant fait faillite (effet contagion). Les résultats font ressortir des pertes de l’ordre de 1 à 3 % de la valeur boursière des fournisseurs et des clients.

S’il reste difficile de prévoir le nombre exact des faillites en 2021, il n’en reste pas moins vrai qu’il serait très utile de pouvoir mesurer les coûts de ces faillites pour l’ensemble des acteurs. Cela aurait deux mérites. Le premier serait de savoir ce qu’il convient de mettre derrière le « quoiqu’il en coûte ». Le second serait de permettre des comparaisons avec nos partenaires pour savoir où nous situer au sein de cette crise mondiale.

______

(*) Par Eric Séverin, Professeur des Universités Finance – Comptabilité, Université de Lille et David Veganzones, Assistant professor, management & finance, ESCE International Business School.

La version originale de cet article a été publiée sur The Conversation.

Parcoursup : «La mise en cause d’une évaluation par un unique algorithme

Parcoursup : «La mise en cause d’une évaluation par un unique algorithme 

 

Outre le caractère injuste et déshumanisant de voir confier à l’intelligence artificielle l’orientation des bacheliers, Virginie Calmels, présidente de Futurae, souligne, dans une tribune au « Monde », le danger d’une fuite des talents à l’étranger. Aussi préconise-t-elle d’introduire un entretien afin d’évaluer les qualités et les motivations des élèves. (extrait)

 

Tribune.

Parcoursup laisse-t-il vraiment le choix de leur avenir aux milliers de jeunes inscrits sur la plate-forme ? « Dans la liste d’appel »« dans la liste d’attente »« oui si »« oui – en attente d’une place » … Voici quelques-unes des réponses reçues par les lycéens lors du rendu des premières propositions d’orientation. Elles ont de quoi décourager… même les plus motivés.

En effet, comment expliquer à un lycéen que ce n’est pas sa motivation, ses qualités ou ses aptitudes, mais plutôt un algorithme qui décidera de son avenir ? Aurions-nous l’idée d’appliquer le même système dans un quelconque autre segment de notre vie ? Laisserions-nous une intelligence artificielle décider des entreprises où candidater, de la ville où déménager, du talent à embaucher ? C’est peu probable. D’autant que cette méthode de sélection est considérée comme particulièrement injuste, car ayant introduit des biais permettant de privilégier certaines catégories d’élèves au détriment d’autres.


Les étudiants eux-mêmes élèvent leurs voix contre les iniquités constatées : comment expliquer que des élèves avec d’excellents résultats se retrouvent refusés dans tous leurs vœux favoris, à l’instar de Samuel Dana refusé de toutes les classes préparatoires dans Parcoursup alors qu’il affichait une moyenne en maths en terminale de 18,5/20 et un QI de 152 lui ayant permis de sauter la classe de 1re, mais consécutivement et malheureusement ne lui ayant donc pas permis de fournir les bulletins de 1re exigés par le système ?

 

Les implications d’une telle faille sont évidentes : elles éloignent de l’objectif d’orientation et de méritocratie, fondements de notre système éducatif. Mais alors, pourquoi faire subir ce système de sélection aléatoire à des centaines de milliers de jeunes ? Jamais, que ce soit dans leur vie personnelle ou professionnelle, ils ne seront à nouveau confrontés à une telle loterie.

Et pour cause… Dans le monde professionnel, par exemple, quelle entreprise oserait recruter un talent sans jamais l’avoir rencontré ? La sélection passe quasi systématiquement par un entretien, seule étape vraiment à même d’évaluer de manière équitable les aptitudes et qualités d’un candidat dans leur ensemble. Car, au-delà des résultats scolaires, n’est-ce pas aussi la motivation, le savoir être, les passions, la personnalité qui sont pris en compte dans la vie réelle ?


En persévérant dans un tel système déshumanisé, l’enseignement s’expose à un autre risque : celui de la fuite des talents. Devant des résultats aléatoires, un algorithme peut décourager les élèves, même les meilleurs. Ces derniers font parfois le choix de se tourner directement vers l’étranger, exposant ainsi la France à une fuite regrettable de ses jeunes les plus motivés.

Evaluation de l’usages du numérique

Evaluation de l’usages du numérique 

 

Pour mieux comprendre l’impact auprès des plus jeunes, Le Monde a interrogé Vanessa Lalo, psychologue clinicienne spécialiste des pratiques numériques. Le 4 février, elle intervenait lors d’une table ronde sur le thème « Covid-19 et usages numériques » organisée par la plate-forme TikTok et l’association e-Enfance. Selon Vanessa Lalo, le problème ne vient pas du temps d’écran mais de la qualité de ce que l’on regarde.

L’explosion du temps d’écran, en particulier chez les plus jeunes, est-elle un problème ?

Vanessa Lalo : C’est une question qui revient en permanence lors de mes consultations. De nombreux parents en souffrance viennent me voir pour savoir comment faire pour éloigner leurs enfants des écrans. Souvent, parce qu’ils ne savent pas quoi faire face à des enfants qui préfèrent passer des heures sur les réseaux ou jouer aux jeux vidéo plutôt que de sortir et voir leurs copains.

Mais le temps d’écran ne sera jamais une bonne valeur pour jauger nos pratiques numériques. C’est le degré zéro de l’analyse. Une fois qu’on a lu ce chiffre, qu’est-ce qu’on en fait ? Une personne peut tout à fait passer quatorze heures par jour à regarder des vidéos de pandas qui pètent, une autre passera quatorze heures à lire des pages Wikipédia ou à regarder des vidéos pédagogiques sur YouTube… Ils passeront le même temps mais leurs pratiques sont différentes.

Ce qu’il s’est passé lors du confinement, c’est que les enfants ont passé plus de temps devant les écrans parce que l’école était fermée. Ils suivaient donc les cours en ligne et passaient du temps à discuter avec leurs amis sur les réseaux sociaux. Mais est-ce que c’était une mauvaise chose ? Non.

Ce qui a été délétère, ce sont tous les enfants qui n’avaient pas accès aux écrans, ceux qui ne pouvaient pas faire l’école à la maison. Ce sont ceux qui ont passé le moins de temps devant les écrans qui ont le plus décroché de l’école. Donc il serait peut-être temps de se demander si on ne s’est pas trompé dans notre analyse par rapport aux temps d’écran.

Pourquoi la gestion du temps d’écran est-elle un tel sujet d’inquiétudes ?

La première raison, c’est sans aucun doute l’écart générationnel entre parents et enfants. Beaucoup d’adultes ont du mal à comprendre que leurs enfants soient entièrement greffés au numérique alors qu’eux ont été élevés sans le numérique. Du coup, les adultes ont parfois cette impression que les écrans sont en train de créer une génération de « débiles ». Un peu comme les précédentes générations allaient taper sur le rock, les jeux de rôle ou les mangas par exemple.

Une deuxième raison vient aussi d’un certain nombre de chercheurs qui veulent absolument taper sur le numérique et nous prouver à quel point ça peut être mauvais pour notre cerveau. Ça fait quand même quelques années que ça dure avec des travaux comme L’Autisme virtuel d’Anne-Lise Ducanda ou La Fabrique du crétin digital de Michel Desmurget. Ce sont des discours très conservateurs qui font peur aux parents, diabolisent les outils numériques et n’apportent absolument aucun élément de prévention ou conseil pour les parents.

Pourquoi est-ce un problème pour les parents de se focaliser sur cette question du temps d’écran ?

Le problème avec ce genre de discours qui diabolise les écrans et les pratiques numériques c’est que les parents manquent cruellement d’exemples de prévention positive. Bien sûr, je ne dis pas que tout est profitable et que tout est bon dans les réseaux sociaux ou les écrans et qu’il n’y a pas de risques. Mais pour pouvoir faire une bonne prévention, il faut savoir accompagner, s’intéresser aux pratiques numériques et ne pas en avoir peur.

Que ce soit sur les questions des outils numériques, des jeux vidéo ou les réseaux sociaux, les parents ont tendance à attendre que les réponses viennent d’un expert sur le sujet. Ils n’ont pas assez confiance en eux pour prendre ce sujet en main. Pourtant, lorsqu’ils choisissent au quotidien quels aliments ils vont donner à leurs enfants ou quels vêtements leur donner, personne ne va leur dire qu’ils ne sont pas légitimes.

Pour moi, il est nécessaire de ne pas considérer ces outils comme décorrélés de notre société. Au même titre que tout ce qu’on va mettre entre les mains de ses enfants, on doit aussi s’y pencher, réfléchir à ce qu’on souhaite pour eux et leur proposer des contenus intéressants. Je dis souvent que si on veut qu’un enfant lise Stendhal, il faut avoir Stendhal dans sa bibliothèque.

Cette question du temps d’écran est-elle uniquement une préoccupation qui concerne les enfants ? Qu’en est-il des adultes ?

C’est assez amusant de regarder le rapport entre les adultes et les enfants autour de cette « consommation » des écrans. Les adultes vont consommer beaucoup plus de contenus numériques que les enfants. Mais ils vont quand même juger les pratiques numériques des plus jeunes, comme si c’était forcément excessif ou idiot.

Certains adultes viennent aussi me voir pour réduire leur temps d’écran. Pour eux, les écrans sont devenus un refuge pour arrêter de penser – quand on « scrolle » à l’infini les plates-formes sur les réseaux sociaux par exemple, dans le seul objectif de se remplir de contenus en permanence. C’est quelque chose qui existait déjà avant le confinement et ça peut arriver à tout le monde. Lorsqu’on a eu une sale journée, on peut avoir envie de se perdre plusieurs heures dans les écrans. Le problème, c’est quand on le fait pour éviter de se confronter à la réalité de manière durable.

Ce qu’il faut absolument faire dans le numérique, qu’on parle des enfants, des seniors, des adultes, ou peu importe, c’est reprendre la maîtrise de nos outils. C’est pour ça que j’insiste sur le fait que le temps d’écran n’a pas de valeur. Ce n’est pas pour dire qu’on a le droit de passer vingt-quatre heures sur vingt-quatre devant des écrans et que ça n’aura pas d’impacts négatifs. Mais on ne peut pas continuer à taper dessus en considérant que le numérique serait une sorte de bulle à part qui est venue empiéter sur nos vies. Quand on comprendra ça, on aura fait un pas de géant dans l’accompagnement et la prévention du numérique.

« Pour une évaluation pertinente du plan de relance»

« Pour une évaluation pertinente du plan de relance»

Pour Jean-Hervé Lorenzi président du Cercle des économistes., « Ce plan doit être non pas commenté ou critiqué en fonction d’une quelconque opinion politique mais évalué de manière non biaisée ». Tribune dans le Monde

 

Des plans de relance en France, il y en a eu pléthore. Chaque fois que notre économie a été soumise à un choc, nous ne nous sommes pas privés de vouloir relancer la machine avec plus ou moins de bonheur. Rappelons-nous, pour la période récente, de ceux de 1975, 1981 ou de 2008 sans oublier l’illustre prédécesseur en 1879 avec Charles de Freycinet.

Mais celui qui nous a été présenté jeudi est unique en son genre. Pourquoi ? Parce qu’il correspond à une situation que le monde n’a jamais connue d’arrêt de l’économie brutal sans origine ni financière ni de l’économie réelle. Et puis surtout, la volonté sous jacente des pouvoirs publics n’est pas que de redonner quelque vigueur à l’activité mais d’en profiter pour sortir notre économie du cercle vicieux dans lequel nous nous sommes mis depuis vingt ans et dont les résultats sont à la hauteur des erreurs politiques qui furent commises sur le travail, sur le fonctionnement des services publics, sur la dérive des comptes publics…

Ce plan doit être non pas commenté ou critiqué en fonction d’une quelconque opinion politique mais évalué de manière non biaisée. Pour cela il nous faut répondre à cinq questions. Est-il suffisant ? Est-il équilibré entre une politique de l’offre et de la demande ? Prend-il assez en compte les transformations technologiques dans les investissements prévus ? Est-il susceptible d’être mis efficacement en œuvre. Enfin sera-t-il porté par la majorité des acteurs économiques et sociaux au-delà des discours de circonstance des uns et des autres ?

« Tant que les Français n’auront pas confiance dans la reprise réelle de l’activité, tant qu’ils auront peur pour leur emploi, cette épargne servira de garantie pour le pouvoir d’achat qui pourrait être malmené »

Epargne. C’est à ces questions que les Rencontres économiques d’Aix du 12 et 13 septembre vont tenter de répondre et la conclusion de ces journées de travail sera sûrement claire et précise dans son jugement. On peut déjà répondre partiellement à ces questions. Ce plan est évidemment suffisant, d’une ampleur inégalée. Mais il faudra l’accompagner d’une autre action forte. Les Français auront épargné 100 milliards d’euros et s’ils ne se sentent pas en confiance, ils ne modifieront pas leur stratégie d’épargne de précaution. Il s’agit en fait du volet nécessaire de la demande car ne nous y trompons pas, le plan de relance proprement dit est fondamentalement tourné vers l’offre, à juste titre.

Cette transformation partielle ou totale de l’épargne est une condition nécessaire pour deux raisons. C’est de fait une épargne à court terme mais il faut qu’une partie corresponde à l’investissement. Or, aujourd’hui rien n’est prévu pour canaliser des fonds vers le financement de l’économie. Notamment, rien n’est fait sur le logement dont on sait qu’au-delà même de la Covid, le trend de construction est très insuffisant par rapport aux besoins. Mais il faut aussi penser à la consommation dont on voit qu’elle stabilise à un niveau insuffisant. Tant que les Français n’auront pas confiance dans la reprise réelle de l’activité, tant qu’ils auront peur pour leur emploi, cette épargne servira de garantie pour le pouvoir d’achat qui pourrait être malmené. C’est là la partie la plus difficile que le gouvernement aura à traiter dans les semaines qui viennent. Il n’y aura pas de miracle mais la prise de parole publique sera dans ce domaine, déterminante.

Jean-Hervé Lorenzi est président du Cercle des économistes.

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol