Archive pour le Tag 'performance'

Entreprises-La confiance : levier de performance !

Entreprises-La confiance : levier de performance  !

. Alors que les bouleversements technologiques, climatiques, géopolitiques et sociétaux modifient considérablement les modes de travail et de gouvernance, Frédéric Lafage, président de la Fédération Cinov, invite les acteurs économiques à embrasser un changement de paradigme radical pour faire de la confiance la pierre angulaire de leur action. Par Frédéric Lafage, Président de la Fédération Cinov, organisation patronale représentative de la branche Bureaux d’études techniques, cabinets d’ingénieurs-conseils et sociétés de conseil (BETIC)- dans la Tribune.
Une contribution très intéressante mais qui n’assiste sans doute pas suffisamment sur la concertation, la participation bref la démocratisation dans l’entreprise surtout dans un pays où le centralisme alimente toute la culture  y compris dans beaucoup trop d’entreprises NDLR

La confiance est une composante essentielle de la vie en société. Sans elle, les systèmes de gouvernance des organisations et des projets sont fragilisés, une réalité que chacun peut observer dans sa vie citoyenne, professionnelle et personnelle. La gouvernance se voit ébranlée au gré des bouleversements sociaux et des crises qui se multiplient. Un constat s’impose alors : nous évoluons aujourd’hui dans une société qui tend à se transformer en une société de défiance, ce qui nous oblige à repenser nos modes de gouvernance pour rétablir la confiance et la stabilité.

Les avancées technologiques, la digitalisation, les défis climatiques et environnementaux, les bouleversements géopolitiques, les révolutions sociétales et culturelles ainsi que la crise sanitaire mettent régulièrement à l’épreuve la société française et sa vie économique, et donc les entreprises en première ligne. Ces dernières doivent reconsidérer l’intégralité de leur vision stratégique à l’aune de ces bouleversements majeurs qui transforment leurs activités. Un travail d’ampleur nécessaire qui assure leur pérennité !

À cela s’ajoutent des évolutions réglementaires régulières, qui renforcent les exigences imposées aux entreprises, exigences qui inhibent la créativité, créent une situation de repli sur soi et de défiance entre les acteurs, contribuant ainsi à un climat d’anxiété lié à un environnement de plus en plus complexe et incertain.

Ce climat de défiance qui s’est installé dans la société s’est naturellement répercuté dans les relations professionnelles. Cela se manifeste concrètement dans les projets de terrain, où chaque partie prenante est centrée sur sa tâche, sans vision globale ni souci de la qualité d’usage in fine produite. Une organisation en silos où le risque est vécu comme une responsabilité à éviter, voire à reporter sur un autre acteur du projet : un cercle vicieux où l’audace de l’innovation est sacrifiée sur l’autel de la défiance. Et penser que le problème vient d’ailleurs, que « l’enfer c’est les autres », c’est précisément le problème !

La défiance actuelle entre les parties prenantes d’un projet, par exemple dans un domaine dont la chaîne de valeur est aussi prolifique que la construction, a un impact direct sur la qualité des réalisations, les relations professionnelles, le nombre de litiges, les délais de construction et la compétitivité du secteur dans son ensemble.

Pour réussir les transitions en cours et faire face à un environnement incertain, complexe et intrinsèquement plus « risqué », il est impératif de rétablir la confiance entre les acteurs et de mettre fin à ce repli sur soi afin d’atteindre deux objectifs majeurs : la performance à la fois technique et financière, et la réponse aux attentes en termes de qualité des prestations attendues.

Il est possible, à l’issue d’un travail d’analyse de ses propres expériences, de dégager les axes permettant de concevoir une « bulle de confiance » propice à l’efficacité opérationnelle, à la performance économique, à l’amélioration des relations entre les différents acteurs, et donc à la réussite d’un projet. Cette « bulle de confiance » peut être définie comme un espace collaboratif où les parties prenantes sont plus et mieux impliquées, où la confiance et le respect mutuel favorisent une approche globale, et où l’objectif n’est plus seulement le respect de ses propres engagements contractuels, mais la satisfaction du travail collectif accompli et la qualité de la réponse globale apportée à l’usager, quel qu’il soit.

Un récent travail d’analyse de projets de terrain réalisé par des enseignants-chercheurs et des professionnels du secteur de la construction a ainsi permis d’identifier les critères de cette « bulle de confiance ». Leur mise en œuvre nécessitera des échanges et des investissements pour faire évoluer certaines pratiques. Mais le prix à payer sera faible pour s’extraire des absurdités imposées par le « court-termisme » - avec les conséquences financières, de qualité et de dégradations sociales qui en découlent - et pour s’inscrire dans une démarche résolument pérenne. Les conditions pour créer une telle « bulle de confiance » existent.

Il appartient désormais aux partenaires économiques d’adhérer sincèrement à ce changement de paradigme pour faire des choix pertinents pour eux, pour leurs clients, et pour répondre aux défis actuels et à venir !

_______

(*) Frédéric Lafage est, depuis 2018, Président de la Fédération Cinov, organisation patronale représentative de la branche BETIC. En dehors de ses engagements syndicaux, il est Président-Fondateur du groupe Lacort. Il est également expert judiciaire en acoustique, spécialisé dans l’ingénierie acoustique et vibratoire, la formation et le conseil.

Logement et performance énergétique: l’évaluation remise en cause

Logement et performance énergétique: l’évaluation remise en cause

Le Conseil d’analyse économique (CAE) souligne l’écart considérable entre les diagnostics officiels et les données réelles des logements et remet donc en cause les conditions de l’évaluation des DPE.

Ces DPE, obligatoires depuis depuis le 1er janvier 2023 évaluent de façon très théorique la performance énergétique. les logements étiquetés G+ sont interdits à la location, suivis en 2025, 2028 et 2034 de l’ensemble des logements G, F et E, synonymes de passoires thermiques, ces logements qui laissent passer le froid en hiver et le chaud en été. A l’inverse, en haut du classement, les classes A, B, C, qui se retrouvent surtout dans le parc immobilier neuf, et même D, se retrouvent dans les habitats sains. Cet étiquetage est indispensable ne serait-ce que pour mener à bien des travaux de rénovation.

D’après un large panel, l’étude l’écart de consommation d’énergie au mètre carré entre un habitat mal classé et un bien classé est six fois moins fort que celui prédit par le DPE. En théorie, les logements étiquetés A et B n’excèdent pas une consommation moyenne de 83 kilowattheures par mètre carré et par an, tandis que les G consomment 560% de plus avec 548 kWh/m²/an. Sur le terrain, l’écart n’est « que » de + 85% et ce quelle que soit la surface.

En clair le conseil d’analyse économique remet sérieusement en cause la pertinence de la mesure de performance énergétique qui dépend surtout en réalité du comportement des ménages.

Logement : Le calcul de la performance énergétique remis en cause

Logement : Le calcul de la performance énergétique remis en cause

Le Conseil d’analyse économique (CAE) souligne l’écart considérable entre les diagnostics officiels et les données réelles des logements et remet donc en cause les conditions de l’évaluation des DPE.

Ces DPE, obligatoires depuis depuis le 1er janvier 2023 évaluent de façon très théorique la performance énergétique. les logements étiquetés G+ sont interdits à la location, suivis en 2025, 2028 et 2034 de l’ensemble des logements G, F et E, synonymes de passoires thermiques, ces logements qui laissent passer le froid en hiver et le chaud en été. A l’inverse, en haut du classement, les classes A, B, C, qui se retrouvent surtout dans le parc immobilier neuf, et même D, se retrouvent dans les habitats sains. Cet étiquetage est indispensable ne serait-ce que pour mener à bien des travaux de rénovation.

D’après un large panel, l’étude l’écart de consommation d’énergie au mètre carré entre un habitat mal classé et un bien classé est six fois moins fort que celui prédit par le DPE. En théorie, les logements étiquetés A et B n’excèdent pas une consommation moyenne de 83 kilowattheures par mètre carré et par an, tandis que les G consomment 560% de plus avec 548 kWh/m²/an. Sur le terrain, l’écart n’est « que » de + 85% et ce quelle que soit la surface.

En clair le conseil d’analyse économique remet sérieusement en cause la pertinence de la mesure de performance énergétique qui dépend surtout en réalité du comportement des ménages.

Logement et performance énergétique: l’évaluation remise en cause

Logement et performance énergétique: l’évaluation remise en cause

Le Conseil d’analyse économique (CAE) souligne l’écart considérable entre les diagnostics officiels et les données réelles des logements et remet donc en cause les conditions de l’évaluation des DPE.

Ces DPE, obligatoires depuis depuis le 1er janvier 2023 évaluent de façon très théorique la performance énergétique. les logements étiquetés G+ sont interdits à la location, suivis en 2025, 2028 et 2034 de l’ensemble des logements G, F et E, synonymes de passoires thermiques, ces logements qui laissent passer le froid en hiver et le chaud en été. A l’inverse, en haut du classement, les classes A, B, C, qui se retrouvent surtout dans le parc immobilier neuf, et même D, se retrouvent dans les habitats sains. Cet étiquetage est indispensable ne serait-ce que pour mener à bien des travaux de rénovation.

D’après un large panel, l’étude l’écart de consommation d’énergie au mètre carré entre un habitat mal classé et un bien classé est six fois moins fort que celui prédit par le DPE. En théorie, les logements étiquetés A et B n’excèdent pas une consommation moyenne de 83 kilowattheures par mètre carré et par an, tandis que les G consomment 560% de plus avec 548 kWh/m²/an. Sur le terrain, l’écart n’est « que » de + 85% et ce quelle que soit la surface.

En clair le conseil d’analyse économique remet sérieusement en cause la pertinence de la mesure de performance énergétique qui dépend surtout en réalité du comportement des ménages.

Logement : Le calcul de la performance énergétique remis en cause

Logement :Le calcul de la performance énergétique remis en cause

Le Conseil d’analyse économique (CAE) souligne l’écart considérable entre les diagnostics officiels et les données réelles des logements et remet donc en cause les conditions de l’évaluation des DPE.

Ces DPE, obligatoires depuis depuis le 1er janvier 2023 évaluent de façon très théorique la performance énergétique. les logements étiquetés G+ sont interdits à la location, suivis en 2025, 2028 et 2034 de l’ensemble des logements G, F et E, synonymes de passoires thermiques, ces logements qui laissent passer le froid en hiver et le chaud en été. A l’inverse, en haut du classement, les classes A, B, C, qui se retrouvent surtout dans le parc immobilier neuf, et même D, se retrouvent dans les habitats sains. Cet étiquetage est indispensable ne serait-ce que pour mener à bien des travaux de rénovation.

D’après un large panel, l’étude l’écart de consommation d’énergie au mètre carré entre un habitat mal classé et un bien classé est six fois moins fort que celui prédit par le DPE. En théorie, les logements étiquetés A et B n’excèdent pas une consommation moyenne de 83 kilowattheures par mètre carré et par an, tandis que les G consomment 560% de plus avec 548 kWh/m²/an. Sur le terrain, l’écart n’est « que » de + 85% et ce quelle que soit la surface.

En clair le conseil d’analyse économique remet sérieusement en cause la pertinence de la mesure de performance énergétique qui dépend surtout en réalité du comportement des ménages.

Ferroviaire : La problématique de la performance des TER

Ferroviaire : La problématique de la performance des TER


Sur les services TER, à compter de décembre 2023, à l’exception de l’Île-de-France qui a un calendrier spécifique, les régions auront l’obligation de lancer des appels d’offres à la fin de leur contrat d’exploitation signé avec SNCF Voyageurs, et ce pour un délai maximum de dix ans. Cette possibilité de s’ouvrir à la concurrence est offerte depuis décembre 2019. Certains territoires ont déjà renouvelé leur confiance au transporteur historique, comme les Pays de la Loire au début du mois de juin ou les Hauts de France en mars de cette année. Provence-Alpes-Côte d’Azur a fait le choix de la nouveauté : à partir de juillet 2025 et pour dix ans, c’est Transdev qui s’occupera de 10% des TER sur la ligne Marseille-Toulon-Nice. Faut-il néanmoins tout attendre de cette ouverture ? Certes, l’idée est d’être plus efficace et de mieux maîtriser des coûts qui suivent une trajectoire inquiétante. Néanmoins, la mauvaise qualité de service sur un réseau TER peut être due à bien d’autres facteurs face auxquels un nouveau transporteur s’avèrerait tout aussi impuissant que SNCF Voyageur. Un réseau de mauvaise qualité ou saturé par exemple.


par Christian Desmaris, Université Lumière Lyon 2 et Guillaume Monchambert, Université Lumière Lyon 2

Une réflexion intéressante mais qui n’insiste pas suffisamment sur le problème fondamental de l’imputation des charges d’infrastructure et les rigidités structurelles qui plombent la compétitivité . NDLR

Nos travaux ont ainsi tenté de faire la part des choses. Où et dans quelle mesure le transporteur ne propose-t-il pas un service optimal étant donné l’environnement dans lequel il évolue ?

L’enjeu, maîtriser les coûts

Revenons en premier lieu sur l’évolution du paysage de ces dernières années.

Les contributions publiques totales allouées à la SNCF, au titre de l’activité TER, ont augmenté de manière soutenue et quasi constante. En 2002, ces transferts publics étaient de l’ordre de 1,986 milliard d’euros ; en 2017, ils s’élevaient à 3,379 milliards d’euros. Cela correspond à une augmentation de 70% en quinze ans, ce qui représente une hausse moyenne annuelle de 3,6%.

Cette croissance n’aurait rien d’inquiétant si elle s’expliquait par des efforts d’investissement dans le matériel roulant, la modernisation des gares ou le réseau ferroviaire. Or, cela est loin d’être le cas : leur part s’est sensiblement réduite après la crise économique de 2008. D’une moyenne de 26,7% des contributions sur la période 2002-2009, elle est descendue à 14,8% sur les années 2010-2017.

La hausse des subventions publiques s’explique ainsi surtout par la progression du financement du déséquilibre d’exploitation de ce service assuré par la SNCF. Ce service est largement subventionné, de l’ordre de 80 % de son coût en moyenne.

La dynamique est impressionnante : les sommes allouées à cette fin ont plus que doublé entre 2002 et 2017 (5,2 % d’augmentation annuelle moyenne). Il n’y aurait, une nouvelle fois, pas de quoi s’alerter si cela avait pour corollaire une augmentation du volume des prestations de services commandées par les régions à la SNCF. Ce n’est, ici non plus, pas vraiment le cas. Le nombre de kilomètres commandés n’a augmenté que de 18 % entre fin 2002 et fin 2017. Le volume de service s’est même réduit depuis son maximum en 2011.

La subvention publique pour faire circuler un TER sur un kilomètre est ainsi passée de 9,45 euros en 2002 à 17,16 euros en 2017 en moyenne. Une part significative de cette hausse relève, d’après la Cour des comptes, de la progression des coûts de production de l’opérateur ferroviaire. C’est dans ce contexte que questionner sa performance productive semble primordial.

Qui est responsable de quoi ?

L’exercice n’est cependant pas aisé : dans cette progression des coûts de production ferroviaire, tout n’incombe pas au transporteur qu’est SNCF Voyageurs. La performance productive dépend aussi de la qualité des infrastructures sur lesquelles les trains circulent et dont la responsabilité incombe à SNCF Réseau, une entité bien distincte. Elle dépend aussi des orientations données par les autorités organisatrices des transports (les régions en l’occurrence), des contrats passés avec celles-ci et qui varient fortement d’un territoire à un autre. Elles peuvent elles-mêmes faire le choix d’investir dans les gares, dans les rénovations des voies. Elles influent sur les choix de matériel roulant.

Outre les interactions entre ces trois acteurs, l’environnement sociétal importe également : la densité démographique ou le taux d’incivilité ont des impacts conséquents sur les performances des TER. Des paramètres économiques interviennent de même, comme les taux de motorisation, l’importance d’une clientèle captive ou occasionnelle du train, la possibilité de réaliser des économies d’échelle… Il faut aussi composer avec les autres services présents sur le réseau (Inouï, Ouigo, fret, Intercités) qui peuvent amener une congestion et dégrader la performance des TER.

En définitive, il est bien difficile de déterminer ce qui, dans la performance du service délivré, incombe au comportement de chaque acteur, et notamment de l’opérateur ferroviaire. Les ratios utilisés par la Cour des comptes ou l’ART (Autorité de régulation des transports) dans son bilan annuel s’avèrent insuffisants. C’est à y remédier que notre étude s’est attelée.

La SNCF, à 82 % de ses capacités

Notre étude met à profit, sur la période 2012-2016, deux bases de données jamais exploitées jusqu’alors. Elles nourrissent une méthodologie d’estimation d’une « frontière de production », développée notamment par Philippe Aghion, professeur au collège de France. Il s’agit de mesurer le volume de production théoriquement atteignable étant donné les technologies et ressources matérielles et humaines à disposition, puis de comparer la performance d’un opérateur avec cet optimum. Dit autrement, on se demande si avec les ressources à disposition, il ne serait pas possible de produire plus de train-kilomètre, ou si l’on pourrait parcourir les mêmes distances en sollicitant moins de ressources.

Le modèle dissocie ainsi les coûts de personnel à bord et en gare par exemple, mais n’inclut pas ceux des péages à verser à SNCF Réseau pour engager un train sur un sillon, car l’opérateur n’en a pas la maîtrise. Tout un ensemble de variables supposées contribuer à la performance productive est inclus.

Trois résultats majeurs en ressortent. En moyenne, les opérateurs ferroviaires régionaux de la SNCF obtiennent un score d’efficience de 82,2 %. Ils auraient pu ainsi, sur la période étudiée, baisser d’environ 18 % leur coût de production si l’on prend comme base les meilleures performances obtenues par la SNCF en région. Cela suggère que, même si la SNCF n’est pas la seule responsable de cette dérive des coûts, elle l’est en partie tout de même. Le score de 100 % représente la frontière de production, c’est-à-dire la production maximale avec le système productif de notre échantillon. Soulignons que cette estimation ne dit rien du gain de coût qui pourrait être obtenu avec un autre opérateur ferroviaire que la SNCF.

Le second résultat concerne la disparité des scores d’efficacité productive selon les régions. L’éventail est très ouvert. Les scores varient de 97,8 % à 59,3 %. Aucune région n’est à 100 %, car toutes sous-optimisent l’utilisation d’au moins un des facteurs de production. Deux régions TER peuvent ainsi recevoir une mention « Excellent » : Rhône-Alpes et la Bretagne. Quatre autres régions « Bien » l’Alsace et la Lorraine par exemple. À l’opposé, cinq régions TER sont peu performantes, dont la Picardie ou le Languedoc-Roussillon. La Haute-Normandie finit au fond du classement. Nombre de régions pourraient ainsi progresser sans changer d’opérateur, si elles bénéficiaient des conditions qui font la performance dans les meilleurs d’entre elles.

Plusieurs régions ont depuis cette étude recontractualisé avec la SNCF. Dans le cas de la région Provence-Alpes-Côte d’Azur, les deux premiers appels d’offres, dont l’un a été remporté par la SNCF et l’autre par Transdev, « Intermétropoles », ont permis de presque doubler l’offre dans ces lots, pour une contribution publique équivalente ou en baisse. Ce résultat, a priori peu attendu, tient au cercle vertueux sur les recettes de trafic d’une augmentation d’offre de service, et ce plus encore dans les zones particulièrement denses.

Le troisième résultat est davantage méthodologique. Les méthodes d’évaluation habituelles donnent des résultats peu convergents avec les nôtres. Cela renforce l’idée que les méthodes économétriques ont aussi un rôle à jouer en complémentarité des méthodologies usuelles.

Quels leviers ?
L’analyse nous conduit à formuler plusieurs indications à destination des décideurs publics comme des opérateurs.

La première est que la SNCF a beaucoup à faire pour optimiser ses coûts de production. D’après la Cour des comptes, il semblerait que la gestion du facteur travail puisse être davantage optimisée, par réduction de l’absentéisme notamment, ou en modifiant certaines dispositions de l’organisation du travail, pour davantage de polyvalence.

Il s’agit aussi de travailler sur l’environnement dans lequel le service est exécuté. Une étude montre par exemple que le degré de respect de l’ordre social, approximé par le taux de délinquance régionale, s’avère fortement corrélée avec une faible efficience ferroviaire.

L’efficience productive résulte aussi de certains paramètres physiques du système de production ferroviaire. La qualité du réseau (vitesse maximale, voie unique ou double, électrification…), mais aussi le nombre de gares, semble avoir un impact positif considérable sur l’efficience productive, de même que la longueur du réseau qui permet d’obtenir des économies d’échelle. Ces paramètres s’imposent à tous les opérateurs.

On observe également que la contractualisation et les modes de gouvernance reliant l’opérateur à la collectivité régionale ont un impact important. Plus l’efficience est basse, plus le contrat est long et volumineux. Cela suggère que là où la performance productive est la plus faible, les régions seraient enclines à resserrer les contraintes imposées à l’opérateur, en spécifiant chaque détail de la contractualisation. Ce résultat se trouve illustré par la forte corrélation entre le coût par train-kilomètre et la longueur du contrat.

Par ailleurs, les modes de gouvernance faisant appel à des logiques « incitatives », plus qu’à des logiques « hiérarchiques » (injonctives) ou « de confiance » (coopératives), semblent les plus à même à s’accompagner de hauts niveaux d’efficience. Ces points qui, en l’état, constituent des hypothèses de travail fortes, mériteraient d’être approfondis.

Et aujourd’hui ?
La contractualisation s’avère au final un des leviers d’amélioration de la performance des TER qui, en cette période d’ouverture à la concurrence, mérite la plus grande attention des régions, mais aussi du régulateur, qui aurait avantage à mettre à disposition des parties prenantes davantage de données.

Au niveau de l’ensemble des régions, la situation s’est améliorée. L’offre de service réaugmente et la subvention par train-kilomètre de 2021 s’est stabilisée au niveau de 2019. En outre, les régions boostent l’investissement en nouveaux matériels et dans les voies.

L’avenir semble ainsi prometteur. Plusieurs régions ont, depuis cette étude, recontractualisé avec la SNCF et il semblerait que l’enjeu de maîtrise des coûts ait été intégré, pour le moins dans certains cas. Fin 2021, en région Provence-Alpes-Côte d’Azur, les deux appels d’offres, dont l’un a été remporté par la SNCF, « Azur », l’autre par Transdev, « Intermétropoles », promettent de presque doubler l’offre dans ces lots, à l’horizon 2025, pour une contribution publique équivalente ou en baisse. Ce résultat, a priori peu attendu, tient au cercle vertueux sur les recettes de trafic d’une augmentation d’offre de service, et ce plus encore dans les zones particulièrement denses.

_______
Par Christian Desmaris, Maître de Conférences en Économie, Sciences Po Lyon, Université Lumière Lyon 2 et Guillaume Monchambert, Maître de conférences en économie, Université Lumière Lyon 2

Simplification de l’entreprise : un enjeu de performance

Simplification de l’entreprise  : un enjeu de performance

 

 Rémy Boulesteix, associé KPMG, et Florent Chapus, directeur associé d’EIM soulignent  dans la Tribune  l’intérêt de la simplification du fonctionnement de l’organisation, au service de la performance et du rebond. Une approche largement plébiscitée par des dirigeants d’entreprise.

 

 

Cette nouvelle approche de la gouvernance d’entreprise, destinée à décomplexifier la prise de décision, est à l’origine d’une plus grande agilité dans l’exécution de la stratégie et d’une réaffirmation d’une vision à long terme pour l’entreprise. Elle induit cependant, dans un premier temps, un resserrement des liens entre les membres de l’équipe de direction, permettant une collaboration encore plus intégrée entre les fonctions clés de la société.

Resserrer l’équipe dirigeante pour accélérer la prise de décision

Simplifier la prise de décision est un levier essentiel pour aider l’entreprise à mieux faire face à des crises telles que celle que nous venons de vivre. Ce processus est conditionné par une pleine solidarité et une collaboration renforcée des instances de direction. Cela implique de « bien aligner l’équipe dirigeante de manière à assurer un niveau d’implication et un équilibre des compétences adaptés aux circonstances », comme le souligne Patrick Bléthon, directeur général de Saur.

Dans une phase où les demandes du terrain frôlent la saturation, chaque direction stratégique doit pouvoir assumer la gestion des problématiques non critiques, et apporter – en bonne intelligence avec le reste de l’équipe – des éléments de réflexion tangibles au dirigeant pour permettre « une rapidité dans l’exécution et la transformation, essentielle pour assurer la réactivité de l’organisation face à ses impératifs stratégiques », selon Philip Demeulemeester, directeur général d’Aldi France. De ces inflexions, pourront découler des objectifs clairs pour les managers sur le terrain qui doivent, parallèlement, bénéficier d’une plus grande marge de manœuvre.

Décentraliser la gestion et le management pour renforcer l’agilité des équipes

« Un management exclusivement top-down ne permet pas de relever les défis de la croissance, bien au contraire » rappelle Bertrand Dumazy, PDG d’Edenred. Face à un environnement de plus en plus complexe et une conjoncture incertaine, la décentralisation du management est ainsi un facteur de performance et de résilience à ne pas négliger. Pour cette raison, les décisionnaires sur le terrain doivent pouvoir bénéficier d’un droit à la prise de risque, en vertu de leurs compétences spécifiques et de leurs connaissances des équipes qui évoluent auprès d’eux. Et ce, avec le niveau d’autonomie nécessaire pour ne pas avoir à rendre des comptes systématiques ou attendre des validations à différents niveaux hiérarchiques avant de passer à l’action.

Cette horizontalisation de la prise d’initiative induit néanmoins chez le dirigeant un fort engagement en termes de communication et de transmission d’informations afin de formuler des ambitions claires. Par ce biais, il doit ainsi faire en sorte que les managers disposent de toutes les données nécessaires pour identifier par eux même les moyens d’atteindre les résultats attendus. Cela implique, parallèlement, des lignes de fuite explicites quant au positionnement de l’entreprise à plus long terme.

Réintroduire du temps long pour créer un horizon commun

Pour permettre aux fonctions opérationnelles d’être efficaces dans un contexte tendu, il est capital qu’elles connaissent la direction que souhaite emprunter l’entreprise et la manière dont elles peuvent s’inscrire dans l’atteinte de ses buts à moyen et long terme. À ce titre, l’équipe de direction est amenée à jouer un rôle important, via le discours et les actes managériaux, afin de « redonner du sens à l’action des équipes via une reconnaissance explicite, les raccrocher à la stratégie et les faire adhérer à une vision du business », pour reprendre les mots de Gilles Clavié, directeur général d’AccorInvest.

Par ce biais, s’établit une hiérarchie des priorités et un horizon commun à l’ensemble des collaborateurs, qui permet de faire (en partie) taire les doutes et les incertitudes qui surviennent naturellement dans une période de crise. C’est avec des perspectives simples et des convictions partagées par toutes les équipes que le collectif pourra garder confiance en l’avenir et faire preuve de positivisme et de résilience face aux difficultés qui s’annoncent dans les prochains mois : inflation, remboursement des PGE, guerre des talents…

Écologie-Performance énergétique ou performance environnementale ?

Écologie-Performance énergétique ou performance environnementale ?

 

L’ancien ministre de l’écologie , Brice Lalonde, Président de l’association Equilibre des énergies,  revient, dans une tribune au « Monde », sur le vote par l’Assemblée nationale de l’interdiction de louer des « passoires énergétiques », et sur le mode d’évaluation discutable, selon lui, du diagnostic de performance énergétique (DPE), qui favorise le chauffage au gaz.

 

Tribune. 
Entre l’engagement solennel de réduire les émissions de gaz à effet de serre et sa mise en œuvre s’intercale un espace obscur où les règles anciennes et les influences occultes peuvent aboutir au résultat inverse. C’est le danger qui guette la loi Climat et résilience dans ses articles sur le bâtiment. 

Le gros morceau, c’est la rénovation du parc existant que les parlementaires, à la suite de la convention citoyenne pour le climat, veulent renforcer. Pour montrer sa détermination, l’Assemblée a voté l’interdiction de louer des logements trop énergivores. Ainsi 4,8 millions de logements pourraient sortir du marché de la location si leurs propriétaires ne se hâtent pas d’améliorer leur performance énergétique.

Bien évaluer la performance des bâtiments

Des dispositions aussi sévères doivent être fondées sur une évaluation indiscutable de la performance des bâtiments. C’est le rôle du diagnostic de performance énergétique (DPE), dont l’administration vient de présenter une nouvelle mouture, désormais opposable. Le logement évalué sera rangé selon ses mérites dans une des sept classes étiquetées de A à G. Une rénovation réussie élève le logement dans l’échelle du DPE et accroît sa valeur sur le marché.

 

Chaque classe du DPE est déterminée par deux seuils : l’un pour l’émission de CO2, l’autre pour la consommation d’énergie. C’est l’indicateur COqui mesure la performance climatique puisque le but est de réduire les émissions qui dérèglent le climat. Les classes F et G désignent les « passoires énergétiques » que l’on ne pourra plus louer. En apparence tout est parfait… En apparence seulement. 

« L’indicateur COne joue pas son rôle, c’est de la poudre aux yeux »

Car la contrainte COn’existe pas. Le DPE nouveau la « desserre » de 30 % par rapport à l’échelle précédente, qui était déjà bien clémente. Calée sur les émissions des logements chauffés au gaz, elle fait du gaz la référence comme si l’Etat considérait cette énergie fossile comme le compagnon de route préféré du climat. L’indicateur COne joue pas son rôle, c’est de la poudre aux yeux.

C’est donc la performance énergétique qui continuera à déterminer le classement, et non la performance climatique. Or les deux ne se recouvrent pas. L’économie d’énergie est bien entendu un moyen au service de la réduction des émissions quand il s’agit des énergies fossiles responsables du dérèglement climatique. Mais lorsque l’énergie est décarbonée, elle n’affecte pas le climat. Centrer l’action climatique sur l’économie d’énergie au lieu de la réduction des émissions de CO2, c’est taper sur le mauvais clou.

Performance énergétique ou performance environnementale ?

Performance énergétique ou performance environnementale ?

 

L’ancien ministre de l’écologie , Brice Lalonde, Président de l’association Equilibre des énergies,  revient, dans une tribune au « Monde », sur le vote par l’Assemblée nationale de l’interdiction de louer des « passoires énergétiques », et sur le mode d’évaluation discutable, selon lui, du diagnostic de performance énergétique (DPE), qui favorise le chauffage au gaz.

 

Tribune. 
Entre l’engagement solennel de réduire les émissions de gaz à effet de serre et sa mise en œuvre s’intercale un espace obscur où les règles anciennes et les influences occultes peuvent aboutir au résultat inverse. C’est le danger qui guette la loi Climat et résilience dans ses articles sur le bâtiment. 

Le gros morceau, c’est la rénovation du parc existant que les parlementaires, à la suite de la convention citoyenne pour le climat, veulent renforcer. Pour montrer sa détermination, l’Assemblée a voté l’interdiction de louer des logements trop énergivores. Ainsi 4,8 millions de logements pourraient sortir du marché de la location si leurs propriétaires ne se hâtent pas d’améliorer leur performance énergétique.

Bien évaluer la performance des bâtiments

Des dispositions aussi sévères doivent être fondées sur une évaluation indiscutable de la performance des bâtiments. C’est le rôle du diagnostic de performance énergétique (DPE), dont l’administration vient de présenter une nouvelle mouture, désormais opposable. Le logement évalué sera rangé selon ses mérites dans une des sept classes étiquetées de A à G. Une rénovation réussie élève le logement dans l’échelle du DPE et accroît sa valeur sur le marché.

 

Chaque classe du DPE est déterminée par deux seuils : l’un pour l’émission de CO2, l’autre pour la consommation d’énergie. C’est l’indicateur COqui mesure la performance climatique puisque le but est de réduire les émissions qui dérèglent le climat. Les classes F et G désignent les « passoires énergétiques » que l’on ne pourra plus louer. En apparence tout est parfait… En apparence seulement.

« L’indicateur COne joue pas son rôle, c’est de la poudre aux yeux »

Car la contrainte COn’existe pas. Le DPE nouveau la « desserre » de 30 % par rapport à l’échelle précédente, qui était déjà bien clémente. Calée sur les émissions des logements chauffés au gaz, elle fait du gaz la référence comme si l’Etat considérait cette énergie fossile comme le compagnon de route préféré du climat. L’indicateur COne joue pas son rôle, c’est de la poudre aux yeux.

C’est donc la performance énergétique qui continuera à déterminer le classement, et non la performance climatique. Or les deux ne se recouvrent pas. L’économie d’énergie est bien entendu un moyen au service de la réduction des émissions quand il s’agit des énergies fossiles responsables du dérèglement climatique. Mais lorsque l’énergie est décarbonée, elle n’affecte pas le climat. Centrer l’action climatique sur l’économie d’énergie au lieu de la réduction des émissions de CO2, c’est taper sur le mauvais clou.

Quels liens entre performance et salaire

Quels liens entre performance et salaire

 

La plupart des Américains pensent que leur rémunération est liée à leurs performances au travail. Pourtant, dans de nombreux secteurs il est quasiment impossible de quantifier la réussite (Un article du Wall Street Journal)

 

 

Lorsqu’on les interroge, la grande majorité des salariés américains affirment que le premier facteur déterminant leur niveau de rémunération est leur performance individuelle. Je le sais car dans le cadre d’une récente enquête, j’ai posé la question à plus de 1 000 d’entre eux. Parmi une liste de facteurs comprenant l’ancienneté, l’expérience, le niveau d’éducation et les bénéfices apportés à l’entreprise, aux yeux des employés rien ne dépasse la performance individuelle pour expliquer leur niveau de salaire : ainsi, deux tiers d’entre eux sont persuadés qu’elle joue un rôle crucial dans le montant du chiffre inscrit sur leur feuille de paie.

Malgré cette conviction largement répandue, en réalité la plupart d’entre nous ne sommes pas payés en fonction de nos performances individuelles et le petit nombre qui l’est ne cesse de décliner. Les recherches révèlent qu’après avoir augmenté pendant les années 1980, le nombre d’emplois dont les structures de rémunération sont liées à la performance a connu un apogée au début des années 2000 avant de chuter au cours des vingt années qui ont suivi. Dans une enquête de 2009 portant sur plusieurs pratiques de rémunérations au rendement, une équipe de chercheurs a découvert que « relativement peu d’employés percevaient des rémunérations variant en relation directe avec leur productivité, et que la part de ce type de salariés était probablement sur le déclin ». Même chez ceux dont le salaire est en partie lié à des mesures de productivité individuelle, cette proportion ne constitue généralement qu’une fraction de la rémunération totale.

Déjà, une enquête des années 1960 demandait à des cadres supérieurs et à des managers de comparer leurs performances à celles de leurs pairs. L’autoévaluation moyenne se situait dans le 77e percentile, ce qui signifie qu’en moyenne, les personnes interrogées considéraient que leurs performances étaient meilleures que celles des trois-quarts de leurs collègues. Seules deux personnes sur la centaine interrogées y évaluaient leurs performances sous la moyenne

Comment expliquer le décalage entre l’idée que se font les salariés de ce qui influence leur niveau de rémunération et la réalité ? Trois facteurs se dégagent : l’idée de justice, la difficulté de mesurer les performances individuelles dans de nombreux métiers et des désaccords sur ce que signifie vraiment le concept de performance.

En 2008, le quotidien californien The Sacramento Bee a créé un site Internet publiant la rémunération des fonctionnaires de l’Etat. Une équipe de chercheurs a profité de cette divulgation impromptue pour observer la réaction des employés concernés. Ceux qui ont consulté ce site et découvert qu’ils étaient sous-payés comparativement à leurs pairs au même genre de statut ont exprimé de la colère et se sont mis à chercher un autre emploi de façon plus active — ce qui était assez prévisible. En revanche, les fonctionnaires qui ont constaté qu’ils étaient davantage payés que leurs homologues n’ont pas eu de réactions émotionnelles équivalentes. Ils n’ont pas soudain manifesté plus de loyauté envers leurs supérieurs ni plus de satisfaction sur leur lieu de travail. Leur comportement n’a absolument pas changé.

Pourquoi ? En psychologies sociale et économique, on sait depuis longtemps que la plupart d’entre nous sommes convaincus d’être plutôt compétents — et même plus que la plupart de nos collègues. Un peu comme si nous vivions tous à Lake Wobegon, la ville imaginaire de l’émission radiophonique américaine «  Prairie Home Companion  » où « tous les enfants sont au-dessus de la moyenne » — sauf qu’ici, on parle d’adultes.

Cette tendance à nous surestimer nous-mêmes remonte à loin. Déjà, une enquête des années 1960 demandait à des cadres supérieurs et à des managers de comparer leurs performances à celles de leurs pairs. L’autoévaluation moyenne se situait dans le 77e percentile, ce qui signifie qu’en moyenne, les personnes interrogées considéraient que leurs performances étaient meilleures que celles des trois-quarts de leurs collègues. Seules deux personnes sur la centaine interrogées y évaluaient leurs performances sous la moyenne.

C’est une impossibilité mathématique et c’est un casse-tête pour les employeurs qui voudraient rémunérer leurs salariés de façon différentielle en se basant sur une mesure de leur productivité. Une telle démarche serait très mal reçue par de nombreux employés persuadés à tort d’être plus productifs que leurs homologues. Par conséquent, la plupart des employeurs n’essaient pas, et esquivent ainsi les sentiments d’injustice qui naissent quand des salariés pensent mériter davantage que leurs collègues.

Rémunérer des performances individuelles c’est également partir du principe qu’il existe des moyens fiables de le faire. Dans certains secteurs, c’est bien le cas : le transport routier, par exemple, implique de déplacer le plus de marchandises possible d’un point A à un point B, rapidement et en toute sécurité. Mais dans la plupart des autres métiers, ce genre de mesure n’existe pas.

Prenez votre propre cas : existe-t-il un système de mesure consensuel qui détermine votre productivité ? La difficulté à évaluer la contribution individuelle de quelqu’un est particulièrement significative dans les métiers intellectuels collaboratifs dont le nombre n’a fait que croître au cours des dernières décennies, comme les consultants en management, les chargés d’études de marché et les cadres moyens de toutes sortes. Il existe des millions de métiers de ce type aujourd’hui, et pour chacun d’entre eux, condenser les performances individuelles dans une seule mesure quantifiable dépasse nos capacités — pas parce que nous n’avons découvert la bonne unité de mesure, mais parce qu’elle n’existe tout simplement pas.

Même pour les métiers où règnent des normes de performance largement reconnues, les mesures peuvent s’avérer ardues. En médecine par exemple, l’objectif des praticiens est d’améliorer la santé des patients. Mais est-ce que cela signifie qu’ils devraient être payés en fonction de la santé générale de leurs patients plutôt qu’en fonction de l’exécution correcte d’une tâche spécialisée, comme la pose d’une prothèse de hanche ? Et s’il existait d’autres options, moins invasives, mais que le médecin n’était payé que pour des opérations lourdes ? Est-ce ainsi que nous voulons structurer l’attractivité de notre système de santé ?

Au Royaume-Uni, lorsque Tony Blair était Premier ministre, le National Health Service (NHS) avait augmenté l’enveloppe financière des hôpitaux qui réduisaient le temps d’attente des patients. Il est vrai que personne n’aime y végéter des heures ; par conséquent ce temps-là, sans être une mesure directe de la santé, constitue une composante importante du bien-être des personnes. Mais un problème n’avait pas tardé à apparaître : pour atteindre les objectifs de réduction de temps d’attente, les hôpitaux gardaient les patients dans les ambulances avant de les transférer. Pourquoi ? Parce que selon cette mesure de performance particulière, le temps passé dans une ambulance n’était pas comptabilisé comme de l’attente. Comme on le voit, les mesures de performance pour les médecins diffèrent sensiblement à la fois d’un système de santé national à l’autre et à l’intérieur de chacun.

Les querelles autour des définitions secouent tous les métiers. Certains journalistes, par exemple, vous diront que le véritable objectif de leur métier est de produire des enquêtes récompensées, tandis que d’autres estiment que leur mission principale est de générer des revenus. Dans mon propre domaine, l’éducation supérieure, certains professeurs donnent la priorité à l’enseignement tandis que pour d’autres, c’est la recherche qui fait la grandeur (ou pas) d’une université

Dans de nombreux métiers, la définition de la productivité implique des choix et des compromis et il est illusoire de penser qu’il puisse exister une mesure objective unique attendant d’être découverte. En 2014, le groupe de presse Time Inc., qui possédait alors plus de 90 publications, s’est mis à évaluer les performances de ses journalistes en fonction des contenus « bénéfiques aux relations avec les annonceurs ». Cette initiative a déclenché un tollé, pas seulement parmi les employés de Time Inc. mais dans le secteur tout entier. Les journalistes se sont offusqué que l’on puisse réduire leur métier à une mesure aussi grossière. Mais comment mesurer la productivité journalistique ? Par le nombre d’articles écrits par semaine ? Le nombre de mots produits à l’heure ? Quid du temps passé à cultiver ses sources pour les reportages ?

Les querelles autour des définitions secouent tous les métiers. Certains journalistes, par exemple, vous diront que le véritable objectif de leur métier est de produire des enquêtes récompensées, tandis que d’autres estiment que leur mission principale est de générer des revenus. Dans mon propre domaine, l’éducation supérieure, certains professeurs donnent la priorité à l’enseignement tandis que pour d’autres, c’est la recherche qui fait la grandeur (ou pas) d’une université. En d’autres termes, les disputes sémantiques naissent souvent des désaccords sur la définition du « produit » d’une entreprise. Si nous ne sommes pas d’accord sur l’idée de ce que produit notre société, nous ne pourrons pas nous accorder non plus sur la contribution individuelle apportée par chacun de ses employés ; par conséquent, rémunérer les salariés en se basant sur une mesure de productivité va contrarier ceux qui entretiennent une vision différente.

L’idée de justice, des mesures imparfaites et des différends sémantiques : la conséquence de ces facteurs, c’est que la plupart d’entre nous ne sommes pas réellement payés en fonction de nos performances individuelles, malgré ce que nous avons tendance à croire.

— Jake Rosenfeld enseigne la sociologie à l’Université de Washington. Cet essai est adapté de son dernier livre : You’re Paid What You’re Worth : And Other Myths of the Modern Economy (Harvard).

(Traduit à partir de la version originale en anglais par Bérangère Viennot)

Entreprise : Rééquilibrer utilité et performance

Entreprise : Rééquilibrer utilité et performance

 

Michel Bauwens et Raphaële Bidault-Waddington(*)., deux chercheurs militent pour une autre évaluation de la performance des entreprises.

« 

La crise covid-19 a mis à l’arrêt des pans entiers de l’économie. Malgré le dé-confinement, les réglementations, le ralentissement durable, l’incertitude, et les nouvelles normes d’usage remettent en question l’utilité et donc la source de création de valeur et la raison d’être de nombreuses entreprises. La crise accentue également la prise de conscience du caractère si peu durable et potentiellement caduque de nombreuses activités. Il n’y a pas de création de valeur économique sans valeur d’utilité, que celle-ci soit purement fonctionnelle ou d’ordre plus immatériel. Pourquoi relancer une activité à l’identique si celle-ci est en voie d’obsolescence ?

Faillites et chômages vont être les premières conséquences de cette crise paradigmatique et existentielle des organisations économiques. Les entreprises doivent ré-ausculter leurs gisements de valeurs et contributions positives à la société pour devenir résiliente et retrouver leur utilité, leur sens comme leur prospérité. Elles ne peuvent plus simplement servir leurs clients et leurs actionnaires (silo), mais doivent développer des visions éco-systémiques d’elles-mêmes prenant la pleine mesure de leurs différentes chaînes d’impact et de valeur(s), pour devenir robustes et durables. La notion d’impact vient remplacer celle de performance.

Nouvelle forme d’organisation générative

Si les audits de responsabilité sociale (RSE) ont favorisé la prise de conscience et la mesure de ces externalités, cette évaluation doit devenir le cœur de la refondation stratégique des modèles organisationnels et économiques, en tandem avec une réflexion sur leur mission, raison d’être et utilité publique (notion de purpose difficile à traduire). La labellisation des « entreprises à mission » (Loi Pacte, 2019) et des B-Corp sont des processus  qui peuvent aider les entreprises à ré-explorer en profondeur leurs gisements de valeur pour réinventer leur modèle d’affaire et leur modèle social.

La notion émergente d’ »entreprise générative » se présente aussi comme une alternative à l’entreprise « extractive« . Marjorie Kelly en propose une architecture de propriétés intéressante: vocation vitale (vs. vocation financière) ; propriétaires engagés (vs. actionnariat fantôme) ; gouvernance centrée sur la mission (vs pilotage automatique des marchés financiers) ; financeurs partenaires (vs finance « casino ») ; chaînes de valeurs éthiques (vs valeur de marchandise).

 

Le modèles des communs est une autre grille de lecture stratégique de l’entreprise pour comprendre où sont ses potentialités de réinvention, de création d’activité, d’emploi et de valeur, au bénéfice du bien commun. Le modèle des plateformes montre que la formation des communautés est le terreau sur lequel grandit l’économie collaborative. La communauté forme la valeur autour d’une infrastructure qui la catalyse et devient écosystème.

Comment chaque entreprise peut-elle réinvestir et faire éclore (générer) la valeur latente de ses différentes communautés, que ce soit ses salariés, ses clients, ses actionnaires et ses organisations partenaires (économiques, territoriaux, sociaux, culturels, académiques) ? Quelles ressources matérielles et immatérielles, usages et culture ont-elles en communs ? Quels talents former et mobiliser pour donner à l’entreprise sa capacité d’action, de transformation et de résilience (vs. capitaux inertes) ? Et quel contrat de confiance et d’échange peuvent-elle passer avec leurs parties-prenantes internes et externes pour créer ensemble valeur(s) et prospérité partagées ? La fabrique de commun est au cœur de l’entreprise générative de demain.

 

Ce laboratoire du design organisationnel et ontologique qui cherche à refonder l’entreprise, s’accompagne d’un volet comptable. Comment rendre compte des écosystèmes de valeurs et d’impacts multiples qui se forment autour de l’entreprise ?  Là encore, de nombreuses expérimentations existent. Une piste est le développement de comptabilités ‘outside-in‘ qui aide l’entreprise à s’adapter et travailler en intelligence avec la donne publique.

 

Le modèle du mouvement (germanophone) de l’Économie pour le Bien Commun (Felber), propose de faire évaluer l’entreprise par 17 clusters de partie-prenantes et d’impacts autour de l’entreprise. Sa taxation est ensuite ajustée au niveau de ses performances collectives, ce qui l’incite à aller dans la bonne direction. Une autre stratégie consiste à internaliser complètement ces nouvelles orientations, tel que le propose le projet Compta CARE.

Dans ce modèle, l’obligation fiduciaire de gérer et faire fructifier le capital financier, est étendue aux capitaux humain et naturel, formant ainsi les trois capitaux à dorénavant cultiver et préserver.  Les dirigeants deviennent légalement responsable du bon traitement de ces ‘ressources primordiales’. D’autres modèles de comptabilité en « triples capitaux » (Gray) existent. En remettant le bilan de l’entreprise dans une perspective éco-systémique, ils viennent redéfinir la notion même de valeur ajoutée.

 

Des comptabilités ‘post-capitalistes’ voit également le jour, notamment la comptabilité « contributive » adaptée aux entreprises aux cadres légaux flous tels que les communautés auto-organisées du logiciel libre ou des pratiques de design partagé (ex : arduino, wiki-house, open-motors, etc.). Par exemple, le Open Value Network de Sensorica, comptabilise, toutes les contributions, y compris non marchandes.  Le REA (Resources-Events-Agents) est lui une comptabilité de flux, conçu pour gérer des écosystèmes collaboratifs. Enfin, le projet ‘Global Thresholds and Allocations’, du groupe ‘Reporting 3..0′, intègrent les flux de ressources (matières et énergies) dans les flux comptables en tenant compte des limites planétaires.

Une autre approche comptable des écosystèmes collaboratifs, vient des technologies blockchain qui rendent possibles des comptabilités partagées.  Leurs programmes distribués façonnent simultanément une infrastructure légale, comptable et transactionnelle, autour de laquelle s’organise l’activité des entreprises impliquées, y compris leurs flux et usages les plus tangibles.

Tous ces modèles émergents sont des grilles d’analyse que les entreprises peuvent utiliser pour faire face à la crise et réinventer leurs utilité, schéma socio-économique et prospérité, tout en intégrant leurs externalités et en respectant les limites planétaires, tel que le suggère Kate Raworth dans son livre « Doughnut Economics » (Cornerstone, 2018).

*Michel Bauwens est le fondateur de la Peer to Peer Foundation (wiki.p2pfoundation.net), un réseau international de chercheurs engagés, et spécialistes de la production et de l’économie de pair à pair.

Raphaële Bidault-Waddington est la fondatrice du LIID Future Lab (liid.fr), une plateforme de recherche prospective sur les mutations des écosystèmes économiques, urbains, socio-culturels et académiques. »

 

Ecole : encore un mauvais résultat PISA, Cette fois c’est pour la performance de l’école en matière d’intégration.

Ecole : encore un mauvais résultat PISA, Cette fois c’est pour la performance de l’école en matière d’intégration.

Selon des données PISA en moyenne, dans l’Union européenne, 50% des élèves immigrés de première génération réussissent les tests de base en lecture, mathématiques et sciences, contre 72% des élèves nés dans le pays de parents autochtones, soit un écart de 22 points. En France, l’écart est plus grand (36 points), avec un taux de succès aux tests de 39% chez ces élèves de première génération, contre 75% pour les seconds. En bas du classement, la Finlande compte une différence de 42 points tandis qu’en Irlande les deux groupes ont des niveaux de réussite élevés (taux de réussite de 77% contre 80%).  Année après année, les différentes enquêtes internationales constatent la dégradation du système scolaire français dans tous les domaines. Cette déliquescence n’est pas récente, elle a  commencé il y a au moins une quarantaine d’années du fait de l’utopie pédagogiste. Avec la suppression des notes,  il était plus facile d’ignorer la baisse générale du niveau de l’éducation ;  résultats, environ 20 % des élèves qui sortent du primaire ne maîtrisent  pas les bases fondamentales du français et des mathématiques. Environ 20 % les maîtrisent de façon approximative. Ce qui n’empêche pas de conduire qu’au bac. Un diplôme complètement dévalorisé dans plusieurs filières. Des responsabilités multiples;  d’abord celle des pouvoirs publics qui n’ont cessé d’engranger les réformes d’éphémères ministres de l’éducation. Aussi celle des parents d’aujourd’hui voire d’hier, eux-mêmes malformés et qui se sont accommodés d’une fausse évaluation de leurs enfants. Sans parler de ceux qui vont même jusqu’à protester contre les enseignants quand cette évaluation leur paraît trop mauvaise. Enfin les enseignants eux-mêmes. Des  enseignants qui suivent  tant bien que mal les réformes du ministère. Des enseignants par ailleurs très mal rémunérés et bien peu respectés. Pour preuve du désastre de l’école la dernière enquête Pirls. Dans cette enquête, qui compare les systèmes éducatifs de 50 pays, les écoliers français se classent 34e en compréhension en lecture. L’étude Pirls existe depuis 2001, et en quinze ans, avec les Pays-Bas, la France est le seul pays qui a régressé dans ce classement. En termes de performances en lecture, la Russie, Singapour et Hong Kong sont en tête du classement tandis que la France n’arrive qu’en 34e place. Elle est en recul permanent depuis une quinzaine d’années. Mais la France est en mauvaise position sur tous les fondamentaux : écriture, lecture, français en général et mathématique. Malheureusement la France est mal classée partout comme en témoigne cette autre étude PISA concernant l’intégration.

 

« Pour la performance économique, il faut de la performance sociale »(CFDT)…..et réciproquement !

la 

A juste titre que la CFDT considère qu’il faut de la performance sociale pour atteindre la performance économique mais la CFDT devrait aussi insister sur la réciprocité à savoir qu’il n’y aurait y avoir de progrès social sans progrès économique. D’une certaine manière, c’est la grande maladie française qui consiste à traiter séparément les problématiques sociales et économiques. À cet égard on peut se réjouir que la nouvelle ministre du travail, ancienne DRH, ait proposé ce dialogue à la fois social et économique avec les partenaires sociaux. Le travail de compréhension et d’appropriation de la problématique économique est immense car les Français manifestent une sous-culture dans ce domaine. Une étude d’Allianz montrait que la France occupe la dernière place sur 19 pays européens étudiés dans ce domaine de connaissance. Pour être clair, la plupart des Français ne comprenne rien à l’économie ce qui explique largement la montée du gauchisme et des extrémistes qui peuvent caricaturer les enjeux économiques au service de leur idéologie. L’urgence est donc d’engager un vaste débat et pas seulement au niveau national pour permettre au plus grand nombre de comprendre la nature, l’ampleur et le rythme des mutations en cours ;  faute de cela la France retombera dans ses vieux travers à savoir le gauchisme, le corporatisme et l’étatisme  qui plombent le progrès social et le progrès économique.  Pour Laurent Berger, plusieurs points sont indispensables, « il faut qu’on aille vers une forme de codétermination à la française. Il faut plus de poids pour que les salariés puissent s’exprimer dans l’entreprise, aient des espaces de parole par le biais de leurs représentants mais aussi en propre ». Ensuite, pour Laurent Berger, « ce qui se joue c’est une articulation intelligente entre un code du travail – un socle de droits important – des négociations de branches et de la liberté de négociations dans les entreprises ». Et sur ce dernier point, il précise: « À la seule condition que le fait syndical soit reconnu plus fortement qu’aujourd’hui ».

Manque de performance française à l’exportation: pourquoi?

Manque de performance française à l’exportation 

Coût de production et manque d’ouverture internationale seraient les principaux obstacles au dynamisme des exportations françaises. Entre 1999 et 2014, la balance commerciale de la France n’a cessé de se dégrader. D’un excédent de 31,1 milliards d’euros en 1999, nous sommes ainsi passés à un déficit de 39,2 milliards sur les échanges de biens et services, soit une perte de 70 milliards d’euros en l’espace de 15 ans. D’après  La société d’étude Kantar Public (groupe WPP) ce sont avant tout les coûts, que ce soit de production (67% des répondants citent cette raison), de transports (51%) et de douanes (50%), qui freinent les exportations françaises. La lourdeur de la réglementation des règles à l’export (56%) constitue l’autre grand obstacle, si l’on en croît les personnes interrogées. Autre  source d’explications : le « manque d’ouverture vers l’international » pour 55%. . Il s’agit même du principal frein cité par les cadres d’entreprises étrangères (66%). « Cette perception se situe au niveau culturel. Les Français sont perçus comme ne pratiquant pas suffisamment les langues étrangères et dotés d’un état d’esprit trop peu ouvert vers l’extérieur », expliquent les auteurs de l’étude. Difficile de leur donner totalement tort. Dans son classement international de la pratique de l’anglais, l’entreprise Education First classe l’Hexagone à la 29eplace sur 72 pays, soit le plus mauvais rang en Europe de l’Ouest, derrière l’Espagne et l’Italie.

(BFM)




L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol