Archive pour le Tag 'limité'

« L’écologie et le social s’opposent à une croissance sans limite »

« L’écologie et le social s’opposent à une croissance sans limite »

 

 

 

Un collectif de cent enseignants et chercheurs internationaux signe, dans une tribune au « Monde », un manifeste appelant les pouvoirs publics à soutenir les acteurs de l’économie solidaire, qui assume des finalités sociales, écologiques, culturelles, contre l’augmentation des inégalités et contre le réchauffement climatique.

 

Tribune. Professeurs et chercheurs de différents continents (Afrique, Amérique, Asie, Europe) qui travaillons depuis de nombreuses années avec les acteurs de l’économie solidaire, nous voulons par ce texte interpeller les pouvoirs publics sur le soutien qu’ils peuvent apporter à cette économie émergente.

Celle-ci nous semble en effet à prendre en compte parce qu’elle assume des finalités sociales, écologiques, culturelles, contre l’augmentation des inégalités et pour la justice, contre le réchauffement climatique et pour une répartition équitable des ressources, contre l’uniformisation des comportements et pour l’expression des diversités. En bref, c’est une économie dont nous avons besoin au moment où se manifeste l’épuisement du système dominant.

Une capacité de destruction

La science économique s’est développée à partir d’un socle épistémologique qui néglige les ressources naturelles considérées comme inépuisables et qui sélectionne comme seule motivation l’intérêt matériel individuel. Cette vision a été créatrice de richesses matérielles mais a aussi fait preuve d’une capacité de destruction inédite.

 

Certes, ces effets pervers ont pu être partiellement endigués par l’Etat social dont le bien- fondé a été admis au niveau international en 1944 par la déclaration de Philadelphie. Celle-ci stipulait que le développement économique ne vaut que s’il est au service du développement social ; elle a entraîné la mise en place de formes importantes de redistribution publique. 

Mais le compromis établi entre marché et Etat a été déstabilisé par le consensus de Washington qui, en 1989, a préconisé la réduction du périmètre de l’intervention publique, la déréglementation et la dérégulation.

Depuis lors, la surexploitation de la nature et la montée des inégalités se sont tellement accentuées que la définition même de l’économie héritée du XIXsiècle est désormais en cause. Les désordres qu’elle engendre mettent en évidence son caractère obsolète, dû à l’ignorance de l’écologie et du social inhérente à un objectif de croissance sans limite.

L’avenir du télétravail : limité

L’avenir du télétravail :limité

Bertrand Jacquillat vice-président du Cercle des économistes et senior advisor de J. de Demandolx Gestion estime  dans l’Opinion que le télé travail aura forcément des limites.

 

L’utilisation du télétravail a explosé à la suite de la pandémie de Covid-19 pour les salariés dont la nature de leur travail s’y prêtait. Elle a donné naissance à la fois à un rêve et à un cauchemar. Le cauchemar pour certains, confrontés à la fermeture des lieux de vie et de loisirs que sont notamment les bars, les cafés et les restaurants, et des lieux de production culturelle, mais aussi à la baisse des prix de l’immobilier de bureau et des logements dans les grandes villes à la suite de l’exode de certains de ses habitants. Car c’est le rêve pour d’autres de pouvoir s’installer à la campagne et d’y travailler en conservant la même rémunération, en même temps que de s’occuper de leur jardin, ou pour d’autres d’appeler leurs clients d’une station de ski. Et pour tous d’éviter la perte de temps et la fatigue des trajets journaliers du domicile au lieu de travail.

Pour de nombreux salariés et leurs dirigeants, mais aussi pour les travailleurs indépendants, le lieu de travail n’est plus tant un lieu physique qu’un espace virtuel. Le personnel ainsi déplacé a réussi à faire apparaître comme naturel que le bureau soit installé dans une pièce d’appartement, équipée d’ordinateur portable, de tablette ou de smartphone. Il y a longtemps que l’on rêve de déplacer les villes à la campagne et leur étiolement, voire leur disparition, a souvent été annoncé. La généralisation d’Internet a semblé rendre plausible une telle hypothèse, et le succès du télétravail n’a fait que renforcer cette conviction.

Mais la probabilité que celle-ci se réalise est nulle.

Les travailleurs apprennent davantage dans les villes car ils sont confrontés à d’autres individus plus qualifiés, avec qui ils coopèrent ou sont en concurrence, et qui les tirent vers le haut

Innovation. Force d’abord est de constater que la part de la population mondiale vivant dans les métropoles ne cesse de s’accroître, non sans raison. Outre les nombreux avantages extraprofessionnels que procure la ville, les travailleurs apprennent davantage dans les villes car ils sont confrontés à d’autres individus plus qualifiés, avec qui ils coopèrent ou sont en concurrence, et qui les tirent vers le haut, ce que Zoom ne peut accomplir.

Les entreprises aussi bénéficient de ce phénomène de cluster, quand bien même ce terme a été utilisé pour dénommer aussi un foyer d’infection pandémique. Ainsi, une étude récente a mis en évidence que l’installation d’une nouvelle usine sur un territoire augmentait la productivité des entreprises concurrentes de 12 % dans les cinq ans qui suivaient son installation. Dans le contexte de l’économie de l’innovation, il est convenu que ce qui a fait le succès, d’abord de la route 128 autour du MIT dans le Massachusetts puis de la Silicon Valley autour de San Francisco, ce sont les échanges fréquents entre individus que permet leur proximité et la circulation de l’information qui en résulte.

Ces bénéfices ne concernent pas les seules entreprises du même secteur des semi-conducteurs et des « technos », mais aussi des entreprises d’autres secteurs. Même dans un monde aussi connecté que le nôtre, les percées conceptuelles conduisant aux innovations traversent plus facilement un hall universitaire ou la rue, que les océans ou un continent. Cette intuition a été parfaitement résumée dans le Bûcher des vanités de Tom Wolfe (1983) : « Il y avait toujours un endroit, The wagon wheel, Chez Yvonne, Rickey’s, où les membres de cette fraternité ésotérique, des jeunes hommes et femmes de l’industrie des semi-conducteurs, se réunissaient tous les jours après leur travail pour prendre un verre et fanfaronner sur leurs dernières trouvailles, tout aussi ésotériques les unes que les autres. » Ce phénomène a été illustré en modèle réduit avec la métaphore de la machine à café dans les entreprises autour de laquelle se retrouvent les salariés qui peuvent ainsi échanger sur un tas de sujets, qui ne concernent pas seulement l’exploit réalisé par Rafael Nadal en remportant sa treizième victoire aux Internationaux de tennis de Roland-Garros.

Les gains de productivité et les avantages de rémunération qu’entraîne la ville ne peuvent être reproduits dans des organisations qui fonctionnent par télétravail

Productivité. Certains historiens prétendent que la plupart des innovations majeures se sont produites dans les villes. La concentration des individus, des occupations, des métiers, des entreprises de secteurs industriels divers et variés constitue un environnement propice à la propagation des idées, et donc à l’innovation et à la croissance. C’est ce que montre une récente étude d’Akin, Chen et Popov qui ont réussi à surmonter l’opacité de ces échanges informels entre les individus, due au fait que leur contenu est invisible, même dans une économie de surveillance telle que la Chine, et qu’aucune trace écrite de ces échanges n’est laissée dont le matériau pourrait être utilisé par les chercheurs. Grâce notamment aux données de géolocalisation fournies par leurs smartphones, l’intuition de Tom Wolfe a pu être confirmée. Les rencontres, même fortuites, des salariés dans les cafés situés à proximité de leur lieu de travail avaient pour conséquence une augmentation des brevets déposés par leurs entreprises. A l’inverse, les entreprises de vidéo conférences font tout pour protéger la totale discrétion, voire l’anonymat, des échanges effectués sur leur système.

Ainsi, les gains de productivité et les avantages de rémunération qu’entraîne la ville ne peuvent être reproduits dans des organisations qui fonctionnent par télétravail. En définitive, s’il est un fait bien établi de l’économie urbaine, c’est celui du surcroît de productivité que les villes procurent. Le doublement de la taille d’une ville entraîne une augmentation de la productivité comprise entre 3 % et 8 % selon les pays et la spécialisation sectorielle de leurs villes. Cette plus grande productivité entraîne une hausse des salaires, certes compensée en partie par un coût de la vie plus élevé.

Et pourtant la crise sanitaire du Covid 19 ne semble pas s’être traduite par une baisse de la productivité alors qu’une grande partie des salariés restait confinée chez eux. La ville ne serait-elle alors qu’une collection d’individus qualifiés et les bureaux de l’entreprise qu’un moyen de faciliter leur coordination ? Après tout si les dirigeants et cadres d’une entreprise peuvent se voir, discuter, partager des documents au travers de l’internet, est-il besoin de proximité physique ? La réponse est donc clairement oui. Certes, si la pandémie devait perdurer, le télétravail prendrait durablement de l’importance, et l’attractivité de la ville et la vie urbaine en seraient grandement affectées. Mais une fois la pandémie jugulée, d’une manière ou d’une autre, l’activité urbaine reprendra le dessus, même si le télétravail conserve une certaine place, justifiée par les avantages qu’il procure et que nous avons évoqués, notamment dans des professions et des activités dont l’efficacité ne dépend pas ou peu de l’interaction humaine. Souhaitons donc que l’avenir du télétravail soit limité.

Bertrand Jacquillat est vice-président du Cercle des économistes et senior advisor de J. de Demandolx Gestion

 

 

GAFA : limite et danger d’une régulation « populiste »

GAFA : limite et danger d’une régulation populiste

Aurélien Portuese, Professeur, St Mary’s University London et Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University (*) d’une régulation sous pression populiste des géants du numérique. Une vision évidemment libérale.

 

« Avec trois condamnations cumulant près de 10 milliards d’euros d’amende, Google est le résultat parlant d’une recherche toujours plus poussée des autorités à l’encontre des géants du numérique: après le temps de l’enthousiasme numérique où d’aucuns se félicitaient de la puissance des algorithmes, de l’ampleur de l’innovation digitale, et des services fournis gratuitement – voici venu ce qu’il est convenu d’appeler le « techlash » !

Sanctionnées, vilipendées, et bientôt démantelées? Les géants du numérique font l’objet de nombreuses pressions populaires que nos régulateurs et responsables politiques ont souvent bien du mal à  refreiner. Et pourtant ! L’histoire nous enseigne que la régulation de la concurrence devrait demeurer le domaine de l’expertise et de l’analyse économique plutôt que le domaine de l’opinion publique et l’instrumentalisation politique.

Aux origines populistes du droit de la concurrence

Avec la révolution industrielle que connurent les Etats-Unis dans la seconde moitié du XIXe siècle, l’accumulation de capital dans les villes et l’émergence d’innovations telles que les chemins de fers ont conduit à des révoltes d’agriculteurs qui se sont révélées être politiquement influentes. Par ces révoltes, les agriculteurs ont pu exprimer leurs craintes face à ce qui était considéré alors comme une concurrence déloyale de ces conglomérats industriels – la productivité accrue conduisait également à une déflation des prix au détriment des agriculteurs et des petits commerçants. Ainsi, des plateformes programmatiques ont été élaboré au sortir desquelles, notamment, la lutte contre les monopoles et le contrôle des chemins de fers étaient mêlées à la revendication d’un argent libre pour tous (« Free Coinage of Silver »).

-

 

-

Né aux Etats-Unis avec le Sherman Act de 1890, le droit de la concurrence tire ses origines de multiples mouvements populistes initiés par les agriculteurs – tels que le « Farmers’ Alliance » et le « Grange Movement ». Ces initiatives ont contribué à fonder en 1891 le « People’s Party« , aussi dénommé  « The Populists ». Avant cette législation fédérale, douze Etats (agraires) avaient déjà initié ce type de législation. La  formation d’un « trust » (soit, un cartel) par Rockefeller en 1879, le « Standard Oil Trust » ayant des ramifications sur plusieurs Etats, a convaincu le Congrès d’introduire une législation « anti-trust » au niveau fédéral. Proposée par le républicain John Sherman, cette législation fédérale adoptée en 1890 était destinée à protéger les « petits commerces et les honnêtes hommes», comme l’interprètera en 1897 la Cour Suprême, contre les grandes entreprises et leurs excès.

Il est alors évident que les origines du Sherman Act, et du droit de la concurrence tel qu’il a influencé sa transposition en Europe des décennies plus tard, sont éminemment populistes : une lutte contre les grandes entreprises et une défense des petits commerçants comme choix politiques sans pour autant exiger une démonstration des méfaits économiques à imputer à ces grandes entreprises.

Les dangers d’un populisme dans la concurrence

La concurrence dans la société est souhaitable pour son efficacité économique (des prix bas, des entreprises compétitives et une innovation accrue) et pour le processus qu’elle engendre : un esprit entrepreneurial récompensant les mérites économiques des entreprises florissantes et sanctionnant les entreprises en décalage avec les besoins des consommateurs. Or, cette justification économique n’est pas partagée par la vision populiste de la concurrence. Le populisme dans la  concurrence perçoit le besoin d’organiser le marché par l’Etat afin qu’il y ait un nombre suffisant d’entreprises à tailles égales afin que ces entreprises puissent réellement se concurrencer entre elles : seul un nombre suffisant d’entreprises garantit la déconcentration économique et politique du pouvoir détenu par les entreprises. Cette vision a historiquement conduit non seulement à sanctionner des pratiques efficientes ne créant aucun dommage pour les consommateurs, mais également à démanteler des entreprises pour la seule raison qu’elles avaient acquis une taille trop importante.

Premièrement, des comportements tels que la pratique des prix minimums aux distributeurs, la pratique des restrictions imposés par le fournisseur à ses distributeurs, la fusion entre petites entreprises, la vente à prix bas par des entreprises dominantes…ont été considérés comme illégales car renforçant l’entreprise dominante, sans nécessité de démontrer au préalable que les consommateurs étaient lésés. Deuxièmement, le démantèlement d’entreprises – néanmoins rarissimes dans l’histoire – s’est toujours soldé par des échecs. Il y a trois expériences de démantèlement d’entreprises : Standard Oil en 1911, AT&T en 1984, et Microsoft en 2000. Standard Oil une fois démantelé en 34 entreprises, aucune de ces entreprises n’a pu survivre sans être rachetée (pour donner naissance à des entreprises comme Exxon Mobil, BP PlC, Chevron Corporation…) et aucune baisse de prix n’a été démontrée. Après 10 ans d’investigations et une fois AT&T démantelé en huit entreprises de téléphonie, la baisse des prix a principalement été le fait d’innovations comme l’émergence de la téléphonie sans fil sans pour autant éviter la constitution aujourd’hui d’un duopole entre Verizon et AT&T. Surtout, le réseau physique de téléphonie mobile était considéré comme monopole naturel. Enfin, le régulateur américain a échoué à démanteler Microsoft par un jugement d’appel qui a simplement exigé que Microsoft agisse sans discriminer les concurrents de ses produits Windows. Par conséquent, toute tentative de démanteler les géants du numérique (ou « GAFA » pour Google, Amazon, Facebook et Apple) serait fondée sur des motifs hasardeux, ne saurait être qu’une mesure de dernier recours, et prendrait des années d’investigations pour un échec probable quant aux bienfaits pour les consommateurs et pour l’innovation espérée.

La nécessaire « économisation » de la régulation de la concurrence

Commencé dans les années 70s aux Etats-Unis et dans les années 2000 en Europe, l’approche économique – plutôt que politique voire populiste – de la concurrence a consisté à questionner les interdictions de comportements d’entreprises par le prisme de l’efficacité économique : désormais, seuls seront interdits les comportements qui ne concourent pas à l’efficacité économique du marché. Cette efficacité est alors mesurée par l’accroissement ou pas du bien-être du consommateur par la pratique concernée. A contrario, seront sanctionnés les comportements pour lesquels un dommage aux consommateurs sera démontré (prix élevé ou qualité réduite du fait de cartels ou d’abus de position dominante). Ainsi, les synergies entre entreprises pour des gains d’efficience peuvent désormais être acceptées, les fusions pour une meilleure productivité bénéficiant aux consommateurs sont encouragées, les relations contractuelles entre fournisseurs-distributeurs sont libres dès lors qu’elles ne se font pas au détriment des consommateurs.

L’organisation de nos économies autour de nouveaux « business models », principalement l’économie digitale autour des plateformes, était rendu possible. Ainsi, les stratégies d’intégration verticales des entreprises dans lesquelles des écosystèmes digitaux se créent ont bénéficié de la bienveillance du régulateur.

De même, l’essor de l’économie du gratuit dans laquelle l’utilisateur final ne paie pas le service financé par les publicitaires était rendu tout autant possible par le jeu complexe d’obligations contractuelles réciproques dans lesquelles l’échange de données personnelles a remplacé le paiement d’un prix. Il n’est pas anodin que la grande période d’innovation digitale, à savoir 1995-2015, s’est accompagnée – si ce n’est a été facilitée – par une économie de la concurrence à la fois aux Etats-Unis et en Europe où seuls les dommages prouvés aux consommateurs étaient sanctionnés et où le pouvoir de marché était perçu comme la condition sine qua non à l’émergence de ces plateformes de réseaux.

Inquiets de la taille de certaines entreprises du numérique et invoquant l’héritage populiste du Sherman Act, certains auteurs appellent désormais à revenir entièrement sur l’économisation de la régulation de la concurrence qui a émergé depuis les années 70s. Se revendiquant explicitement comme étant populistes, ces auteurs appellent à démanteler les GAFA. Ces appels au démantèlement de Google, Facebook, Amazon ou encore Apple interviennent non pas après avoir démontré l’inefficacité de sanctions potentielles ni même après avoir démontré  la réalité de dommages aux consommateurs, mais seulement comme volonté de faire émerger des plus petites entreprises digitales afin que le pouvoir économique et politique soit déconcentré : dans la lignée de l’historique populiste de la défense des petits entrepreneurs, ce populisme moderne auto-proclamé comme « Antimonopoly Movement » entend restructurer les marchés conformément à une démocratie dite « économique » et à un objectif d’intérêt général plus ambigu que la stricte défense du bien-être des consommateurs.

Avec leurs profitabilité et leurs capitalisations importantes, les géants du numérique sont les Standard Oil du XXIe siècle : des cibles de choix pour dénoncer la concentration économique et politique des pouvoirs et défendre ainsi les entreprises potentiellement empêchées de se développer en raison de la taille des géants du numérique. Avec cette analyse dans la lignée de l’héritage populiste du Sherman Act, et sans même démontrer le pouvoir de marché, l’absence d’innovation et/ou la qualité décrue des services offerts (souvent gratuitement), cette école de pensée néo-populiste s’attire néanmoins les faveurs à la fois de l’opinion publique et de responsables politiques en mal d’élaborer un programme économique populaire.

Aux mêmes causes, les mêmes conséquences : l’abandon d’une jurisprudence ayant conduit à interdire des comportements pourtant bénéfiques pour les consommateurs a été l’aboutissement de longues années de débats académiques ayant fini par convaincre de démontrer les erreurs commises dans le passé. Ainsi, revenir sur l’ « économisation » de la concurrence à la faveur d’une vision plus politique de la concurrence reviendrait à commettre les mêmes erreurs du passé – au détriment des consommateurs qui en paieraient les coûts indus. La passion populiste, quoique séduisante et engageante, ne saurait prévaloir sur une analyse raisonnée, experte et détachée, de l’économie de la concurrence.

« C’est une erreur de croire que la passion, quand elle est heureuse et pure, conduit l’homme à un état de perfection ; elle le conduit simplement à un état d’oubli » avançait Victor Hugo.

Cette passion populiste nous conduit à l’oubli – l’oubli des erreurs du passé et l’attrait pour des solutions éprouvées.

Résister à l’appel du pied d’un populisme dans la concurrence, c’est résister à toute forme de populisme dans la société – où la réflexion médiate est souvent plus juste que l’intuition immédiate, où l’expertise n’est pas sacrifiée sur l’autel du ressenti majoritaire, où l’économie revêt les attributs d’une science plutôt que les traits de la méfiance.

Résister en Europe à la vision populiste à l’endroit des géants du numérique, c’est aussi encourager l’émergence en Europe même d’entreprises digitales capables d’évoluer et de les concurrencer. Voilà un objectif de politique économique enthousiasmant loin de l’instrumentalisation politique d’une concurrence dévoyée !

(*) Par Aurélien Portuese, Professeur, St Mary’s University London ; Professeur associé en Droit Européen de la Concurrence au Global Antitrust Institute de la George Mason University ; Chercheur affilié à l’Université Catholique de Paris. Cet article fait écho à la publication académique co-écrite avec Pr. Joshua Wright « Antitrust Populism : Towards a Taxonomy » publié au Stanford Journal of Law, Business & Finance (Mars 2020) et nominé pour un Prix chez Concurrences. Aurélien Portuese a également bénéficié d’un financement de l’Académie libre des sciences humaines.

Fed : pas de limite au rachat d’obligations

Fed : pas de limite au rachat d’obligations

 

Face à la crise sanitaire qui se développe aux États-Unis et à une économie qui peine ( comme en témoigne notamment la destruction d’emplois) la banque fédérale américaine veut sans doute rassurer. Elle indique qu’elle peut en réalité être encore davantage accommodante. En clair,  faire encore davantage tourner la machine à billets.

“Nous avons mis en place beaucoup de mesures d’adaptation ; il y a plus que nous pouvons faire, il y a plus que nous allons faire”, a-t-il déclaré à CNN International.

Si les signes d’un rebond économique en mai et juin sont “extrêmement bienvenus”, la Fed suit de près l’évolution de l’épidémie de coronavirus car elle déterminera la trajectoire de l’économie, a ajouté Richard Clarida.

Il y a surtout cette promesse que la banque fédérale américaine ne définira aucune limite sur la quantité d’obligations qu’elle peut acheter et que donc les mesures de soutien notamment via les prêts encore prendre une dimension plus importante

« convention citoyenne: un effet limité pour le climat»

« convention citoyenne: un effet limité pour  le climat»

François Gemenne, Chercheur en sciences politiques, estime  dans le Monde que les avancées dans la lutte contre le réchauffement climatique de la convention citoyenne restent limitées. Et pour cause elles ne font que reprendre les orientations d’ailleurs souvent contradictoires du gouvernement, n’imposent réellement rien et surtout ne prévoit pas les moyens ,surtout les financements, pour favoriser la transition écologique.

Tribune. La convention citoyenne pour le climat s’est achevée le 21 juin dans un climat de satisfaction générale : satisfaction des participants, qui ont voté à la quasi-unanimité le rapport final ; satisfaction des organisateurs, qui ont fait la démonstration de la possibilité d’un tel exercice de démocratie participative ; satisfaction du gouvernement enfin : la ministre de la transition écologique et solidaire, Elisabeth Borne, à qui ont été remises les conclusions, a estimé que celles-ci allaient « dans la direction des grandes orientations prises depuis le début du quinquennat ».

Au lendemain de la vague verte des élections municipales, Emmanuel Macron a reçu, lundi 29 juin, les 150 citoyens tirés au sort et les a chaleureusement félicités pour leur travail. Sans doute s’en est-il aussi félicité, par la même occasion, puisqu’il a avalisé 146 des 149 mesures proposées. Et a promis l’organisation d’autres conventions citoyennes, sur d’autres sujets.

Quel bilan tirer de ces neuf mois de travail ? Il est contrasté, selon qu’on regarde le verre du côté de la démocratie participative ou du côté des avancées pour le climat. Du point de vue de la démocratie participative, le bilan de la convention citoyenne est indéniablement un succès. L’exercice a véritablement constitué une démonstration d’intelligence collective sur un sujet complexe. Il faudrait être un esprit grincheux pour ne pas reconnaître cette réussite. Mais celle-ci soulève aussi un grand nombre de questions.

Tout d’abord, dans quelle mesure ces 150 citoyens tirés au sort sont-ils toujours, à l’issue de l’exercice, représentatifs de la population française ? Pendant des mois, les citoyens ont auditionné militants, politiques et experts, et l’exercice les a souvent transformés en fervents défenseurs du climat. A quelques exceptions près, la plupart des mesures proposées, y compris les plus radicales, ont été votées à une large majorité. Bien sûr, quelques rares mesures ont été rejetées, bien sûr, quelques opinions minoritaires ont été exprimées, mais, globalement, peu de lignes de fracture ont émergé, sur des sujets pourtant controversés dans la population.

Pourquoi a-t-on toujours parlé des « 150 », et jamais des « 87 pour et 63 contre », par exemple ? Sans doute l’effet de groupe a-t-il joué à plein, renforcé par des projets artistiques comme les portraits géants de JR ou le projet de documentaire de Yann Arthus-Bertrand, Les 150. Surtout, je crois que la délibération collective, encadrée et façonnée par des experts, a fait naître un consensus qui, à l’évidence, n’existe pas dans la société française. En témoignent les réactions violentes suscitées par certaines propositions, celle concernant la limitation de vitesse sur les autoroutes notamment. »

 

Sondage vitesse limite: 110 km/h: 75% contre

Sondage vitesse limite: 110 km/h: 75% contre

Selon une étude menée auprès d’un millier de Français les 24 et 25 juin par Odoxa pour Le Figaro et France Info la limitation de vitesse à 110 km/h sur autoroute proposée par la Convention citoyenne pour le climat est massivement rejetée (74%) par les Français. Le rejet est le même, si ce n’est pire, que celui enregistré il y a deux ans lors de l’annonce du passage à 80 km/h sur les routes nationales, prélude au mouvement des Gilets jaunes.

Inflammable donc pour l’exécutif, cette proposition a été défendue ces derniers jours par plusieurs ministres, dont Élisabeth Borne, la ministre de la Transition écologique et solidaire, qui s’y est par exemple dite favorable «à titre personnel» sur BFMTV, ou encore l’eurodéputé écologiste Yannick Jadot. Pourtant, même les sympathisants d’EELV ne sont que 47% à y être favorables. Le but principal de cette mesure – faire baisser la pollution émise par les voitures – n’est pas non plus jugé crédible : 55% des Français pensent qu’abaisser la vitesse de 20 km/h ne permettra pas de l’atteindre.

Sur le reste, les 150 citoyens tirés au sort pour composer la Convention peuvent se réjouir : les Français sont largement en faveur de leurs propositions. Rénovation énergétique obligatoire des bâtiments, révision de la Constitution pour y intégrer la préservation de l’environnement, et même la création d’un crime «d’écocide» remportent leur adhésion. Il faut préciser tout de même qu’environ 4 Français sur 10 n’ont pas entendu parler de la Convention. Les autres pensent globalement que si ces propositions étaient mises en place, elles seraient efficaces et réalistes.

Seul hic : les Français interrogés sont très sceptiques quant à l’avenir de ces propositions. Près de 73% d’entre eux pensent que seule une petite partie des propositions sera appliquée par Emmanuel Macron et le gouvernement. En conséquence, ils sont très majoritaires (81%) à vouloir que les principales mesures proposées par la Convention soient soumises à un référendum.

 

La nouvelle martingale: La dette publique sans limite et permanente?

La nouvelle martingale: La dette publique  sans limite ?

 

 

On a trouvé la martingale, : la dette illimitée; certains proposent de financer le fonctionnement par l’impôt et les déficits par la dette, bref le cercle vicieux qui autorise tous le dérapages et en permanence sauf a croire que la création monétaire était peut être déconnectée de la richesse produite.

Aujourd’hui on aligne les milliards comme s’il en pleuvait. D’après le ministre de l’économie, les premières mesures prises pour soutenir la crise sanitaire représenteraient autour de 500 milliards. Il faudra y ajouter les 250 milliards de recettes fiscales qui vont manquer avec la baisse du PIB qui va diminuer de l’ordre de 10 %. Parallèlement la dette va augmenter de 20 %. L’addition est encore loin d’être terminée, elle le  sera en partie lorsqu’on aura examiné secteur par secteur les différents soutiens qui vont permettre de limiter les défaillances et les plans de licenciement. En tout état de cause ,ce sont des centaines et des centaines de milliards qu’il va falloir emprunter et qui vont venir s’ajouter à la charge de la dette, en outre qu’il faudra bien rembourser un jour ou l’autre. À moins d’être partisan d’une dette perpétuelle, illimitée voire non remboursable. Une possibilité évidemment à condition de n’avoir pas besoin à emprunter de nouveau car les prêteurs intégreront les nouvelles primes de risque dans les prêts accordés. Or la France ne peut pas vivre sans emprunt non seulement pour les investissements mais aussi pour son fonctionnement.

On peut aussi imaginer qu’on sollicite encore davantage la planche à billets augmenter la masse monétaire mais une masse monétaire complètement décalée de la richesse nationale et qui un jour ou l’autre se traduit par une inflation monstre qui se traduit concrètement par une baisse du pouvoir d’achat notamment des plus modestes, c’est-à-dire de ce qui consacre l’essentiel de leurs revenus à la consommation immédiate.Aujourd’hui la demande n’est pas assez forte pour  alimenter toute suite une inflation mais mécaniquement avec un réajustement des parités monétaires les coûts auront tendance à augmenter et les prix avec entraînant une dévalorisation de fête des pouvoir d’achat

La dette publique française sans limite ?

La dette publique française sans limite ?

 

 

Aujourd’hui on aligne les milliards comme s’il en pleuvait. D’après le ministre de l’économie, les premières mesures prises pour soutenir la crise sanitaire représenteraient autour de 500 milliards. Il faudra y ajouter les 250 milliards de recettes fiscales qui vont manquer avec la baisse du PIB qui va diminuer de l’ordre de 10 %. Parallèlement la dette va augmenter de 20 %. L’addition est encore loin d’être terminée, elle le  sera en partie lorsqu’on aura examiné secteur par secteur les différents soutiens qui vont permettre de limiter les défaillances et les plans de licenciement. En tout état de cause ,ce sont des centaines et des centaines de milliards qu’il va falloir emprunter et qui vont venir s’ajouter à la charge de la dette, en outre qu’il faudra bien rembourser un jour ou l’autre. À moins d’être partisan d’une dette perpétuelle, illimitée voire non remboursable. Une possibilité évidemment à condition de n’avoir pas besoin à emprunter de nouveau car les prêteurs intégreront les nouvelles primes de risque dans les prêts accordés. Or la France ne peut pas vivre sans emprunt non seulement pour les investissements mais aussi pour son fonctionnement.

On peut aussi imaginer qu’on sollicite encore davantage la planche à billets augmenter la masse monétaire mais une masse monétaire complètement décalée de la richesse nationale et qui un jour ou l’autre se traduit par une inflation monstre qui se traduit concrètement par une baisse du pouvoir d’achat notamment des plus modestes, c’est-à-dire de ce qui consacre l’essentiel de leurs revenus à la consommation immédiate.Aujourd’hui la demande n’est pas assez forte pour  alimenter toute suite une inflation mais mécaniquement avec un réajustement des parités monétaires les coûts auront tendance à augmenter et les prix avec entraînant une dévalorisation de fête des pouvoir d’achat.

 

Coronavirus: impact économique limité !! ( Banque de Chine)

Coronavirus: impact économique limité !! ( Banque de Chine)

 

 

Bien entendu chacun souhaite que les conséquences du virus chinois soient le mieux maîtrisées  possible et le plus rapidement aussi bien en Chine qu’à l’extérieur. Des conséquences d’abord sanitaires mais aussi économiques et financières. Pour autant,  on ne peut adhérer à l’intoxication permanente des autorités chinoises quand à la propagation du virus dont les chiffres réels sont d’après des scientifiques occidentaux sans doute 10 fois supérieurs à ceux qui sont annoncés. Comment croire ce que dit la banque centrale chinoise qui déclare que l’épidémie sera rapidement contrôlée et que les conséquences ne remettront pas en cause les fondamentaux économiques. D’abord la banque centrale chinoise n’a aucune compétence en matière sanitaire. En outre, c’est un instrument politique de la dictature du  parti communiste- qui comme tous les autres institutions- passe son temps à intoxiquer l’opinion publique tant au niveau interne qu’au plan international.

La vérité c’est que personne n’est incapacité d’affirmer quoi que ce soit de sérieux concernant l’évolution de la pandémie et encore moins ses conséquences. Plusieurs experts pensent par exemple que la Chine pourrait perdre de l’ordre d’un pour cent de croissance (5 % au lieu de  6) ce qui pourrait accroître de façon assez dramatique la situation financière de nombre d’entreprises déjà en très grande difficulté. La croissance internationale pourrait telle aussi être très concernée avec le risque de perdre aussi 1 % de croissance entre parenthèses (2 % au lieu de 3%) . Des hypothèses, car  en l’état, il est impossible de décrire avec exactitude l’ampleur des dégâts .

 

Dans son rapport trimestriel, elle réaffirme sa volonté de favoriser la stabilité fondamentale du yuan et de maintenir une politique monétaire prudente pour favoriser la stabilité financière.

Marché automobile européen: recul limité à 0.3% sur un an

Marché automobile européen: recul limité à 0.3% sur un an  

 

 

Les trois derniers mois de hausse des immatriculations compensent à-peu-près les baisses des autres mois. En novembre, une progression de 4,5 % a été atteinte. Sur l’ensemble de l’année pour l’instant le recul par rapport à l’année dernière a ainsi été limité à 0,3 % sur un an. Les chiffres des  immatriculations font du yo-yo depuis des mois pour des raisons conjoncturelles et d’autres plus structurelles. Le ralentissement général des économies se ressent évidemment sur la vente des voitures. Par ailleurs,  les nouvelles normes européennes draconiennes ont largement pesé sur le marché.

Chez les consommateurs, des incertitudes demeurent quant au choix à faire pour le remplacement des  véhicule, véhicules diesels, véhicules à essence, véhicules hybrides, véhicules électriques sans parler à plus long terme, de l’automobile à hydrogène. En outre, le coût de véhicules électriques est encore excessif nombre d’automobilistes. Les immatriculations de voitures neuves en Europe ont donc augmenté de 4,5% en novembre, troisième hausse mensuelle consécutive, montrent les données publiées mardi par l’Association des constructeurs européens d’automobiles (ACEA), qui souligne la base de comparaison favorable avec le même mois de 2018.

 

Les immatriculations s’étaient effondrées en fin d’année dernière avec l’entrée en vigueur des nouvelles normes antipollution WLTP. Il s’est immatriculé en novembre 1.210.860 véhicules neufs dans les pays de l’Union européenne et de l’Association européenne de libre-échange (Islande, Norvège et Suisse).Sur les 11 premiers mois de l’année, les immatriculations en Europe reviennent quasiment à leur niveau de l’an dernier avec un recul désormais limité à 0,3% à 14.542.126 unités. Sur le seul mois de novembre, la hausse a été limitée à 0,7% en France alors qu’elle a atteint 9,7% en Allemagne, premier marché du continent. Au niveau des constructeurs, le groupe Renault a vu ses ventes progresser de 4,1% alors que celles de PSA se sont contractées de 7,9%. Le groupe Volkswagen a enregistré une hausse de ses ventes de 13,4%.

Logement : le droit de propriété limité aux murs ?

Logement : le droit de propriété limité aux murs ?

Une proposition assez innovante face à la crise de l’immobilier; dans les zones très tendues comme à Paris;  le soll appartiendrait aux pouvoirs publics et les murs aux propriétaires constructeurs. Ce qui ressort d’un rapport remis au premier ministre à fin d’étudier comment endiguer la hausse des prix du foncier, c’est-à-dire les terrains sur lesquels sont ensuite construits les logements.

Cette composante se traduit mécaniquement dans le prix d’ensemble: les promoteurs immobiliers répercutent dans leurs tarifs le montant auquel ils ont acheté le terrain.

t la proposition qui permettrait aux collectivités locales de conserver la propriété de terrains, en ne laissant au propriétaire que celle des murs..

La disposition, qui vise à sortir le prix des terrains du marché immobilier, passerait par la création d’organismes « fonciers » publics. Ils seraient obligatoires dans les zones dites « tendues », où l’offre de logements est jugée insuffisante par rapport à la demande.

Ce principe existe déjà, notamment à Lille où il est expérimenté depuis deux ans, mais il est limité aux dispositifs d’accession sociale à la propriété, c’est-à-dire sous conditions de ressources. Il s’agirait de l’étendre à tous types d’opérations.

Restera à prendre une orientation définitive et à traduire cela dans des textes législatifs

Urgences : « »Un plan trop limité »

Urgences : « »Un  plan trop limité »

 

 

Le plan de la ministre de la santé est considéré comme trop limité dans sa nature et dans le temps par trois infirmiers et un psychiatre du collectif Inter-Urgences qui s’exprime dans une tribune du monde. Extrait

Tribune. 

 

« Agnès Buzyn a dévoilé son plan pour sauver les urgences du péril actuel, avec la réaffectation de crédits de 750 millions d’euros sur trois ans. Pas de nouveaux crédits, aucun investissement dans la santé des Français alors qu’il s’agit d’une préoccupation phare des citoyens.

Avec le gouvernement Macron, l’habitude est prise de sortir de la crise en renforçant le pouvoir en place, l’austérité et l’aggravation des problèmes de fond sous prétexte de « refondation », de « solutions » et « d’innovation ». Les termes changent mais l’hôpital reste la variable d’ajustement dans cette course effrénée de réduction des dépenses publiques, au détriment de ce qui fait sens. Les soignants travaillent toujours plus pour toujours moins, dans des locaux à l’image de cette dégradation ambiante.

C’est une crise environnementale : des ressources sont détruites, des citoyens voient leur état de santé s’aggraver, et parfois, meurent d’un manque d’accès à ces biens communs

Là encore, ce plan du ministère de la santé suit cette règle : pas de moyens humains nouveaux mais de nouvelles organisations pour mieux adapter les individus à cette pénurie systémique. Comme l’écrit la philosophe Barbara Stiegler, « il faut s’adapter » est devenu le « nouvel impératif politique » du moment. Et c’est précisément cette logique d’adaptation – « les solutions » de Mme Buzyn et de ses conseillers – qui est problématique car le cadre général de cette politique ne peut être remis en cause. A défaut, ce plan propose des mesures symptomatiques de court terme (financement sur trois ans), limitées et inadéquates.

Les urgences sont le point de cristallisation de la situation des hôpitaux et des dispositifs accessibles tant en amont qu’en aval de l’hôpital public, mais la crise est généralisée. Il s’agit de penser tout ensemble. C’est une crise environnementale : des ressources sont détruites (personnels soignants, structures de soin), des citoyens voient leur état de santé s’aggraver, et parfois, meurent d’un manque d’accès à ces biens communs. »

 

 

Royaume-Uni : un report « limité » du Brexit voté qui ne change rien

Royaume-Uni : un report « limité » du Brexit voté qui ne change rien

Les Britanniques ont voté pour le principe d’un report limité du Brexit. Mais un report qui ne clarifie guère la situation. La question fondamentale est de savoir si la Grande-Bretagne veut ou non demeurer dans l’union économique ; Si la Grande-Bretagne va se résoudre à organiser un nouveau référendum ou de nouvelles élections. Le problème, c’est que les Britanniques sont complètement englués dans leurs contradictions. Pour résumer il voudrait quitter l’union économique mais continuer de bénéficier de ses avantages en matière notamment d’échanges commerciaux mais sans se soumettre aux règles communautaires. Des conditions inacceptables pour l’union économique qui attend vainement une clarification de la posture britannique. Pour gagner du temps, Theresa May va soumettre au vote du Parlement, le 12 mars au plus tard, la version modifiée de l’accord de divorce qu’elle aura pu obtenir de Bruxelles. La première mouture de cet accord avait été massivement rejetée en janvier par les députés. Si cette nouvelle version est également recalée, la Première ministre demandera le 13 mars aux élus s’ils veulent sortir de l’UE sans accord. Et en cas de refus, elle leur soumettra le 14 mars une proposition de report « limité » du Brexit.  La vraie solution serait évidemment de reporter par exemple de deux à trois ans l’éventualité d’un Brexit. Le temps nécessaire pour que la conjoncture politique évolue en Grande-Bretagne. Mais pour l’instant cette  propositions de report prolongé est inacceptable outre-manche où l’on redoute en même temps les effets d’un Brexit dur dans les conséquences serait assez dramatique pour le Royaume-Uni mais aussi pour l’Europe même si c’est  dans une moindre mesure. En Allemagne par exemple un break site dur pourrait entraîner un affaiblissement du PIB de l’ordre de 0,5 % et autour de 0,3 % en France. Mais pour reporter le Brexit, il faudra que les pays de l’UE donnent leur accord à l’unanimité. Le président français, Emmanuel Macron, s’est dit mercredi prêt à examiner une telle demande « si elle est justifiée »« Nous ne pourrons en aucun cas accepter une extension sans une perspective claire sur l’objectif poursuivi », a-t-il prévenu, rappelant que l’accord de retrait ne pourrait pas être renégocié. Même son de cloche du côté de Michel Barnier, négociateur européen sur le Brexit. Ce dernier a estimé qu’un éventuel report serait possible, à condition que les Britanniques expliquent à quoi ils veulent employer le temps supplémentaire alloué.

Le démarchage téléphonique réellement limité ?

Le  démarchage téléphonique réellement limité ?

Théoriquement il y a la liste bloc telle qui permet aux Japonais de refuser d’être importuné par téléphone par des démarcheurs commerciaux. En réalité le dispositif ne fonctionne pas.

« Près de 1,4 million de réclamations auraient été déposées par 280.000 consommateurs depuis la création de Bloctel », selon le rapport de André Reichardt (LR). « Plusieurs facteurs peuvent expliquer cette situation : le non-respect par de nombreuses entreprises de leur obligation réglementaire de mise en conformité de leurs fichiers de démarchage téléphonique avec la liste d’opposition Bloctel, la faiblesse du montant des sanctions encourues, et la rareté des contrôles opérés par la direction générale de la concurrence, de la consommation et de la répression des fraudes. » Le problème c’est que pour l’instant on n’envisage pas d’exiger le consentement actif du consommateur pour le démarchage téléphonique. De sorte que la nouvelle loi sur le sujet risque d’être aussi inefficace que la précédente.

Le texte tente toutefois de mieux faire connaître le service Bloctel. Tout d’abord, la proposition de loi prévoit que l’appelant doit rappeler au consommateur l’existence du service Bloctel. De plus, deux amendements PS ont été adoptés pour d’une part, noter dans les contrats de téléphonie la possibilité de s’inscrire gratuitement à la liste rouge et d’autre part, changer les modalités d’inscription pour le faire par téléphone. Cela est pour l’instant uniquement possible par internet ou courrier. Enfin, une disposition vise aussi à  »renforcer les obligations de transparence des professionnels, en incitant à la mise en place d’un code de déontologie ». En réalité les parlementaires se sont couchés devant les lobbys.

Les parlementaires, qui s’accordent pour ne pas drastiquement réduire la démarche téléphonique, souhaitent préserver l’écosystème. « Le secteur économique du démarchage téléphonique représente un facteur de développement des entreprises et un nombre non négligeable d’emplois en France », affirme le rapporteur André Reichardt. Et de poursuivre :

« Le syndicat professionnel des centres de contacts (SP2C), qui regroupe les principaux acteurs du marché, estime que 56.000 emplois directs seraient concernés par l’activité de démarchage téléphonique, ce chiffre étant jugé crédible par les services du ministère de l’économie. Toute évolution du régime juridique applicable doit prendre en compte cette donnée économique. »

Croissance Allemagne : un tassement économique limité au premier semestre ou au-delà ? (Bundesbank)

Croissance Allemagne : un tassement économique limité au premier semestre ou au-delà ? (Bundesbank)

Comme nombre d’institutions internationales ou nationales, la Bundesbank utilise la méthode Coué en espérant que l’économie pourrait reprendre un peu de dynamisme lors du second semestre. Pour l’instant les projections font apparaître une croissance qui pourrait être limitée à 1 % en 2019. En cause, le ralentissement mondial qui pèse sérieusement sur des exportations allemandes. Il faut ajouter les menaces des États-Unis concernant l’importation des automobiles allemandes. La Bundesbank estime que rien n’indique que le tassement incontournable au premier semestre se poursuivra lors du second. Le problème c’est que rien n’indique le contraire. La vérité c’est que la plupart des institutions économiques et les gouvernements ne disposent d’aucune visibilité sur ce qui pourrait se passer après juin. Il est fort peu probable que l’économie se redresse au cours du second semestre et la croissance pourrait s’inscrire dans une tendance très molle. On n’en peut non plus écarter l’hypothèse de l’éclatement d’une bulle qui entraînerait de manière systémique les autres dimensions financières et économiques. Ce qui paraît à peu près certain c’est un fort ralentissement des échanges internationaux liés en particulier au tassement de la demande en Chine et évidemment aux conséquences des conflits commerciaux non seulement entre les États-Unis et la Chine mais aussi entre l’Europe et les États-Unis. Pour compenser ce phénomène la plupart des gouvernements comptent  sur une reprise de la consommation mais qui se heurte à la faiblesse d’augmentation des pouvoirs d’achat aussi au phénomène de la des consommations volontaires.

 

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Problématique de l’Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA, pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

Prospective-Intelligence artificielle : limite de la prédictivité des algorithmes, éthique et régulation

 

Vincent Berthet, expert en IA pose les limites de prédictivité de l’intelligence artificielle et le futur cadre de sa régulation (article de la Tribune)

)

 

« Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historique comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables. On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges. Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution. »

 

La vitesse limitée à 80 km/h pour la sécurité ou les recettes des amendes ?

La vitesse limitée à  80 km/h pour la sécurité ou les recettes des amendes ?

 

On ne peut que se réjouir que le gouvernemenet se préoccupe de la sécurité routière, une question majeure avec parfois des conséquences dramatiques. On ne peut cependant s’empêcher d’interroger pour savoir sil s’agit de faire baisser la dangerosité de la route ou d’augmenter les recettes fiscales liées aux infractions de vitesse. Les radars automatiques rapportent en effet de l’ordre de 1 milliards par an ; avec une vitesse de 80, il sera facile de multiplier rapidement ce chiffre par 2 ou 3. Pourtant la mesure  parait  en apparence de bon sens : réduire la vitesse pour limiter la gravité et le nombre d’accidents. On sait en effet que la vitesse et l’alcool sont les deux facteurs explicatifs majeurs qui affectent l’insécurité routière. Pour autant,  une mesure de portée générale n’est pas forcément très pertinente. En effet sur certaines portions, même une vitesse à 80 km/h peu se révéler dangereuse  alors que sur d’autres une vitesse à 100 km/h ne présente que peu de danger. La vérité c’est qu’il conviendrait de mettre en place une régulation de la vitesse beaucoup plus fine adaptée à chaque tronçon en fonction de la dangerosité. De ce point de vue il fauta regretter que l’Etat ne disposent d’aucun outils réellement scientifique pour analyser l’accidentologie. Du coup la hausse comme la baisse du nombre d’accidents n’est jamais expliqué ou alors  de manière fantaisiste.  Une philosophie par exemple qui est pratiquée dans les chemins de fer pourtant un transport guidé où  les risques sont beaucoup moindres. La baisse de 90 à 80km/h notamment sur les routes bidirectionnelles, démunies de séparateur central, devrait donc figurer parmi les mesures annoncées par le gouvernement lors d’un prochain comité interministériel à la sécurité routière. Une annonce est envisagée dans les prochains jours. , le gouvernemenet explore  toutes les pistes pour diminuer le nombre de tués sur les routes et ne s’interdit, en effet, aucune mesure, même celles, impopulaires qui suscitent de fortes oppositions. Et la diminution de la vitesse à 80 km/h en fait assurément partie.  La nouvelle équipe d’Édouard Philippe retient aujourd’hui la certitude des certains experts  selon laquelle seules des mesures fortes permettent une chute significative de l’accidentalité. En écho à ces assertions, le Conseil national de la sécurité routière (CNRS) - organe purement consultatif – avait déjà préconisé cette réduction de la vitesse en 2013. Au lieu de le suivre, le gouvernement d’alors s’était tourné bien plus tard, en 2015, vers une expérimentation de deux ans sur quatre axes en France. Achevée depuis cet été, celle-ci est mise de côté. Le nouveau gouvernement, en effet, ne souhaite pas communiquer sur ses résultats, une manière de dire que cette expérimentation telle qu’elle a été conçue ne peut sérieusement être reprise. Sous dimensionnée dans la durée mais aussi dans le nombre d’axes choisis, ses données ne peuvent être exploitées d’après le gouvernemenet !

 

Affaire Tapie-Lagarde : » La frêle limite entre justice et politique » (Jean-Claude Marin, Procureur)

Affaire Tapie-Lagarde : » La frêle limite entre justice et politique » (Jean-Claude Marin, Procureur)

Christine Lagarde Reconnue coupable de négligence mais dispensée de peine, un verdict  qui constitue évidemment un déni de justice. Pas étonnant, la conclusion était connue d’avance puisque l’affaire a été confiée à la très complaisante cour de justice de la république. Une cour spécialement créée pour juger les politiques. Une institution qui par ailleurs a rarement condamné les politiques en cause. Bref une justice d’exception et dont le verdict concernant Christine Lagarde constitue bien sûr un véritable scandale. La cour de justice de la république s’est une nouvelle fois discréditée en même temps qu’elle porte une grave atteinte à tout le système judiciaire. Et nourrit aussi le populisme. Un système à deux vitesses. Composé essentiellement de politiques,  la cour n’a pas voulu prendre de sanctions à l’égard de Christine Lagarde sans doute par peur qu’un jour la justice s’intéresse à d’autres erreurs de gestion voire à des malversations de ministres. La CJR compte douze parlementaires élus, en leur sein et en nombre égal, par l’Assemblée nationale et le Sénat. À l’heure actuelle, sept d’entre eux sont issus du Parti socialiste, quatre de LR et un de l’UDI. La Cour comprend également trois magistrats professionnels du siège de la Cour de cassation, dont l’un préside la CJR. Le sulfureux procureur général Jean-Claude Marin avait donné le ton  au cours de ce procès puisqu’il avait transformé son réquisitoire en plaidoirie en faveur de Christine Lagarde. Il avait en effet considéré que la décision de l’ancienne ministre des finances ne relevait pas d’une négligence punissable pénalement mais d’un choix politique et que le choix politique était exonéré de sanctions. La cour ne l’a pas totalement suivi,  elle a quand même reconnu la responsabilité de Christine Lagarde cette négligence ayant  contribué à accorder 400 millions à Bernard Tapie dont  40 millions de préjudice moral, un record du monde pour le préjudice moral ! Le procureur n’était pas complètement neutre dans cette affaire puisqu’il s’était d’abord opposé à ce procès. Ancien proche de Balladur, puis de Chirac enfin de Sarkozy,  ce procureur a su mener sa barque dans la hiérarchie judiciaire. Mettre en cause Christine Lagarde s’était indirectement mettre en cause également l’Élysée et Sarkozy puisque pas moins de 17 réunions se sont tenues à l’Élysée sur le sujet dont  certaines en présence de Bernard Tapie !  C’est sans doute en tenant compte de ce contexte politique que judiciaire que la directrice générale du Fonds monétaire international (FMI), Christine Lagarde, a été reconnue coupable lundi de négligences ayant mené à un détournement de fonds publics dans l’affaire Tapie, mais elle a été dispensée de peine en raison notamment de sa « réputation internationale ». L’ex-ministre des Finances de Nicolas Sarkozy, qui a validé en 2007 le principe d’un arbitrage pour solder le litige opposant Bernard Tapie au Crédit Lyonnais sur la revente d’Adidas, était accusée d’avoir pris une décision « malvenue » allant à l’encontre « de l’avis répété » de l’Agence des participations de l’Etat (APE). Il lui était aussi reproché d’avoir renoncé de manière « précipitée » à contester une sentence au « montant exorbitant ».  La Cour de justice a estimé que le délit qui lui était reproché n’était pas constitué pour la décision d’entrer en arbitrage. « La décision de la ministre de ne pas exercer un recours en annulation a rendu in fine inéluctable l’appropriation frauduleuse par les époux Tapie de la somme de 45 millions d’euros (somme allouée au titre du préjudice moral-NDLR) », a déclaré la présidente de la Cour de justice de la République (CJR), Martine Ract Madoux. « Cette faute n’est pas la seule cause des détournements mais elle en est l’une des causes déterminantes », a-t-elle ajouté. Ce point précis avait particulièrement mis en difficulté la patronne du FMI pendant le procès, la présidente estimant que le montant du seul préjudice moral aurait dû lui faire l’effet d’un « coup de poing dans l’estomac ».  Christine Lagarde a toutefois été dispensée de peine. « Il doit être tenu compte du contexte de crise financière mondiale dans lequel se trouvait Madame Lagarde » au moment des faits, a dit la présidente, en expliquant que sa condamnation ne serait pas inscrite à son casier judiciaire. Cerise sur le gâteau la cour de justice de la république n’a pas voulu mettre en danger la responsabilité de Christine Lagarde à la tête du fonds monétaire international. Un fonds monétaire international bien utile à la France pour éviter que cette institution ne se montre trop sévère à l’égard de la politique financière laxiste des gouvernements successifs. « Sa personnalité et sa réputation nationale et internationale doivent également être prises en compte. » A déclaré la cour. Finalement non sans vergogne le procureur Jean-Claude Marin résume bien l’enjeu de toute cette affaire : La question qui vous est posée est à « la frêle limite entre le politique et le judiciaire », avait-il estimé à l’audience.

Comme Sarko, Hortefeux, trop pressé, dépasse la vitesse limite

Comme Sarko, Hortefeux, trop pressé, dépasse la vitesse limite

Brice Hortefeux a sans doute pêché par imitation de son maître Sarkozy en se montant aussi pressé que lui ; du coup ; il a été contrôlé à 170 km/h. Heureusement pour lui grâce à ses relations d’ancien ministre de l’intérieur Brice Hortefeux a pu passer à travers les mailles de la répression (comme son patron !). Notons cependant qu’en matière de vitesse il n’y a plus de limites. En effet des physiciens du CNRS ont fait une découverte inattendue et totalement révolutionnaire. Ils affirment avoir mesuré des particules à une vitesse dépassant celle de la lumière, normalement considérée comme une limite infranchissable dans la théorie d’Einstein. Il ne semble pas cependant que Brice Hortefeux ait atteint  la lumière ! «Selon que vous serez puissant ou misérable…» Brice Hortefeux semble s’être inspiré de cette maxime (et sans passer par la case tribunal) pour échapper aux sanctions, le 1er mai, après avoir été contrôlé à 170 km/h au lieu de 110 par des douaniers à moto, selon une information parue dans le Canard enchaîné ce mercredi. Non seulement l’ancien ministre de l’Intérieur n’aurait pas perdu le moindre point après cet excès de vitesse qui aurait pu lui coûter jusqu’à 1500 € d’amende, une perte de six points, voire un retrait de permis, mais en plus, les douaniers auraient été convoqués le jour même par leur hiérarchie pour s’expliquer. Vers 10 heures du matin, le 1er mai, le député européen aurait roulé à trop vive allure sur l’autoroute A75 reliant Clermont-Ferrand à Béziers, à bord d’une Peugeot 508 banalisée. Le vice-président de la région Auvergne-Rhône-Alpes-Alpes devait se rendre aux fêtes champêtres de Champeix (Puy-de-Dôme) et il était en retard. Interrogé par l’hebdomadaire satirique, il reconnaît les faits sans mal : « J’allais incontestablement trop vite, j’étais en retard. J’ai voulu leur présenter mes papiers, mais l’un des deux était extrêmement agressif. Je l’ai donc signalé. On ne traite pas un administré de la sorte».  Ulcéré, Brice Hortefeux serait en effet allé jusqu’à rapporter la scène au préfet d’Auvergne-Rhône-Alpes, Michel Delpuech, passé par la place Beauvau, comme le rappelle Le Canard. Une intervention qui aurait valu aux deux fonctionnaires à l’origine de son contrôle routier d’être convoqués par la Direction des douanes d’Auvergne. Contacté par Lyon Mag, le préfet conteste toute ingérence dans cette affaire : «Je démens de la manière la plus catégorique cette prétendue intervention de ma part. C’est par la presse que j’apprends ce soir cet excès de vitesse et Monsieur Brice Hortefeux ne m’a jamais contacté sur ce sujet», affirme-t-il. Quant à Brice Hortefeux, il s’en serait tiré avec une simple remontrance verbale. Joint également par nos confrères de La Montagne, l’intéressé précise : «Les deux douaniers n’ont pas relevé d’infraction, tout d’abord parce que ce n’est pas dans leurs compétences. L’un d’eux s’est exprimé de manière peu ordinaire, son expression était agressive et on peut imaginer comment il se serait comporté avec un autre citoyen…»

 

(Avec le Parisien)

12



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Créer un blog | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol