Archive pour le Tag 'limites ?'

Page 3 sur 6

Jeux vidéo jeunes : limités à trois heures par semaine en Chine

Jeux vidéo jeunes : limités à trois heures par semaine en Chine 

 

La réglementation interdit déjà aux mineurs de jouer en ligne entre 22 heures et 8 heures.

 

La Chine a annoncé lundi 30 août qu’elle allait interdire aux moins de 18 ans de jouer plus de trois heures par semaine aux jeux sur internet. Les mineurs ne pourront plus jouer qu’une heure par jour, et uniquement les vendredis, samedis et dimanches, soit trois heures maximum par semaine. Ils ne pourront par ailleurs jouer « qu’entre 20 heures et 21 heures ». Pendant les vacances scolaires, ils pourront jouer une heure par jour.

 

Le jeu vidéo en ligne est décrié depuis longtemps en Chine pour ses conséquences négatives : baisse de la vision, impact sur les résultats scolaires, manque d’activité physique ou risque d’addiction. La réglementation interdisait déjà aux mineurs de jouer en ligne entre 22 heures et 8 heures.

 

Les limites de la méthanisation

Les limites de la méthanisation

France Stratégie, l’organisme conseillant le Premier ministre, dans une note publiée fin juillet estime que la méthanisation est à encourager  comme solution énergétique dans l’agriculture mais que c’est loin d’être la solution miracle visée la transition environnementale. « Ce n’est pas avec le développement de la biomasse à vocation énergétique que l’on assurera une transition équilibrée », explique à La Tribune Julien Fosse, l’un de ses deux auteurs. Car les objectifs fixés semblent hors de portée : alors que la Stratégie nationale bas carbone (SNBC) estime le potentiel de production de biomasse agricole proche de 250 térawattheure (TWh) à l’horizon 2050, afin d’alimenter les digesteurs mais aussi comme combustible, les scénarios de France Stratégie tablent sur un maximum de 120 à 160 TWh – contre 40 TWh aujourd’hui.

Environnement-Taxe carbone aux frontières: Des limites qui relativisent son intérêt

Environnement-Taxe carbone aux frontières: Des limites qui relativisent son intérêt  

 

L’économiste Uri Dadush juge, dans une tribune au « Monde », la taxe carbone européenne contestable face aux règles de l’OMC et aux principes de l’accord de Paris.(Extrait)

 

Tribune.    L’Union européenne (UE) a annoncé le 14 juillet une proposition de taxe carbone à ses frontières, qui devrait renchérir les importations de produits fortement émetteurs (acier, aluminium, ciment, électricité et engrais). Cette même taxe est déjà appliquée au sein de l’UE, qui veut désormais l’imposer aux fabricants étrangers. En soi, le projet part d’une bonne intention. Il n’est pas motivé par le protectionnisme, mais par des préoccupations climatiques on ne peut plus justifiées. Seul problème : si ce « mécanisme d’ajustement carbone aux frontières » (CBAM) est adopté en l’état, il risque de faire plus de mal que de bien. Pour trois raisons. La première, c’est qu’il repose sur l’hypothèse fausse d’une « fuite » de carbone – autrement dit, d’une tendance de la production à forte intensité d’émissions à se déplacer vers des pays moins réglementés. Or, bien des recherches montrent que la décision pour une industrie polluante de se délocaliser ou d’investir à l’étranger répond à de nombreux facteurs, parmi lesquels la réglementation environnementale n’est pas déterminante.

Une exposition générale au risque climatique

 

L’idée même du risque de « fuite » de carbone doit être relativisée, comme le montrent les chiffres de l’UE elle-même. Les recettes du permis carbone appliqué depuis 2005 dans le cadre du système d’échange de quotas d’émission (SEQE), qui revient à une taxe implicite sur les émissions des gros émetteurs, ont atteint leur plus haut niveau en 2019. Soit 15 milliards d’euros, le prix moyen du carbone ayant atteint 20 euros par tonne. Or, ces 15 milliards ne représentent que 0,5 % de la valeur ajoutée des secteurs affectés. Et encore… L’estimation reste haute, la sidérurgie et l’aluminium ayant bénéficié de quotas gratuits. Second point faible de la taxe carbone de l’UE : elle s’écarte du principe des « responsabilités différenciées » de l’accord de Paris sur le climat. Ce traité international, entré en vigueur en novembre 2016, vise à limiter le réchauffement climatique à moins de 2 degrés Celsius à l’horizon 2030, par rapport aux niveaux préindustriels.   Tous les pays sont exposés au risque climatique, sachant que les pays pauvres sont généralement les plus vulnérables et les moins à même de s’adapter. D’où le principe des « responsabilités différenciées », qui reflète aussi les émissions plus faibles par habitant des pays pauvres, et le fait qu’ils auront tendance à en émettre davantage à mesure que leurs revenus augmenteront.

Taxe carbone aux frontières: Des limites qui relativisent son intérêt

Taxe carbone aux frontières: Des limites qui relativisent son intérêt

 

L’économiste Uri Dadush juge, dans une tribune au « Monde », la taxe carbone européenne contestable face aux règles de l’OMC et aux principes de l’accord de Paris.(Extrait)

 

Tribune. 

 

L’Union européenne (UE) a annoncé le 14 juillet une proposition de taxe carbone à ses frontières, qui devrait renchérir les importations de produits fortement émetteurs (acier, aluminium, ciment, électricité et engrais). Cette même taxe est déjà appliquée au sein de l’UE, qui veut désormais l’imposer aux fabricants étrangers.

En soi, le projet part d’une bonne intention. Il n’est pas motivé par le protectionnisme, mais par des préoccupations climatiques on ne peut plus justifiées. Seul problème : si ce « mécanisme d’ajustement carbone aux frontières » (CBAM) est adopté en l’état, il risque de faire plus de mal que de bien. Pour trois raisons.

La première, c’est qu’il repose sur l’hypothèse fausse d’une « fuite » de carbone – autrement dit, d’une tendance de la production à forte intensité d’émissions à se déplacer vers des pays moins réglementés. Or, bien des recherches montrent que la décision pour une industrie polluante de se délocaliser ou d’investir à l’étranger répond à de nombreux facteurs, parmi lesquels la réglementation environnementale n’est pas déterminante.

Une exposition générale au risque climatique

L’idée même du risque de « fuite » de carbone doit être relativisée, comme le montrent les chiffres de l’UE elle-même. Les recettes du permis carbone appliqué depuis 2005 dans le cadre du système d’échange de quotas d’émission (SEQE), qui revient à une taxe implicite sur les émissions des gros émetteurs, ont atteint leur plus haut niveau en 2019. Soit 15 milliards d’euros, le prix moyen du carbone ayant atteint 20 euros par tonne. Or, ces 15 milliards ne représentent que 0,5 % de la valeur ajoutée des secteurs affectés. Et encore… L’estimation reste haute, la sidérurgie et l’aluminium ayant bénéficié de quotas gratuits.

Second point faible de la taxe carbone de l’UE : elle s’écarte du principe des « responsabilités différenciées » de l’accord de Paris sur le climat. Ce traité international, entré en vigueur en novembre 2016, vise à limiter le réchauffement climatique à moins de 2 degrés Celsius à l’horizon 2030, par rapport aux niveaux préindustriels.

 

Tous les pays sont exposés au risque climatique, sachant que les pays pauvres sont généralement les plus vulnérables et les moins à même de s’adapter. D’où le principe des « responsabilités différenciées », qui reflète aussi les émissions plus faibles par habitant des pays pauvres, et le fait qu’ils auront tendance à en émettre davantage à mesure que leurs revenus augmenteront.

Les limites du » fabriqué en France »

Les limites du » fabriqué en France »

La vulnérabilité d’une économie basée sur des chaînes de valeurs largement délocalisées dans les pays à bas-coûts  apparaît clairement. Le temps est donc venu de revenir vers une production plus territorialisée, gage de meilleure qualité et réponse aux enjeux éthiques et climatiques qu’aucune économie moderne n’a plus le droit d’ignorer.  Par Pierre Goguet, président de CCI France. ( dans l’Opinion) extrait)

 

Les consommateurs deviennent plus exigeants en matière de qualité et d’origine, en témoigne le succès des labels « bio » et des « circuits courts ». Les entreprises ont compris l’intérêt de valoriser leur savoir-faire et leur ancrage territorial. Elles étaient ainsi 2.300 à candidater cette année pour voir leur produit retenu à l’exposition du « Fabriqué en France » organisée au palais de l’Élysée début juillet. Au-delà de cette prestigieuse vitrine, nos entreprises ont à leur disposition des outils qui leur permettent d’afficher l’origine France de leurs produits. Il peut s’agir du marquage d’origine, comme les « Made in France » ou « Fabriqué en France », de l’utilisation d’une Indication Géographique ou encore d’un label plus exigeant, comme « Origine France Garantie ».

Ainsi, le « Fabriqué en France » continue de profiter de l’appétence des consommateurs pour des produits de proximité. Les enquêtes d’opinion sont concordantes sur ce point : en France, l’achat local est en passe de devenir un acte citoyen, un choix justifié par des raisons économiques autant qu’écologiques. Mais le « Fabriqué en France » comporte un risque : celui de tomber dans le piège de l’entre-soi. Derrière les notions de tradition, qualité et patrimoine, nous voyons se profiler l’image d’une économie nationale auto-suffisante et déconnectée des enjeux mondiaux. Pour les CCI, il ne doit pas s’apparenter à un retour nostalgique vers le passé ni à une revendication de souverainisme déplacée.

Le « Fabriqué en France » doit s’élargir pour prendre en compte toutes les entreprises innovantes qui sont l’avenir de notre industrie et de notre jeunesse. Donnons à celles-ci les moyens de produire en France tout en sauvegardant leur compétitivité. Ce n’est pas chose facile tant les écarts de coûts de production restent importants entre notre pays et les pays émergents. Mais cet écart se comble grâce à une diminution des charges fiscales conjuguée à un renchérissement du coût du transport, sans oublier tous les coûts cachés liés aux délais, à la non-qualité ou encore au non-respect de normes sociales ou environnementales par un sous-traitant lointain.

Grâce au Plan de relance national, nos entreprises industrielles peuvent aujourd’hui investir massivement dans la modernisation de leur outil de production qui passe par une transition vers le numérique et le bas-carbone. Pour certaines d’entre elles, cela implique une relocalisation de leur activité. Pour d’autres, il s’agit d’investir pour redévelopper une production dans les territoires. Pour renforcer notre résilience nationale, le plan France Relance mise sur la relocalisation d’industries mais surtout sur l’innovation et le renouvellement de notre appareil productif. Aujourd’hui il s’agit bien de construire une « autonomie stratégique innovante », articulée à l’échelle européenne et qui doit être ouverte sur le monde. J’en suis convaincu : le Fabriqué en France est un atout fort pour nos entreprises qui souhaitent développer leur chiffre d’affaires à l’international. Elles peuvent compter sur la Team France Export pour les accompagner dans leurs démarches.

Réciprocité dans les règles d’accès aux marchés publics

Le « Fabriqué en France » doit s’intégrer dans le « Fabriqué en Europe ». En effet, nous devons renforcer la résilience du marché unique en rendant visible la qualité des productions de l’industrie française au niveau européen et mondial. À ce titre, une ouverture récente reste également à concrétiser : celle de la réciprocité dans les règles d’accès aux marchés publics européens. C’est un enjeu essentiel pour la plupart de nos PME de nos territoires dont la commande publique, nationale ou européenne, représente un levier de croissance important. L’appartenance à l’Europe nécessite un partage de cette posture par l’ensemble des pays membres.

Au même titre que l’achat français devient un acte civique pour nos concitoyens, l’achat européen doit devenir un geste politique pour alimenter la croissance de nos entreprises et leur permettre de se confronter aux champions internationaux. L’ouverture sur le monde peut se faire en revendiquant une « préférence pour l’Europe », bénéfique aux entrepreneurs qui font le choix du « Fabriqué en France ».

Les limites de la science économique

Les limites de la science économique 

L’anthropologue, sociologue et médecin Didier Fassin plaide, dans une tribune au « Monde », pour une ouverture d’une discipline économique trop « monolithique » et normative aux autres sciences sociales et à de nouveaux paradigmes.

 

 

Didier Fassin enseigne à Princeton à l’Institut d’études avancées, haut lieu de « fertilisation croisée » entre les différentes disciplines des sciences humaines. Le texte ci-dessous est issu du discours qu’il a prononcé lundi 31 mai dans le grand amphithéâtre du « Monde » , à l’occasion de la remise du Prix du meilleur jeune économiste 2021, décerné chaque année par le Cercle des économistes et « Le Monde ». 

Tribune. 

 

N’appartenant pas moi-même à la discipline ainsi célébrée, je ne peux certainement pas me réclamer d’une compétence particulière, mais seulement d’une curiosité et d’un intérêt pour l’économie, et tout autant pour les économistes. A cet égard, deux circonstances singulières m’ont rendu attentif à l’évolution de la discipline et à l’activité de celles et ceux qui la pratiquent.

D’abord, animant l’Ecole de science sociale de l’Institute for Advanced Study de Princeton, qui se veut ouverte à tous les savoirs, j’ai tenu à ce que l’économie soit toujours représentée parmi les vingt-cinq chercheurs qui viennent y passer un an pour écrire leur livre ou leurs articles, ayant même en 2020 choisi comme thème fédérateur le très wébérien « Economie et société ».

Ensuite, dans la mesure où notre école est traditionnellement composée de quatre postes de professeur, en anthropologie, sociologie, science politique et économie, j’ai été chargé de conduire le recrutement sur ce dernier poste, ce qui m’a donné l’obligation de lire les travaux de nombre d’économistes, étant fort heureusement aidé dans cette tâche par un comité de véritables experts. Mon propos sera donc celui d’un observateur extérieur, naïf en quelque sorte, qui, à ce titre, osera des commentaires parfois étonnés.

L’extension du domaine de l’économie

Découvrir les recherches conduites par les économistes sélectionnés pour le Prix du meilleur jeune économiste a été pour moi un plaisir, d’autant qu’elles manifestent un engagement sur des enjeux importants de société, qu’il s’agisse de justice pénale, de démocratie représentative, de santé publique ou d’innovation scientifique – cette liste n’étant pas exhaustive.

Un tel éclectisme est significatif d’une évolution majeure à l’œuvre depuis plusieurs décennies : l’investissement des économistes sur des sujets paraissant éloignés de leur objet initial, à savoir les questions proprement économiques – ce que certains chercheurs, dans les disciplines ainsi visitées, voient même comme une colonisation. Cette extension du domaine de l’économie témoigne assurément du dynamisme et de la créativité de celles et ceux qui la pratiquent. Elle peut cependant trouver ses limites de deux façons : par défaut de critique épistémologique et par manque d’échange scientifique.

Les limites de la puissance humaine

Les limites de la puissance humaine

 

Dans un texte écrit pour « Le Monde », le sociologue et philosophe Edgar Morin revient sur le siècle écoulé, durant lequel s’est accrue « de façon inouïe la puissance humaine, en même temps que, de façon non moins inouïe, l’impuissance humaine ».

Avant de considérer la crise que nous vivons depuis 2020 puis d’en supputer les suites, essayons de la situer dans la phase extraordinaire de l’aventure humaine qui a commencé il y a soixante-quinze années et a connu des imprévus eux-mêmes extraordinaires. C’est une période où s’accroît de façon inouïe la puissance humaine, en même temps que, de façon non moins inouïe, l’impuissance humaine.

En 1945, la bombe sur Hiroshima annonce la possibilité d’anéantissement de presque toute l’espèce humaine, possibilité qu’accroît par la suite la multiplication des armes nucléaires, notamment dans des Etats hostiles les uns aux autres. En cas de guerre nucléaire mondiale ne subsisteraient que quelques îlots de survivants. Ce déchaînement de puissance nous réduit à l’impuissance.

En 1972, le rapport Meadows avertit l’humanité du processus de dégradation de la planète tant dans sa biosphère que dans sa sociosphère. Les cinquante années suivantes voient son aggravation continue. La conscience de cette menace se fait très lentement et demeure insuffisante, tandis que les ravages se poursuivent dans l’atmosphère, les rivières, les océans, les terres stérilisées par l’agriculture industrialisée, l’alimentation, les villes polluées, la vie humaine.

 

A partir de 1980, le mouvement transhumaniste, né en Californie, se répand dans les élites de la technique et de l’économie. Il prévoit une métahumanité dotée de l’immortalité et une métasociété harmonieusement réglée par l’intelligence artificielle. Animé par la conscience des possibilités de nouveaux pouvoirs technoscientifiques qui permettent de concevoir le prolongement de la vie humaine et un homme augmenté dans ses pouvoirs, le transhumanisme reprend et développe le mythe occidental de maîtrise illimitée du monde extérieur et l’utopie d’une société rendue harmonieuse par l’usage managérial de l’intelligence artificielle éliminant les désordres, donc les libertés. Il annonce, en fait, une métamorphose de l’humanité tant individuelle que sociale en une post-humanité ou surhumanité.

En 1989-1990 s’opère l’invasion du capitalisme en ex-Union soviétique et en Chine communiste, en même temps que la diffusion mondiale des moyens de communication immédiate. Cette mondialisation ou globalisation crée une communauté de destin pour les humains de tous continents, face aux périls communs (nucléaires, écologiques, économiques). Cette communauté de destin permet d’entrevoir la possibilité d’une métamorphose non pas transhumaniste mais panhumaniste, allant dans le sens non pas d’un homme augmenté mais d’un homme amélioré dans une Terre-patrie qui engloberait sans nullement supprimer nos patries nationales – cela à la condition préliminaire qu’apparaisse une nouvelle pensée politique humaniste.

Les limites modèles de croissance traditionnels

Les limites modèles de croissance traditionnels 

 

 

Les deux économistes Jean-Hervé Lorenzi et Alain Villemeur détaillent, dans une tribune au « Monde », les six nouvelles répartitions des revenus, du travail et de l’innovation qui permettraient de mettre en place un chômage résiduel et une croissance inclusive et stable pour le XXIe siècle.

 

Tribune.

 

Six questions hantent aujourd’hui les démocraties occidentales. Faut-il augmenter les salaires ? Comment faire de l’innovation une source de nouveaux emplois ? Faut-il favoriser les investissements d’expansion pour lutter contre le changement climatique ? Comment éviter que la jeunesse soit une génération sacrifiée ? Faut-il parier sur la qualification des emplois ? Enfin, ne faut-il pas investir davantage dans le social et l’éducation ?

Les économistes font face ainsi à un double échec de politique et de théorie économiques.

Le premier n’est autre que le ralentissement généralisé des économies avancées depuis le début du nouveau millénaire, un mouvement accompagné par la stagnation du pouvoir d’achat du plus grand nombre et l’explosion d’inégalités devenues insupportables.

Le deuxième échec relève de la théorie macroéconomique impuissante à comprendre ce ralentissement alors que l’endettement des pays avancés est croissant et que les taux d’intérêt n’ont jamais été aussi bas. Les modèles de croissance traditionnels ont ainsi montré leur inadaptation profonde.

Durant ces dernières décennies, trois révolutions ont engendré de graves déséquilibres économiques et sociaux : celle néolibérale inspirée par Milton Friedman [1912-2006], celles du numérique et, enfin, celle du vieillissement de la population. Déséquilibres dans les répartitions, entre profit et salaire bien sûr, mais aussi entre création et destruction d’emplois, entre épargne et investissements d’expansion, entre revenus des différentes générations, entre emplois peu qualifiés et hautement qualifiés, entre dépenses sociales et privées.

Ces déséquilibres, sources de contestation politique, ne sont pas sans menacer la cohésion sociale des pays avancés.

Une « grande rupture » s’impose car seul un nouveau paradigme permet d’appréhender cette réalité préoccupante. Il est l’aboutissement d’une démarche audacieuse réconciliant ces deux grands économistes que l’on oppose le plus souvent, John Maynard Keynes [1883-1946], l’homme de la demande et du rôle de l’Etat, Joseph Schumpeter [1883-1950], celui de l’innovation et de l’entrepreneur.

Ce paradigme est aussi fondé sur une modélisation jamais développée et sur laquelle repose l’équilibre pérenne et durable entre offre, demande et ruptures technologiques. Il souligne combien les six répartitions à l’œuvre aujourd’hui pénalisent la croissance économique, renforcent les inégalités sociales et hypothèquent l’innovation pourtant nécessaire pour lutter contre le changement climatique.

G7 : Les limites de la nouvelle fiscalité internationale

G7 :  la nouvelle fiscalité internationale

Les trois fiscalistes Philippe Bruneau, Charles Ménard et Jean-Yves Mercier attirent l’attention, dans une tribune au « Monde », sur les conséquences des décisions du G7 en matière de fiscalité des multinationales.

 

Tribune.

 

Le 5 juin 2021, les ministres des finances du G7 ont affirmé solennellement qu’ils soutenaient les efforts entrepris sous l’égide de l’OCDE pour répartir plus équitablement les bases d’imposition entre les Etats et se sont également déclarés favorables à l’instauration d’un taux minimal d’imposition pour les entreprises multinationales, qu’ils proposent de fixer à 15 %.

Cette déclaration fait suite à la publication par le Trésor américain le 7 avril d’un rapport de 19 pages expliquant plus en détail le plan fiscal « Made in America » du président Joe Biden, qui vient compléter la proposition d’infrastructure « Build Back America » de plus de 2 000 milliards de dollars présentée la semaine précédente. Le plan fiscal permettrait de lever environ 2 500 milliards de dollars sur quinze ans, ce qui, selon l’administration, compenserait entièrement le coût de ses propositions d’infrastructure.

 

Outre l’augmentation du taux de l’impôt fédéral, qui passerait de 21 % à 28 % (le président Biden a indiqué par la suite que le taux pourrait finalement être fixé à 25 %, soit le taux d’impôt sur les sociétés français en 2022), la mesure qui retient particulièrement l’attention est la suivante : les sociétés dont le siège est situé aux Etats-Unis devraient justifier que les bénéfices réalisés dans leurs filiales à l’étranger ont été, pays par pays, soumis à un taux minimal d’imposition de 21 %.

A défaut, elles devraient acquitter un impôt supplémentaire aux Etats-Unis dont le taux correspondrait à la différence entre le taux effectivement appliqué dans le pays étranger et ces 21 %. Pour mémoire, dans le système actuel, le taux d’imposition minimal, appréhendé de manière globale et non pays par pays, est fixé à 10,5 %.

Pour jauger l’ampleur de ce changement, il suffit de prendre deux exemples.

– Une société américaine détient une filiale imposée en Irlande au taux de 12,5 %. Elle n’acquitte aujourd’hui aucun impôt aux Etats-Unis sur ses résultats irlandais. Demain, elle pourrait être amenée à acquitter un impôt complémentaire au taux de 8,5 % (21 – 12,5) sur les bénéfices réalisés par sa filiale en Irlande.

– Une société américaine détient plusieurs filiales à l’étranger dont certaines ne sont pas assujetties à l’impôt tandis que d’autres sont soumises à un taux d’imposition de 28 %. Dans le régime actuel, si la moyenne des taux appréhendés au niveau mondial atteint 10,5 %, aucun impôt n’est dû aux Etats-Unis. A la suite de la réforme, les résultats réalisés dans les Etats où aucun impôt ou un impôt très faible est perçu seront soumis à un taux de 21 % ou proche de celui-ci.

(Reste que l’ingénierie fiscale étant sans limite des procédures d’évitement fiscal seront toujours possibles avec notamment la possibilitéd’ internalisation des couts dans les pays à forte fiscalité et inversement d’externalisation des bénéfices dans les pays à faible fiscalité NDLR(

Administration :Les limites du numérique

Administration :Les limites du numérique

 

Trois cadres de la fonction publique territoriale appellent, dans une tribune au « Monde », à plus de prudence dans la « dématérialisation » de l’administration, trop souvent source de surcoûts, d’inefficacité, de tensions avec les usagers et d’émissions de gaz à effet de serre.

 

Tribune. 

 

Injonction paradoxale ou hasard de calendriers ? Le Sénat a adopté, le 12 janvier, la proposition de loi visant à réduire l’empreinte environnementale du numérique ; dans le même temps, le gouvernement affirme à grand renfort de financements et d’appels à projets son objectif de dématérialiser 100 % des démarches administratives d’ici à 2022.

Le numérique, vecteur du « zéro papier », est souvent présenté comme une solution écologique. Mais le terme « dématérialisation » est trompeur car il y a bien exploitation et création de matière. Derrière la transformation numérique de nos organisations se cachent ainsi des impacts environnementaux et sociaux que nous devons saisir en pleine conscience et responsabilité.


La crise sanitaire a drastiquement accéléré le mouvement en matière de déploiement des outils informatiques et des usages numériques. Or, selon le think tank [sur la transition énergétique] The Shift Project, le numérique serait déjà responsable de 4 % des émissions de gaz à effet de serre au niveau national (7 % en 2040 !), alors que seulement 20 % des démarches administratives sont aujourd’hui dématérialisées.

Le numérique est assurément un allié pour améliorer la performance des administrations et la qualité du service rendu aux citoyens. Mais poursuivre l’objectif d’une dématérialisation à 100 % nécessitera de revoir les stratégies numériques publiques (voire de les créer !) afin d’assurer leur soutenabilité au sens économique, social, démocratique et environnemental.


Dès lors que les deux tiers de l’empreinte carbone du numérique proviennent des terminaux (ordinateurs, smartphones…), en grande partie lors de leur fabrication, les acteurs publics doivent veiller à la systématisation des dotations en matériel. Ils doivent améliorer la qualification des besoins, jouer sur l’allongement de la durée de vie et la réparabilité des matériels, favoriser leur réemploi au bénéfice des usagers fragiles et des associations locales.

Le tiers restant de l’empreinte carbone provient des millions de données publiques stockées dans les data centers. Il convient également de réguler les dispositifs de sauvegarde et l’accès au cloud, en privilégiant les infrastructures locales, moins polluantes.


S’engager dans la nécessaire sobriété numérique implique de profonds changements dans les usages des agents publics : réduire l’usage excessif des e-mails (un arbre absorbe 20 kg de CO2 par an, 666 e-mails avec un fichier attaché de 1 Mo en produisent autant), revoir la collecte et la sélection des données (41 % des données collectées ne sont pas utilisées pour des analyses), développer les compétences numériques et sensibiliser à la cybersécurité.

Quoi qu’il en coûte: limites et conséquences (Gilles Savary)

  • Quoi qu’il en coûte: limites et conséquences (Gilles Savary)

 

Gilles Savary s’inquiète des conséquences après la retombée inévitable  du quoi qu’il en coûte dans une tribune de l’Opinion.

 

Tribune

 

A l’issue du confinement drastique de mars 2020, le gouvernement a abordé le déconfinement avec une prudence de Sioux. Jean Castex, chargé de l’opération, y a gagné ses galons de Premier ministre. Nous étions encore habités de l’esprit de 14 et le gouvernement s’efforçait de conjurer les pièges politiques d’une sortie d’état d’urgence sanitaire qu’il croyait définitive. En fait de guerre éclair, nous y sommes encore et nous avons gagné en fatalisme et même, plus insoupçonnable, en discipline collective.

  • Ce n’est plus simplement en regard de l’épidémie, désormais bien installée dans le paysage et les esprits, que se gère le prochain déconfinement, mais de la course de vitesse vaccinale et de ses aléas d’approvisionnementOn déconfinera donc avec pragmatisme, en tolérant une part de risque sanitaire en regard de l’aspiration générale à retrouver dès que possible une vie sociale normale.
  • Les Français eux-mêmes sont devenus acteurs de la gestion de la crise sanitaire en intégrant dans leurs comportements et leurs choix vaccinaux la part d’aléa, de compromis et d’adaptation qui s’imposent aux stratégies gouvernementales. Mais la durée et les rebonds interminables de la crise sanitaire sont contrebalancés par l’espoir ardent, véhiculé par le vaccin, d’un retour à la normale progressif et empirique, et accepté comme tel.
  • Epreuve de vérité. Infiniment plus redoutable s’annonce le désarmement de l’épais rempart de protections publiques mises en place en France avec une générosité et un volontarisme sans équivalent dans le monde. La couverture exceptionnelle de chômage partiel, le fonds de solidarité éligible aux TPE et PME de tous les secteurs d’activité, les Prêts garantis par l’Etat, les aides exceptionnelles aux ménages fragiles ou aux jeunes ont creusé un endettement public et privé et des déficits budgétaires et sociaux qui ne sont pas un puits sans fond.
  • Ce manteau d’aides publiques indifférenciées constitue un écran trompe-l’œil de la situation réelle de notre économie et de nos entreprises et alimente une redoutable dépendance à l’argent magique de l’Etat. Il a permis en 2020 le tour de force d’augmenter le pouvoir d’achat des ménages de 0,6 % dans un contexte de récession de la production nationale de 8,2 % ! On estime à 60 % le nombre de petits commerces qui ont dégagé, grâce au Fonds de solidarité, un excédent brut égal ou supérieur à celui de l’avant covid, sans qu’un retour à la normale leur garantisse une viabilité économique certaine.
  • Toutes proportions gardées, l’équivalent du plan de relance des Etats-Unis est chez nous d’ores et déjà stocké dans un volant d’épargne des ménages de l’ordre de 120 milliards d’euros privatisés, dont on ne sait s’il contribuera à la relance de la consommation ou se figera dans une épargne de précaution inégalement répartie.
  • Pour le moment, le gouvernement reste évasif sur sa stratégie de sevrage de cette manne artificielle dont tout laisse penser que le ressac laissera de nombreuses victimes, entreprises et salariés, échouées sur la grève. Il ne pourra guère différer plus longtemps cette épreuve de vérité qui tombe mal avec le calendrier électoral.
  • Gilles Savary est ancien député PS de la Gironde et délégué général de Territoires de progrès.

Autotest virus : seulement disponible en nombre limités fin avril en France

Autotest virus : seulement disponible en nombre limités fin avril en France

 

Alors que les autotest sont déjà largement diffusées dans de nombreux pays étrangers, en France ils seront encore contingentés et ne seront pas disponibles avant fin avril. Le même retard, la même pénurie, le même scandale que pour les masques les vaccins. À noter par exemple que ces autotest sont vendus et disponibles dans des supermarchés en Allemagne et en Grande-Bretagne alors qu’en France ils ne pourront être achetée qu’en pharmacie. I

 

Le plus ridicule c’est que ces tests ne sont pas encore autorisés au niveau européen ! , ils doivent bénéficier d’une procédure dérogatoire pour être commercialisés en France. Dans ce but, un examen rapide a été engagé par l’ANSM, l’Agence du médicament, pour valider les documentations techniques apportées par les fabricants. Entre 5 et 10 tests sont évalués, dont quelques-uns ont été élaborés par des fabricants français, précise-t-on du côté du ministère de la Santé.

 

Plusieurs arrêtés devront être publiés au Journal officiel dans les prochains jours pour autoriser les autotests, la vente en pharmacie et notamment les procédures dérogatoires de commercialisation de ces dispositifs médicaux, sans l’aval européen.

Technologies-Intelligence artificielle : limites et mythes

Technologies-Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Intelligence artificielle : limites et mythes

 

Intelligence artificielle : limites et mythes

 

 

Luc Julia fut un des créateurs de Siri, l’assistant virtuel de l’iPhone. Il dirige depuis 2012 le centre de recherche de Samsung, en Californie, mais il passe une partie de son temps à Paris. Considéré comme une des stars mondiales de l’intelligence artificielle, il a pourtant clamé, dans un livre paru en janvier 2019, que celle-ci… n’existe pas ! (Interview dans l’opinion)

Vous êtes le créateur de Siri, un des outils les plus aboutis d’intelligence artificielle appliqué à la reconnaissance vocale. Et pourtant, vous soutenez cette thèse surprenante : l’intelligence artificielle n’existe pas !

Non, cela n’existe pas ; et d’ailleurs, j’appelle cela de l’innovation avancée ou de l’intelligence augmentée, ce qui signifie que l’on peut garder le même sigle sans utiliser l’expression intelligence artificielle. Ce à quoi on a assisté depuis les années 1970, après un premier « hiver de l’intelligence artificielle » qui a découlé de l’échec des premières tentatives de reconnaissance du sens des textes écrits avec une machine et de l’assèchement des financements qui a suivi. Ce que nous observons aujourd’hui, ce sont surtout des systèmes experts, qui suivent de la logique, des règles. Ce sont des super arbres décisionnels qui reposent sur des capacités de stockage de plus en plus importantes. En 1997, lorsque l’ordinateur Deep Blue d’IBM bat le champion d’échec Gary Kasparov, il n’y parvient que parce qu’il est doté d’une mémoire énorme qui stocke les 10 49 coups possibles aux échecs. C’est beaucoup, mais c’est un nombre fini.

L’intelligence artificielle a pourtant démontré des capacités d’apprentissage…

Elle n’a démontré que sa capacité à apprendre très lentement. J’aime citer cet exemple. La naissance d’Internet, en 1994, a offert au monde la plus importante base de données jamais compilée et la notion de « big data ». On a pu prouver la capacité d’un système informatique à apprendre. La première expérience menée, entre 1997 et 2000, a été d’apprendre à un ordinateur à reconnaître un chat, en observant des centaines de milliers de photos étiquetées « chat » postées par des humains ; c’était la première base qualifiée et bien labellisée que l’on possédait, parce que les propriétaires de chats aiment poster des photos de leurs animaux. Et c’est ainsi qu’entre 2000 et 2005, des machines ont pu reconnaître des chats… à 98 %. Un enfant humain a, lui, besoin de voir un chat deux fois en moyenne pour intégrer le concept. Cela relativise totalement la notion de machine learning.

La machine a besoin, pour gager, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance

L’intelligence artificielle a appris à faire des choses vraiment plus difficiles, comme jouer au très complexe jeu de go, dont on peine à évaluer le nombre de combinaisons possibles. N’est-ce pas remarquable ?

Le jeu de go est un jeu originaire de Chine dont le but est de contrôler le plan de jeu en y construisant des « territoires » avec des pierres noires et blanches, tout en faisant des prisonniers. Ce jeu pourrait comporter entre 10 172 et 10 592 configurations. On ne sait pas exactement. On sait désormais avoir une machine avec une puissance de calcul suffisante pour prendre en compte cette incroyable masse de combinaisons. Le programme Alphago développé par Google DeepMind a battu un humain en 2016. Elle n’est pas plus créative que l’homme. Elle est simplement plus surprenante. Et elle a besoin, pour gagner, de s’appuyer sur l’équivalent de la puissance de calcul de 2000 ordinateurs domestiques. Un petit data center qui dépense 440 kWh ! Une énergie folle pour jouer au go quand, dans le même temps, l’esprit humain dépense 20 Wh, l’équivalent d’une ampoule de faible puissance. Et l’esprit humain ne fait pas que jouer au go, il sait faire des quantités d’autres choses. Il faut se calmer, avec l’intelligence artificielle. Pour l’instant, cela se résume à une débauche de data et d’énergie pour faire des choses très limitées.

Pourquoi l’intelligence artificielle – ou l’innovation avancée comme vous l’appelez – fait-elle si peur ?

Parce que l’on raconte n’importe quoi sur ce sujet. Pour certains, l’IA – et j’utilise ces lettres à dessein – c’est Hollywood, c’est de la science-fiction, c’est « Terminator », le robot qui remplace l’homme et prend seul des décisions mauvaises, qui est incontrôlable. Or, nous sommes actuellement en contrôle total de l’IA. Ou alors, on fait rêver. C’est un autre genre de film, c’est « Her », le film de Spike Jonze, l’IA séduisante, qui devient notre moitié. Or, cela n’existera jamais avec les mathématiques et les statistiques qui servent actuellement de base à l’IA. Il faudrait utiliser d’autres sciences pour simuler un cerveau. Peut-être de l’informatique quantique… Mais cela reste une totale hypothèse, puisque nous ne savons pas comment fonctionne un cerveau, ou ce qu’est l’intelligence. On veut donc imiter un modèle que l’on ne connaît pas. L’intelligence émotionnelle, par exemple, personne ne sait ce que c’est.

Il y a pourtant des inquiétudes légitimes avec l’IA. En 2016, par exemple, le chatbot de Microsoft Tay, qui était supposé aider les clients à choisir leur matériel, est devenu raciste et sexiste en à peine 16 heures d’usage…

Tay était une expérience marketing qui a dû très vite être débranchée. Cet échec a souligné deux choses. D’abord, le fait que les algorithmes doivent comprendre le public et s’y adapter pour répondre à ses questions. Cela n’a pas été le cas avec Tay, qui a raconté autre chose que ce qu’il devait. Ensuite, pour pouvoir prendre en compte des conversations et répondre, un chatbot doit s’appuyer sur des conversations préexistantes annotées. Il y a des quantités considérables dans une base appelée Switchboard, qui recense des conversations enregistrées de call center. Il est probable que la base utilisée par Tay n’était pas de bonne qualité et à conduit Tay à dériver. C’est toujours l’homme qui décide ! Il n’y a pas d’erreurs de la machine les erreurs sont toujours celles de l’homme.

La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions

Quelle attitude les autorités politiques doivent-elles adopter face à l’intelligence artificielle ?

Il faut évidemment une régulation, mais qui ait avant tout une valeur éducative. Pour l’instant les tentatives sont arrivées en retard. Le Règlement européen sur la protection des données personnelles, le RGPD, est très louable, mais il arrive quinze ans après les premiers problèmes. La régulation, c’est avant tout la régulation de chacun. La technologie informatique est sans doute une des inventions les plus puissantes de l’humanité. Plus puissante, sans doute, que la maîtrise de l’atome. Mais elle n’est finalement pas si différente des autres inventions. On a mis du temps à réguler l’usage du couteau ou de la poudre. Tous les outils peuvent être utilisés à bon ou à mauvais escient. Lorsque l’Humain invente quelque chose, c’est généralement pour le bien. Mais il est possible que cela dérape ici où là.

Est-il cependant à craindre que l’intelligence artificielle et ses applications finissent par grignoter nos libertés individuelles ?

L’IA aura les effets que les individus et les groupes décideront qu’elle aura. C’est une question éthique, philosophique autant que politique. Elle peut servir à éviter les accidents de voiture, à diagnostiquer les cancers. Le temps libéré par la technologie peut être utilisé pour nous éduquer, pour créer des liens. Les abus de la technologie peuvent aussi aboutir à des scénarios comme celui d’« Idiocracy », film sorti en 2005. Mike Judge y dépeint une société qui a tout lâché et la technologie aboutit à réduire une partie de l’humanité en esclavage. Notre rapport à la technologie doit être une négociation permanente : qu’est-ce qu’elle m’apporte ou pas ? Il faut choisir ses batailles.

Vous êtes une figure incontournable de la Tech aux Etats-Unis. Et vous n’êtes pas le seul français à briller dans la Silicon Valley. Comment se fait-il, selon vous, que la France et l’Europe comptent aussi peu de licornes ?

Je suis un franco-franchouillard de base ! Je crois en la France de Pascal, de Descartes, en l’héritage des Lumières. Notre pays produit des ingénieurs doués en maths et en technologie… Mais cela ne se traduit pas en termes économiques par la création d’entreprises. Cela n’a rien à voir avec les compétences, mais avec le marché. Il a beau exister un marché commun en Europe, du point de vue technologique, ce marché n’existe pas. Trop de langues cohabitent, trop de régulations, trop de barrières administratives différentes ; l’Europe a, de ce point de vue là, tout fait pour se pénaliser elle-même. Résultat : pour une société technologique française, le marché se limite à 60 millions d’habitants quand il est de 330 millions de personnes aux Etats-Unis avec un langage unique et d’un milliard de personnes en Chine. La démographie et la géographie font finalement tout. Il va être très compliqué d’inverser la tendance, même si, depuis deux ou trois ans, la French tech a redonné une fibre entrepreneuriale à la France. Les pépites que nous exportons sont en fait nos cerveaux, puisque tous les chefs de l’intelligence artificielle dans la Silicon Valley sont des Français.

Les limites de la désobéissance civile

Les limites de la désobéissance civile

 

La « désobéissance civile » est une expression forgée par un siècle de combats au nom de la justice pour tous et de la conquête de nouveaux droits. L’employer à tout propos procède d’une dangereuse équivoque politique, s’inquiète, dans une tribune au « Monde », l’ex-député écologiste Noël Mamère.

Tribune

 

. La colère et la détresse des cafetiers et restaurateurs, condamnés à l’inactivité par les mesures sanitaires du gouvernement liées au Covid-19, peuvent-elles être qualifiées de « désobéissance civile », comme nous le répètent certains médias ? Ne prennent-ils pas le risque de la confusion, de l’amalgame et, partant, de la manipulation politique en appliquant à une jacquerie – dont on peut comprendre les motifs – une expression forgée par un siècle de combats au nom de la justice pour tous et de la conquête de nouveaux droits ?

Quel lien peut-on établir entre les grandes figures de la « désobéissance civile non violente », telles que Henry David Thoreau (1817-1862), Gandhi (1869-1948), Martin Luther King (1929-1968), pour ne citer que les plus célèbres, et les manifestations des restaurateurs d’aujourd’hui ? Se battent-ils pour la conquête de nouveaux droits ou pour la seule survie de leur activité ?

En procédant à de tels raccourcis, qui ignorent le poids de l’histoire et détournent le sens des mots, les médias et les réseaux sociaux méprisent sans le savoir des générations de militants politiques pour lesquels « désobéir » signifie « faire son devoir » quand il s’agit de répondre à ce que leur dicte leur conscience. Quel qu’en soit le prix. Gandhi et Luther King l’ont payé de leur vie.

La « désobéissance civile » s’inscrit en effet dans une longue histoire. Elle commence au XIXe siècle, avec l’Américain Henry David Thoreau, auteur d’un court texte intitulé « la désobéissance civile », écrit après une nuit passée en prison pour avoir refusé de payer ses impôts à l’Etat du Massachusetts, au motif qu’ils finançaient l’esclavage et la guerre américaine au Mexique. « Je conseille de rompre avec l’Etat tant qu’il hésitera à faire son devoir », écrivait-il.

Le « devoir », au cœur de toute sa philosophie qui va inspirer des générations de désobéissants. Si Thoreau avait eu 20 ans en août 1914, quand les grandes puissances ont déclenché la première boucherie du XXe siècle, il aurait sans doute fait partie des insoumis ou des mutins, en obéissant au « devoir » de sa conscience, contre le « devoir » d’un Etat qui a envoyé toute une génération au cimetière.

S’il avait eu 20 ans au moment de la guerre d’Algérie, il serait devenu objecteur de conscience et aurait sans doute appartenu au réseau Jeanson, comme, en son temps, il fut un militant actif de l’« Underground Railroad », ce réseau d’aide aux esclaves fugitifs qui cherchaient à rejoindre le Canada voisin.

style=’box-sizing: inherit;font-size:1.6rem’ v:shapes= »_x0000_i1025″>

123456



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol