Archive pour le Tag 'enjeux'

Page 8 sur 8

Grand débat: les enjeux majeurs (G. Bessay)

Grand débat: les enjeux majeurs (G. Bessay)

 

Contributions sur la démocratie, la fiscalité, la politique énergétique  et le service public.

 

Démocratie : quelle évolution dans un monde de plus en plus  complexe ?

 

 

Il est clair que les démocraties connaissent une crise existentielle relativement inquiétante quand elle conduit au repli nationaliste sur le plan économique, social et culturel. Tous les conflits, toutes les guerres ont commencé de cette manière. La crise est double, à la fois économique mais aussi identitaire avec une interaction entre ces deux facteurs explicatifs. Le rétrécissement géographique ne peut évidemment constituer une perspective d’évolution sociétale. Pourtant certains prônent un retour au nationalisme et réussissent même à se faire élire sur cette promesse illusoire et dangereuse. En cause sans doute, les difficultés de certains  citoyens et de certaines populations à comprendre les évolutions économiques, technologiques, sociales et culturelles. Des évolutions d’ordre systémique et qui affectent  l’ensemble de la planète. Malheureusement cette incapacité concerne  aussi une grande partie des classes dirigeantes organisées en oligarchie et dont l’accès au pouvoir prime et de loin sur l’objet même du mandat qui devrait normalement exclusivement viser le service de l’intérêt général. Il faut dire que les transformations de tous ordres constituent des éléments anxiogènes pour une grande partie des populations et nourrissent la mélancolie (d’un passé supposé meilleur qu’aujourd’hui)  voire le déclinisme. La frilosité- voire  le refus du changement- peut se comprendre dans la mesure où nos sociétés ont connu davantage de changements en une cinquantaine d’années que pendant des siècles et des millénaires. En outre,  le processus d’évolution s’est encore accéléré au cours des 10 à 20 dernières années. Sur le plan économique,  les changements affectent à la fois la nature des biens mais aussi leur mode de production et de distribution. Témoin, l’évolution des populations actives. En 1800 l’agriculture occupée 75 % des Français, en 1900 autour de 40 %, en 1970, 10 %, aujourd’hui moins de 4 %. Pour l’industrie dans les années 50, le secteur occupait  environ 40 % de la population, aujourd’hui en France c’est environ 10 %. Par contre les services se sont considérablement développés pour représenter à peu près 80 % des emplois aujourd’hui. Des mutations qui bouleversent évidemment les activités, les qualifications les emplois, aussi leur localisation.- D’une certaine façon, l’économie s’est à la fois dématérialisée et internationalisée avec des processus de production et de distribution de plus en plus complexes ;  à telle enseigne qu’il est bien difficile de savoir quelles sont les produits réellement français tellement sont imbriquées les éléments des modes de production. L’autre facteur explicatif marquant, lié aux autres, est l’émergence des pays en développement dont beaucoup étaient condamnés à la quasi famine il y a une cinquantaine d’années et qui commencent à accéder à des niveaux de vie plus décents. Des pays qui deviennent parfois concurrents et qui contraignent les anciens pays occidentaux à se  spécialiser  sur des productions à plus forte valeur ajoutée. Des pays concurrents mais aussi clients qui achètent les biens de l’industrie aéronautique, spatiale, navale, automobile, ferroviaire, nucléaire ou encore du BTP et de l’armement. Progressivement ces pays s’approprient aussi certaines techniques, ce qui contraint les pays occidentaux à de nouveaux progrès technologiques. Finalement ces échanges internationaux participent du progrès économique et social global sous réserve toutefois que les balances commerciales soient équilibrées, ce qui est loin d’être le cas pour la France dont la balance des échanges de biens est dramatiquement dans le rouge. Cela en raison des rigidités structurelles propres au pays. Notons aussi que la financiarisation des économies a largement déplacé les centres de décision et de répartition des richesses. Des mutations qui ont cependant permis un accès beaucoup plus large à des produits et services qui satisfont de nouveaux besoins. Même si on peut –et-on doit- contester l’utilité de certaines productions ou leurs conditions de production et d’utilisation qui portent atteinte à la santé et à l’environnement.  Pour l’avenir 50 % des  emplois pourraient être supprimés ou transformés dans les 30 ans mais en même temps à peu près la moitié des nouveaux produits et services sont aujourd’hui inconnus. Face à toutes ces mutations, trois  grandes perspectives politiques émergent, soit le laisser aller qui laisse au seul marché le soin de réguler, soit le repli sur les frontières intérieures, soit une régulation qui prenne en compte la dynamique des marchés en même temps que l’intérêt général. Un dernier équilibre particulièrement difficile à trouver qui exige une grande compétence socio-économique, aussi du courage. Il faudrait évidemment développer de manière autrement plus complète les phénomènes décrits précédemment (comme l’accroissement des inégalités de concurrence et de revenus). Du coup faute de compréhension, les populations fragilisées se réfugient  dans les discours démagogiques, simplistes, nationalistes voire xénophobes. Dernier exemple en date en Grande-Bretagne avec le vote du Brexit, celui de l’élection de Trump ou la popularité de Poutine en Russie ;  pays pourtant en pleine crise socio économique. En face de ces changements, la démocratie a peu évolué. Elle se réduit essentiellement au dépôt d’un bulletin de vote tous les quatre à cinq ans. Le plus souvent les prétendants au pouvoir ne peuvent évidemment mettre en œuvre leurs programmes démagogiques ce qui nourrit la défiance de l’opinion vis-à-vis des systèmes politiques mais une opinion qui se rabat alors sur les candidats les plus protestataires ;  aux programmes les plus  illusoires engendrant à leur tour de nouvelles désillusions quand ces candidats sont élus. Il est clair qu’une autre forme de démocratie caractérisée par son interactivité reste à mettre en œuvre pour être en adéquation avec l’ampleur des bouleversements en cours et le rythme des changements. Or depuis un siècle les modalités de cette démocratie n’ont pas bougé d’un iota face aux mutations économiques, sociales, environnementales et plus généralement sociétales. La monarchie républicaine constitue le modèle de référence avec sa déclinaison dans les baronnies locales. D’une certaine manière, la démocratie demeure à l’ère  néandertalienne. De nouvelles formes d’évaluation des politiques publiques doivent  être trouvée afin d’associer les citoyens entre deux échéances électorales. Le référendum peut être utilisé dans certaines circonstances mais il faudra mettre en place d’autres outils d’évaluation à chaque niveau de pouvoir dans le but de renforcer le contrôle démocratique et de faire des propositions concernant les orientations. Les mêmes démarches pourraient être entreprises dans le champ économique (via la participation par exemple) et auprès des grandes administrations.

 

 

 Fiscalité : quelle justice, quelle efficacité

La fiscalité est le dispositif qui permet d’assurer la rentrée de l’impôt pour financer les taches régaliennes de l’Etat. , elle ne peut être dissociée des dépenses sur lesquelles elle se fonde. La France est non seulement championne d’Europe de la fiscalité mais aussi championne du monde. «L’objectif fixé au gouvernement par le président consiste notamment à baisser les prélèvements obligatoires – cela a commencé cette année » «  avait  déclaré le Premier Ministre.  Le président de la République s’était engagé à réduire les prélèvements obligatoires de 44,5% du PIB à 43,6% d’ici fin 2022, avec une moitié des baisses pour les ménages et l’autre pour les entreprises. Des objectifs qui ne seront pas atteints (on est plus près de 47%  pour Eurostat!). À peu près tous les gouvernements ont annoncé une baisse de la fiscalité cependant le taux et le montant des prélèvements obligatoires ne cessent  d’augmenter chaque année. C’était le cas en 2017 ce sera le cas en 2018 aussi en 2019.Pour la France c’est 10 points de plus que la moyenne de l’OCDE.

 

 

Total des prélèvements obligatoires, en % du PIB, dans quelques pays de l’OCDE,

 

Allemagne 37

Canada 31,9

Danemark 46,6

Espagne 33,8

États-Unis 26,4

France 45,5

Italie 43,3

.

Mexique 17,4

Royaume-Uni 32,5

Suède 43,3

Suisse 27,9

 

Moyenne OCDE 34,3

 

 

En pourcentage du produit intérieur brut (PIB), le taux de prélèvements obligatoires a atteint en 2017 son « point le plus haut », avec 45,3% du PIB. Les cotisations sociales ont pesé pour 37% des prélèvements obligatoires et les impôts pour 63%. Ce taux doit théoriquement retomber à 45% du PIB en 2018 et à 44,2% du PIB en 2019, en raison des baisses d’impôts décidées par le gouvernement (taxe d’habitation, impôt sur la fortune, flat tax). Malgré tout, la quantité d’impôts et cotisations recouvrés par l’Etat, les collectivités et la sécurité sociale devrait continuer à augmenter, pour atteindre 1.057 milliards d’euros en 2018 et 1.070 milliards en 2019. Cela s’explique par l’ « évolution spontanée» des recettes fiscales, indique rapport, destiné à éclairer les parlementaires sur le projet de loi de finances. Les rentrées d’impôts augmentent en effet quand l’activité économique croît, la bonne tenue de l’économie stimulant notamment la taxe sur la valeur ajoutée (TVA) et l’impôt sur le revenu, lié au salaire. Le taux de croissance a été ramené  à 1.5% en 2018 et 1,3% en 201). On ne peut que prévoir une hausse des recettes fiscales en volume supérieure aux baisses prévues par le gouvernement. Selon les calculs du parlement, l’évolution spontanée des recettes devrait ainsi avoisiner les 29,8 milliards en 2018, tandis que les baisses liées aux réformes fiscales de l’exécutif atteindront 10,4 milliards d’euros. En 2019, ces chiffres seront respectivement de 31,9 milliard

 

Au plan européen, selon Eurostat qui n’applique pas la même méthodologie que la  France,  les recettes fiscales (impôts, taxes et cotisations) attient même  48,4 % du PIB dans l’Hexagone, contre 47,3 % en Belgique et 46,5 % au Danemark, les deux autres pays sur le podium. Première du classement depuis 2015, la France a vu le poids des prélèvements obligatoires augmenter de 0,7 point en 2017. Elle distance ainsi un peu plus encore la Belgique et s’affiche au cinquième rang des pays qui ont le plus alourdi la fiscalité l’année dernière, derrière Chypre, le Luxembourg, la Slovaquie et Malte. Autant de pays qui bénéficient, malgré cette hausse, d’une fiscalité très légère.

 

Dans le cadre du grand débat, une note est destinée aux organisateurs de réunions et  indique que pour 1000 € de dépenses publiques en France 575 € sont consacrés à la protection sociale dont 268 € pour les retraites, 191 € pour l’assurance maladie, 42 € pour les allocation familiales, 35 € pour le chômage, 17 € pour l’aide au logement et 22 € pour d’autres (par exemple RSA) viennent ensuite les dépenses sectorielles qui représentent 143 € dont 53 € pour les affaires économiques ( crédits d’impôts etc.), 43 € pour le transport et les équipements collectifs, 22 € pour la culture, 16 € pour l’environnement, 9€ comme l’éclairage public. Concernant les autres services publics régaliens le total est de 60 € dont 31 € pour la défense, 25 € pour la sécurité, 4 euros pour la justice. L’éducation compte 96 €. La recherche 23 €. Le fonctionnement (partiel)  des administrations publiques 66 €. Enfin la charge de la dette 37 €. On note évidemment que la principale dépense concerne les retraites suivie de l’assurance maladie. Ce que n’indique pas par contre la  note évoquée, c’est le rendement des dépenses. En effet les 1000 € ne sont pas entièrement redistribués et une partie disparaît dans les frais de fonctionnement qui pourraient atteindre presque 400 €.

 

 

Parmi les pistes à explorer, on évitera difficilement l’examen des dépenses relatives aux retraites (27%), à l’assurance maladie (19%) et les aides aux entreprises (14%). Pour les retraites, le handicap français est moins lié à la démographie qu’au fait que les Français travaillent moins depuis les réformes sur le temps de travail et celles relatives aux retraites. La question n’est sans doute pas seulement résolue avec un allongement de l’âge de la retraite ou une augmentation des cotisations (SS, et complémentaires etc.)  Mais aussi avec une amélioration de la  compétitivité du travail (entendu comme le rapport de la production au nombre d’actifs (et pas seulement des seuls salariés). C’est surtout le rapport inactifs-actifs qui plombe les comptes. Pour la maladie, un double effort sera sans doute nécessaire pour réduire le coût du fonctionnement du système de santé qui sinon va continuer de dériver sous le double effet de l’évolution démographique et des progrès exceptionnels de la médecine. Le système de prévention pourrait largement contribuer à faire réduire les dépenses dans ce domaine. L’aide aux entreprises souffre surtout d’une généralisation mal adaptée aux conditions des branches voire des territoires. Elles ne sont pas suffisamment orientées en direction des entreprises soumises à la concurrence internationale d’où  sans doute ce déficit chronique et dramatique de la balance commerciale. En outre, la France sous estime depuis très longtemps les effets d’uen politique industrielle cohérente et coordonnée en se limitant à l’effet fiscal. D’où cette balance commerciale au déséquilibre catastrophique (50 milliards de déficit en moyenne annuelle pour 250milliards d’excédents pour l’Allemagne !).

 

Les impôts

Globalement sur un budget dont les ressources représentent environ 300 milliards, la TVA vient nettement en tête avec 52 % du total des ressources, suivi de l’impôt sur le revenu avec 24 %, puis l’impôt sur les sociétés avec 9 % enfin avec la taxe intérieure de consommation sur les produits énergétiques avec 5 %. Environ 10 % viennent d’autres ressources fiscales ou non fiscales

Pour évaluer le montant total des ressources fiscales publiques il faut ajouter les cotisations sociales qui s’élevaient en 2017 à 384,5 milliards d’euros, soit 37 % des prélèvements obligatoires.

 

Les  ressources de l’impôt sur le revenu  sont largement distancées par la TVA (environ le double). On ne peut pas dire que des catégories sont exemptées de l’impôt comme ceux qui affirment que l’impôt sur le revenu renforce l’acceptabilité de la fiscalité républicaine .En fait l’impôt concerne tout le monde ;  Les impôts indirects TVA et taxes intérieures sur les produits énergétiques dominent largement avec près de 60 %. En clair, la fiscalité pèse surtout sur les consommateurs. Finalement beaucoup plus sur les couches moyennes et surtout sur les plus défavorisés compte tenu de la structure des dépenses. Pour ces catégories,  la quasi-totalité des revenus sont dépensés en investissements et surtout en consommation donc chaque mois en totalité soumis aux différentes dispositions fiscales notamment la TVA. À l’inverse ce type de dépenses ne représente que 23 % pour les ménages davantage aisés.

La part des dépenses pré-engagées ou contraintes dans le revenu disponible des ménages est d’autant plus forte que leur niveau de vie est faible : elle passe de 61 % pour les ménages pauvres à 23 % pour les ménages aisés. Pour un ménages ne disposant que d’un revenu égal au SMIC la part disponible pour les dépenses ajustables (alimentation par exemple) est de 500 euros environ Le problème est double, les ménages moins favorisés subissent la pression fiscale sur la totalité de leurs revenus, en outre une pression record au regard des comparaisons internationales. .

D’une manière générale avant d’envisager des réformes précises et significatives, il convient évidemment d’analyser la situation d’un point de vue macro économique mais aussi de manière sectorielle et micro économique. En clair, il faut sans doute se livrer à un vaste exercice d’évaluation de l’efficacité des dépenses pour en réduire le volume et ainsi diminuer la pression fiscale. Mais une pression fiscale qui génère des effets beaucoup plus redistributifs qu’aujourd’hui. En clair, une politique fiscale et sociale plus juste. Des outils d’évaluation pourraient être placés auprès de toutes les administrations et autres organismes publiques ou privées qui gèrent et où bénéficient une partie de la dépense publique.

 

 

Politique énergétique : pour  une  transition  juste, efficace et cohérente

 

 

 

La question de l’énergie est trop souvent abordée de manière caricaturale notamment quand elle oppose partisans du nucléaire et partisan des énergies renouvelables. Évidemment comme souvent, la question est plus complexe qu’il n’y paraît. Il s’agit en effet de développer une politique énergétique qui soit à la fois efficace, cohérente et juste. Efficace car il s’agit de privilégier la production d’énergie au moindre coût afin  d’améliorer la compétitivité du système de production et de rendre accessible l’énergie à tous les ménages. La cohérence vise à rendre compatible cet objectif de compétitivité avec la prise en compte de l’environnement et plus particulièrement du climat. Enfin la transition énergétique ne peut pas être brutale et ne doit pas pénaliser  des couches populaires qui ne peuvent immédiatement accéder aux techniques non polluantes (exemple voiture électriques ou à hydrogène ou encore chauffage à faible émission). Une transition cohérente impose de partir des réalités, de se fixer des objectifs à long terme avec des étapes à moyen terme réalisables et socialement acceptables. Pour partir des réalités, il faut notamment revenir aux chiffres. L’une des principales préoccupations environnementales concerne les gaz à effet de serre qui découlent directement de l’énergie produite et utilisée. L’énergie représente environ 80 % de ces émissions.  Notons que les  émissions de CO2 en France  sont inférieures de moitié à celle de l’Allemagne, quatre fois moins importantes que celle des États-Unis et inférieure aussi à celles de la Chine. Les émissions de la France représentent environ 1 % des émissions mondiales ; en cause, la nature de la consommation intérieure d’énergie primaire avec environ la moitié en combustibles fossiles dont 30 % de produits pétroliers, 44 % d’électricité primaire nucléaire, 10 % d’énergie renouvelable (7 % biomasse, 2 % hydrauliques, 1 % éolien et photovoltaïque). L’électricité, c’est environ un quart de la consommation finale d’énergie. Une électricité issue du nucléaire pour plus de 70 %, du renouvelable pour 18 % (hydroélectriques 10 % et éolien 5 % et 10 % des centrales thermiques fossiles). On sait que des programmes politiques prévoient de réduire la part de l’électricité nucléaire de plus de 70 % à 50 %. L’objectif avait été défini dans le programme de François Hollande avec une échéance à 2025, repoussée à 2035 et sans doute même bien plus loin. En raison notamment du fait que la production d’origine nucléaire ne sera pas réduite avant des années. Le gouvernement actuel n’envisage en fait que la fermeture de Fessenheim qui sera largement compensée par la mise en service de l’EPR de Flamanville ; sans parler de nouvelles centrales EPR qui pourront être décidée à partir de 2021 comme l’a indiqué le président de la république. Notons que la France est par ailleurs engagée dans un énorme plan de renforcement de la sécurité des centrales avec notamment le grand carénage qui découle des nouvelles normes après la catastrophe de Fukushima. Du coup, ce grand carénage d’un coût de 50 à 100 milliards selon les hypothèses rendra possible la prolongation de la vie des réacteurs de 20 à 30 ans. Ceci étant la fission nucléaire pose la redoutable question de la gestion des déchets radioactifs (et la fusion nucléaire n’est pas encore opérationnelle). Parallèlement, se développeront des énergies alternatives notamment  la méthanisation, le photovoltaïque, l’éolien et la géothermie. Techniquement, on voit mal comment les énergies  renouvelables pourraient se substituer aux éventuels suppressions de 20 à 25 % d’électricité nucléaire d’ici 10 ans voire 20 ans. Le problème étant que la plupart des énergies alternatives sont intermittentes alors que la production d’électricité doit être constante comme la distribution. Se pose aussi la question du coût et de l’efficacité énergétique. Ceci étant  des modifications non négligeables peuvent intervenir avec les évolutions techniques (stockage énergie, fusion nucléaire au lieu de la fission, filière hydrogène etc.) mais aussi les modifications du système de production et du mode de consommation. Cela suppose d’intervenir sur chacun des secteurs consommateurs d’énergie primaire. Ces consommateurs sont les ménages 30 %, l’industrie pour 20 % les transports pour 32 % les services pour 16 % l’agriculture pour 3 %. Techniquement la transition sera forcément progressive en France d’autant qu’une des principales préoccupations concerne l’influence des gaz à effet de serre sur le climat. La transition de ce point de vue doit être cohérente. On ne peut en effet souhaiter une réduction des gaz à effet de serre et en particulier du CO2 et en même temps promouvoir des centrales thermiques qui viennent compenser à chaque fois l’intermittence de certaines énergies renouvelables. Quand on examine l’utilisation de l’énergie primaire par secteur, on constate que l’effort et surtout à faire en direction des ménages et des transports. Des secteurs largement influencés par le mode de production, le mode de consommation et l’aménagement du territoire. Il est clair que l’éclatement du mode de production à l’échelle internationale est très consommateur d’énergie en particulier en logistique et en transport. Pour certaines productions notamment basiques on peut en effet s’interroger sur le bien-fondé de produire à des milliers de kilomètres. De la même manière qu’il est sans doute possible de réduire la complexification des processus de production tellement gourmande en prestations logistiques et en transport. Un transport nettement sous tarifé puisque par exemple  le prix de transport d’un container de Hong Kong à Anvers n’est pas plus cher qu’un transport du même container de Paris à Marseille. De ce point de vue, le renforcement de l’économie circulaire serait sans doute de nature à réaliser d’énormes gains  mais aussi à réduire de façon significative les émissions polluantes (sans parler des distorsions de concurrence sociales, fiscales ou environnementales). Le mode de consommation mérite lui aussi d’être mis en question compte tenu de l’obsolescence programmée de nombre de produits voire de leur inutilité. Dernières aspects liées au précédent, le problème de l’aménagement du territoire qui concentre des productions dans des métropoles spécialisées qui sont très gourmandes en transport. Alors que l’économie circulaire permettrait de satisfaire un certain nombre de besoins. En conclusion on voit que la problématique n’est pas simple qu’il convient d’articuler des éléments économiques, techniques, environnementaux et sociétaux. De ce point de vue, il n’est pas certain que la seule régulation par la fiscalité demeure le moyen le plus efficace. Il est souvent injuste et inopérant quand il n’y a pas d’autre choix que de recourir aux énergies classiques. À cet égard la régulation par les normes et l’offre technique est beaucoup plus efficace et juste qu’une régulation par la fiscalité. À tout le moins la question énergétique mérite un débat approfondi et le plus décentralisé possible pour éviter la simplification voire la caricature.

  • Service public : comment trouver un meilleur équilibre entre accessibilité, efficacité et coût

La question posée dans le cadre du grand débat voulu par le président de la république n’est pas forcément d’une grande clarté et paraît surtout avoir été dictée par le mécontentement d’une partie de la population représentée par les gilets jaunes. Des gilets jaunes qui contestent l’augmentation de la fiscalité qui finance des services publics plutôt en régression dans les zones périphériques. D’où la question officielle posée par le gouvernement : « Comment faire évoluer le lien entre impôts, dépenses et services publics pour mieux répondre aux besoins des Français ? »

De fait, dans certaines parties du territoire, ce lien paraît de plus en plus ténu voire inexistant, en tout cas très de plus en plus éloigné. Dans nombre de villages, il y a déjà longtemps qu’il n’existe pratiquement plus de services publics et le dernier qui semblait devoir résister, à savoir la Poste, disparaît aussi. En cause évidemment,  un  aménagement du territoire qui privilégie l’hyper concentration autour de quelques centres et qui conduit le reste à la désertification.  . La mode aujourd’hui est à la métropolisation, c’est à dire à la sururbanisation (qui constitue pourtant une  aberration environnementale) tandis que certaines  petites villes, des villages s’appauvrissent, des villes moyennes stagnent ou régressent. L’élément le plus significatif de cette désertification c’est la raréfaction de l’emploi. Du coup,  les populations sont contraintes de rechercher des embauches de plus en plus loin de leur domicile (20, 30, 50 kms). Jusqu’au  jour où elles décident de quitter leur zone d’habitat pour  rejoindre des zones plus riches en emplois et en services. Pour preuve de cette désertification : la baisse dramatique de la valeur du patrimoine immobilier. Par manque de populations,  les services rétrécissent comme peau de chagrin. Le cœur de la problématique de la désertification, c’est la disparition de l’emploi qui génère mécaniquement la fermeture des commerces et des services. La réactivation des villes moyennes, des  zones rurales défavorisées passe d’abord par une  analyse fine des réalités et de leur évolution sur longue période (emploi, PIB,  population, services etc.) ; aussi  par une prise en compte des  typologies différenciées des zones dont l’approche globale masque les disparités. Au-delà,  il convient d’agir sur les  leviers susceptibles d’abord de fixer la population active existante et d’encourager la création d’emplois. Bien entendu une  commune ne peut, à elle seule, inverser ces tendances lourdes même si elle peut intervenir utilement dans le champ actuel  de sa  responsabilité. Beaucoup de communes se préoccupent de leur développement pour autant l’environnement défavorable limite leur action (fiscalité, réglementation, transport, équipements et services). En fonction de certains scénarios économiques, sociaux et démographiques, en 2040-2050,  certains villages se transformeront en zones pour retraités voire même disparaîtront (d’autant qu’à cette date un  Français sur trois aura plus de 60 ans). L’activité économique interagit sur la qualité et le niveau des services et réciproquement. Si localement on se préoccupe légitimement des équipements et des services publics, par contre le soutien à l’emploi et à l’économie locale en particulier est plus déficient. Or en fonction du rythme de destruction  des emplois locaux, ce devrait être aussi une priorité. Encore une  fois compte tenu de la mode de la « métropolisation » ‘ pas spécifique à la France, il y a fort à parier qu’on pourra attendre encore longtemps des mesures significatives pour le développement rural des zones défavorisées. On ne saurait se limiter  à quelques dispositions certes utiles mais très insuffisantes (couverture internet, bureau de poste, quelques services …peut-être). . Parallèlement on doit aussi s’interroger sur le concept même de service public, son coût, son fonctionnement et son financement ; en effet, si le rythme de suppression des  services s’accélère, c’est notamment pour des raisons socio-économiques évoquées précédemment mais aussi à cause d’un coût que la collectivité a du mal à assumer. Ce coût explique largement que le pays détienne le double record du monde de prélèvement obligatoire et de dépenses publiques par rapport au PIB. Un record qui porte atteinte à la compétitivité donc aussi à l’emploi. Dans son acception un peu générale, la tendance est forte d’assimiler service public, secteur  public voire statut des personnels. Trois notions pourtant à distinguer. La première découle du champ régalien de l’État (ou plus généralement des collectivités)  lequel mériterait sans doute d’être mieux défini, sans doute plus restreint et en même temps mieux assumé.  Certaines tâches doivent être toujours être assumés par l’État directement mais sans nécessairement gérer directement la logistique. La deuxième confusion concernant le service public vise le statut des personnels. Si on peut comprendre par exemple  que les infirmières ou ASH soient fonctionnaires, c’est plus discutable pour les jardiniers, les menuisiers, et autres comptables. Le problème c’est qu’on résume souvent la problématique des conditions de travail par exemple du personnel des hôpitaux à celle des infirmières. La troisième dimension du service public est liée à la structure juridique qui l’effectue. Or rien n’indique que l’intérêt général doive être exclusivement assumé par le secteur public. De nombreuses fonctions d’intérêt général sont en effet exercées notamment  par voie de délégation à des organisations parapubliques ou privées (santé, transport, formation etc.) Du coup, l’amalgame des trois définitions conduit souvent en fait à masquer une défense corporatiste et coûteuse du service public qui au total porte atteinte à la qualité, à l’accessibilité et à la compétitivité de ce service. Faute de cela non seulement tout service public disparaîtra des petites communes mais nombre de fonctions d’intérêt général vont aussi s’étioler dans les petites et moyennes villes (les hôpitaux par exemple).  La problématique n’est pas simple, le service public pour certaines de ses activités constitue un atout indiscutable pour le progrès social mais aussi économique, il n’en demeure pas un  boulet financier qui hypothèque son avenir. Avant d’envisager cette réforme du service public, il sera nécessaire au préalable de procéder à une évaluation qualitative et quantitative des contenus, du fonctionnement et du coût. L’évaluation qualitative est indispensable car ce n’est par la même chose par exemple en terme d’accessibilité d’avoir la possibilité d’obtenir un rendez vous au bout de 15  jours ou au bout de 5 mois chez un cardiologue ou un ophtalmologue. Autre exemple, Ce n’est pas non plu la même chose de disposer en permanence de la 4G en téléphonie mobile et de recevoir des SMS le lendemain de leur émission dans le zones blanches ou mal couvertes. Enfin, le traitement est différent quand il suffit de  faire 500 m pour retirer 100 euros à la Poste ou faire 40 kms.

Thèmes Grand débat : des enjeux majeurs oubliés !

Thèmes Grand débat : des enjeux majeurs oubliés !

 

Il est évident que les thèmes proposés dans le grand débat ont un peu été rédigés dans la précipitation ; pour preuve ; la problématique posée est souvent parcellaire voir contradictoire avec d’autres thèmes. On a surtout oublié les enjeux majeurs que constituent la croissance, l’emploi, la politique industrielle et l’Europe. Pourtant des enjeux qui conditionnent le reste. La question de la croissance est en effet le problème majeur en cette fin d’année et va occuper l’actualité en 2019 voir en 2020. Cette croissance subit actuellement un atterrissage assez brutal puisqu’on va atteindre à peine 1,5 % en 2018 pour 2,3 % espérés par les experts au début de l’année. Pour 2019, on  prévoit au mieux 1,3 % mais tout dépendra de la dynamique de la consommation des ménages actuellement relativement atone. De nombreux facteurs nuisent à cette croissance, certains sont d’ordre quantitatifs mais d’autres qualitatifs. La seconde question qui est en grande partie liée est celle de l’emploi dont la situation devrait se dégrader mécaniquement en 2019 alors que nous avons déjà près de 6 millions de chômeurs. La dégradation de la situation économique française depuis des décennies tient beaucoup à l’écroulement de notre industrie. Malheureusement depuis des années toute réflexion sur un secteur industriel est absente au motif qu’il ne faut pas parler de stratégie et encore moins de plan.  Autre thème important celui de l’Europe, cadre pourtant déterminant sur le plan institutionnel bien sûr mais aussi économique, social et même sociétal. Ces thèmes devraient précéder presque tous les autres car ce sont eux qui vont conditionner les moyens, l’évolution du volume et de la nature de la fiscalité, une grande partie des services publics et même la transition écologique (exemple évolution des normes concernant l’automobile). En fait,  le grand débat a surtout repris les thématiques développées par les gilets jaunes, des thématiques limitées en oubliant sans doute les rapports systémiques entre les grands enjeux économiques et sociaux et environnementaux.

Grand débat : les enjeux majeurs oubliés !

Grand débat : les enjeux majeurs oubliés !

Il est évident que les thèmes proposés dans le grand débat ont un peu été rédigés dans la précipitation ; pour preuve ; la problématique posée est souvent parcellaire voir contradictoire avec d’autres thèmes. On a surtout oublié les enjeux majeurs que constituent la croissance, l’emploi, la politique industrielle et l’Europe. Pourtant des enjeux qui conditionnent le reste. La question de la croissance est en effet le problème majeur en cette fin d’année et va occuper l’actualité en 2019 voir en 2020. Cette croissance subit actuellement un atterrissage assez brutal puisqu’on va atteindre à peine 1,5 % en 2018 pour 2,3 % espérés par les experts au début de l’année. Pour 2019, on  prévoit au mieux 1,3 % mais tout dépendra de la dynamique de la consommation des ménages actuellement relativement atone. De nombreux facteurs nuisent à cette croissance certains sont d’ordre quantitatifs mais d’autres qualitatifs. La seconde question qui est en grande partie liée est celle de l’emploi dont la situation devrait se dégrader mécaniquement en 2019 alors que nous avons déjà près de 6 millions de chômeurs. La dégradation de la situation économique française depuis des décennies tient beaucoup à l’écroulement de notre industrie. Malheureusement depuis des années toute réflexion sur un secteur industriel est absente au motif qu’il ne faut pas parler de stratégie et encore moins de plan.  Autre thème important celui de l’Europe, cadre pourtant déterminant sur le plan institutionnel bien sûr mais aussi économique, sociale et même sociétal. Ces thèmes devraient précéder presque tous les autres cars ce sont eux qui vont conditionner les moyens, l’évolution du volume et de la nature de la fiscalité, une grande partie des services publics et même la transition écologique (exemple évolution des normes concernant l’automobile). En fait,  le grand débat a surtout repris les thématiques développées par les gilets jaunes, des thématiques limitées en oubliant sans doute les rapports systémiques entre les grands enjeux économiques et sociaux et environnementaux.

Enjeux économiques d’un Brexit dur

Enjeux économiques d’un Brexit dur

 

D’après les institutions britanniques le PIB  pourrait durement chuter de  l’ordre d’au moins 7 % en cas d’absence d’accord concernant l’accompagnement du Brexit. Un choc évidemment beaucoup plus important qu’avec un accord qui ne ferait baisser la croissance que de 1 à 3 %. L’absence d’accord entre l’union économique et la Grande-Bretagne amènerait les échanges avec ce dernier pays à être couvert dans les conditions de l’organisation mondiale du commerce. En clair, il y aurait un rétablissement des contrôles et surtout des droits de douane qui viendrait amputer la compétitivité de la Grande-Bretagne qui commerce essentiellement avec l’Europe. Parallèlement il faudrait compter sur une hausse de l’inflation aussi une montée du chômage qui pourrait presque doubler. À long terme par contre l’activité comme le chômage pourrait trouver une situation proche d’aujourd’hui. La situation serait d’autant plus catastrophique que la conjoncture économique mondiale actuelle s’inscrit dans une tendance baissière particulièrement en Europe. Parmi les conséquences à noter  la montée des taux d’intérêt et donc de la dette aussi une dévaluation de l’ordre art de 25 % de la livre. Ce qui redonnerait de la compétitivité à l’économie anglaise mais pénaliserait très lourdement les consommateurs donc aussi la croissance interne.

Enjeux et mythes de la Blockchain (Sébastien Meunier)

Enjeux et mythes de la Blockchain (Sébastien Meunier

Sébastien Meunier, directeur au cabinet de conseil en management Chappuis Halder & Cie démonte le fantasme de la  Blockchain et recentre le débat sur ses véritables bénéfices et enjeux dans un article de la Tribune

« La Blockchain est un système distribué s’appuyant sur la cryptographie pour fournir à des acteurs indépendants un contrôle décentralisé de l’accès, en lecture et écriture, à un registre partagé de données. Ce concept comprend deux catégories : les blockchains publiques basées sur une validation par « preuve de travail » (toute personne peut joindre le réseau et participer au consensus) et les pseudo-blockchains (systèmes publics à gouvernance centrale, systèmes privés ou toute autre variante).

Les discours à propos de la Blockchain restent souvent confinés au stéréotype « la Blockchain va révolutionner le monde ». Or, cet idéal éthéré ne résiste pas aux assauts de la réalité. La plupart des exemples cités dans l’article se réfèrent à l’industrie de la finance mais peuvent être généralisés à d’autres industries.

Réalité 1 : la Blockchain ne supprime pas les intermédiaires

Des intermédiaires sont nécessaires pour organiser les marchés dès qu’ils dépassent une taille de quelques dizaines d’individus. Cette réalité humaine reste vraie dans le monde de la Blockchain : remplacer l’opérateur de paiements internationaux Swift par une version décentralisée basée sur une blockchain ne ferait que remplacer une
équipe de développement et de maintenance par une autre équipe de développement et de maintenance, un logiciel par un autre logiciel, et des frais de service par d’autres frais de service.

Le véritable paramètre de la désintermédiation est le degré de décentralisation de la gouvernance des intermédiaires. Une blockchain dont la gouvernance est véritablement décentralisée limite le pouvoir des intermédiaires en transférant certaines responsabilités aux utilisateurs finaux. Par exemple, Bitcoin offre la possibilité aux utilisateurs de conserver leurs propres bitcoins. Mais toute responsabilité vient avec des risques. Beaucoup d’utilisateurs, par confort (pour la même raison que l’on ne garde pas son argent sous son matelas), préfèrent déléguer la garde de leurs cryptomonnaies à des plateformes en ligne, recréant des intermédiaires similaires à des banques.

Réalité 2 : la Blockchain ne supprime pas le besoin de confiance

Tout système, y compris la plus décentralisée des blockchains, nécessite la confiance humaine basée sur la réputation pour fonctionner. En effet, l’utilisateur moyen n’est pas en mesure d’auditer le code d’Amazon ou de la blockchain Ethereum, son seul choix est « d’espérer » que le système se comporte comme attendu.

D’un point de vue technique, une blockchain publique ne fait que déplacer le besoin de confiance du cœur du système vers ses extrémités. Ainsi, le système Bitcoin lui-même n’a jamais été piraté, mais des plateformes et portefeuilles permettant d’échanger et de stocker des bitcoins ont été piratés. Quant aux pseudo-blockchains, elles offrent de simples fonctions de responsabilisation tels que des signatures et un horodatage numériques, en complément de mécanismes de confiance externes au système (confiance institutionnelle « contractuelle » liée à une entreprise ou un consortium d’entreprises).

Réalité 3 : le monde physique détruit les propriétés de la Blockchain

La confiance que l’on peut avoir dans une blockchain est brisée dès que l’on y interface le monde physique. En effet, si une blockchain garantit l’intégrité des données une fois stockées, elle ne peut garantir que la donnée numérique saisie corresponde réellement à la donnée physique externe. Un intermédiaire de confiance est nécessaire pour certifier son authenticité, neutralisant le principal intérêt de la Blockchain. Stocker un appartement, un poulet ou une feuille de salade sur une blockchain n’a pas de sens. Un opérateur centralisé ferait mieux l’affaire.

Réalité 4 : la Blockchain ne permet pas de réduire les coûts

Une erreur répandue est de penser que la Blockchain peut améliorer l’efficacité des processus métiers. Cela ne fait pas de sens car par nature, les systèmes distribués sont plus complexes et plus coûteux en ressources que les systèmes centralisés. Même dans l’utopie de la comptabilité universelle fondée sur la Blockchain, on ne pourra
jamais se débarrasser de tous les contrôles et rapprochements. Les organisations devront toujours faire face à la mauvaise qualité des données et aux humains, qui comme on le sait trichent, mentent ou simplement font des erreurs.

Certaines activités de rapprochement bancaires sont inévitables, en particulier en interne, où les visions « front » (office), « back » (office) et comptables sont différentes par nature. Par ailleurs les produits financiers sont tellement différents qu’il faudrait interfacer plusieurs blockchains.

Réalité 5 : les contrats intelligents portent très mal leur nom

Les contrats intelligents (« smart contracts ») ne sont pas des contrats au sens légal du terme, mais simplement des programmes informatiques. Ils ne sont pas intelligents car ils ne font qu’exécuter mécaniquement leur programme. Ils doivent être très simples, car s’ils contenaient une anomalie, elle continuerait d’être exécutée froidement comme cela est arrivé avec « Le DAO » par le passé.

Réalité 6 : la blockchain d’entreprise ou pseudo-blockchain est une innovation incrémentale, pas une révolution

La blockchain d’entreprise est un oxymore, car toute entreprise est créée dans un but de centraliser du savoir et du capital pour « contrôler » la distribution de produits ou de services afin d’en extraire une rente. Dans un cadre institutionnel, la pseudo-blockchain n’est pas une technologie révolutionnaire, mais une innovation incrémentale dont l’utilité reste limitée par rapport aux technologies digitales traditionnelles. Les bases de données distribuées, les signatures et l’horodatage électroniques sont des technologies certes utiles, mais qui datent de plusieurs décennies.

Un paradoxe est que, pour implémenter une pseudo-blockchain, des entreprises rassemblées en consortium doivent d’abord se mettre d’accord sur une gouvernance et des standards, mais lorsque c’est fait, une pseudo-blockchain n’est plus nécessaire car un opérateur centralisé ferait mieux l’affaire. Finalement, la recherche montre que les pseudo-blockchains jouent dans la même catégorie que les systèmes centralisés. En essayant de combiner le meilleur de deux mondes, la pseudo-blockchain renonce à la puissance de chacun des deux mondes.

 

Conclusion : quand la Blockchain a du sens

La Blockchain n’est pas une nouvelle technologie mais une nouvelle « conception ». Les deux apports de la Blockchain sont la résistance à la censure et le transfert de responsabilité aux utilisateurs, permettant la gestion des ressources numériques rares entre des acteurs indépendants. Cela vient avec des désavantages : une complexité et des coûts supérieurs, et un nouveau risque porté par les utilisateurs.

D’une manière générale, lorsque des mécanismes de confiance existent sur un marché, la Blockchain n’a pas de sens, sauf si le but est précisément de contourner ces mécanismes (ex : le but de Bitcoin était précisément de s’affranchir des institutions financières, mais son adoption reste limitée car le public ne craint pas la « censure » des banques traditionnelles).

Dans un marché sans tiers de confiance, une blockchain a du sens si cinq autres conditions sont respectées :

  • Les transactions sont simples
  • La quantité de données à stocker est limitée
  • La performance n’a pas d’importance
  • L’ensemble du processus est numérique
  • La gouvernance du système est décentralisée

Ainsi les contrats intelligents ne remplaceront pas les avocats, mais ils pourraient servir dans des domaines du droit désertés par les avocats. Les cryptomonnaies ne remplaceront pas la monnaie fiduciaire, mais elles pourraient permettre aux personnes non bancarisées d’accéder aux services financiers. La Blockchain n’est pas une
solution universelle à tous les problèmes humains, mais elle reste une solution fascinante. »

___

Sébastien Meunier est directeur au cabinet de conseil en management Chappuis Halder & Cie. Il conseille les institutions financières sur leur stratégie d’innovation et de cyber-sécurité.

«Une approche industrielle des enjeux climatiques» !!! (Vincent Champain)

«Une approche industrielle des enjeux climatiques» !!! (Vincent Champain)

 

Une contribution intéressante de Vincent Champain, économiste  et dirigeant d’entreprise, dans un article d’Usine nouvelle 

Vincent Champain  tente d’intégrer dans la problématique climatique la logique économique et l’approche industrielle. Tout n’est pas faux dans cet argumentaire mais le renvoi permanent à l’approche industrielle discrédite un peu le discours. L’exemple des tomates dont la production à l’autre bout du monde serait  plus pertinente que la production locale dans des serres chauffées qui polluent parait en effet douteux. La question centrale est de savoir si la société a vraiment besoin de consommer des tomates en dehors des saisons locales. En clair,  le mode de consommation et de production et de distribution est insuffisamment posé même si des éléments de réflexion sont pertinents par rapport notamment au coup de l’énergie

 

« A la veille de la COP24 à Katowice, en Pologne, bien des indicateurs sont au rouge : la consommation mondiale de charbon augmente à nouveau en 2017, celle de pétrole accélère. La production d’électricité « verte » augmente, mais la demande mondiale d’électricité augmente deux fois plus. Les Etats-Unis ont annoncé leur sortie de l’accord de Paris, et le parlement australien n’a pas voulu mettre ses engagements dans la loi.

Ces difficultés tiennent en partie au coût des actions retenues pour réduire les émissions – le soutien aux énergies renouvelables, des subventions aux solutions « vertes » ou des normes d’émissions pèsent sur les prix de l’énergie ou les finances publiques, et les normes d’émission sur le prix des véhicules.

On pourrait penser qu’il n’y a pas le choix, mais c’est inexact. Ainsi, la Chine pourrait réduire ses émissions de 2 à 6 % en adoptant des « bonnes pratiques » (1) en matière de production et d’utilisation des engrais. Il en va de même pour de nombreux produits (deux-roues électriques qui peuvent remplacer des deux-roues généralement gourmands en carburant, processus industriels…), qui permettent de réduire les émissions de gaz à effet de serre à un coût par tonne d’équivalent CO2 évité très bas.

. De nombreux freins nous privent des solutions les plus performantes. D’abord, la méconnaissance des meilleures technologies disponibles dans un domaine donné. Les clients potentiels ne connaissent pas ces solutions et le « green washing » (stratégie de communication visant à mettre en avant des solutions « vertes » qui ne le sont qu’à moitié) ne leur facilite pas la tâche. Le deuxième frein tient à l’opacité des critères retenus pour favoriser ou non certaines technologies : souvent peu économiques, ils ne favorisent pas particulièrement les solutions les plus performantes.  Pour s’attaquer à ces deux freins, il suffirait de donner plus de transparence au rapport coût/impact climatique, par exemple en publiant le coût par tonne de CO2 évitée. Sinon des solutions très abordables (la reforestation a un coût d’environ 10 euros/tonne de CO²) sont difficiles à départager de projets « verts » en apparence, mais qui le sont nettement moins (certains biocarburants atteignent 1 000 €/tonne de CO² évitée).

Il subsiste par ailleurs de nombreux a priori. Par exemple, certains rejettent l’idée que le commerce puisse parfois contribuer à réduire les émissions. Or, ce qui compte, ce sont les émissions sur l’ensemble de la vie des produits, la distance séparant le lieu de production et le lieu de consommation n’étant qu’une variable parmi d’autres. Il est ainsi plus efficace du point de vue climatique de consommer des tomates acheminées par bateau et produites au Maroc que des tomates cultivées en France dans des serres chauffées puis transportées en brouette ! Et le commerce de services, de procédés de production et de technologies « vertes » permet de réduire les émissions. Or les échanges de biens et services « verts » représentent entre 10 % et 15 % de l’ensemble des exportations européennes, une proportion qui ne cesse de progresser malgré la crise. Ainsi, il existe de nombreuses voies pour réduire les émissions à un coût limité. Pour cela, il faut non pas partir du principe que l’industrie est l’ennemie du climat, mais au contraire adopter une approche « industrielle » à ces questions, en cherchant à la fois à augmenter le volume des actions mises en œuvre et à réduire leur coût. »

Vincent Champain, cadre dirigeant et président de l’Observatoire du Long Terme, think tank dédié aux enjeux de long terme.

 

Les GAFA : enjeux et perspectives pour l’Europe

Les GAFA : enjeux et perspectives pour l’Europe

Jean-Charles Simon, président de Stacian, candidat à la présidence du Medef. évoque les enjeux des grandes plateformes numériques et les réponses possibles de l’Europe dans un article de la Tribune

« Nous vivons une époque formidable. En tout cas, c’est la promesse que nous distillent plus ou moins explicitement les géants du numérique. Grâce à leurs services, nous aurions des possibilités fabuleuses et inégalées d’accès à des connaissances, des prestations, des biens ou des interactions. Le plus extraordinaire, c’est qu’un grand nombre de ces services sont gratuits pour leurs usagers. Ils peuvent servir à nous mettre en relation avec des fournisseurs de biens et services payants, mais, là aussi, leur intermédiation est en apparence gratuite, et ils prétendent même contribuer à proposer les meilleurs prix pour ces produits et services distribués. Pourtant, jamais la critique sur ces entreprises n’a été aussi forte et l’inquiétude qu’elles inspirent aussi grande. C’est d’ailleurs un sujet assez global, si on excepte la partie de l’Asie sous influence chinoise dominée par ses propres géants, les BATX. Les tribunes et les déclarations se multiplient au sujet des problématiques de monopoles, d’évasion fiscale, de dommages économiques collatéraux, d’atteinte aux données individuelles et même à la démocratie. Toutes ces analyses ont des fondements sérieux, et les rejeter comme la marque d’une jalousie de perdants européens ou de technophobes ringards est, au mieux, puéril. Ce serait d’ailleurs ignorer que les critiques parmi les plus virulentes viennent aujourd’hui des Etats-Unis et d’une partie du monde de la technologie. Les réponses aux défis soulevés par ces géants et leurs écosystèmes n’ont en revanche rien d’évident. Car il ne doit s’agir ni de freiner l’innovation, un bien supérieur pour tous, ni de limiter les bénéfices que les consommateurs et les citoyens retirent de nombreux services en ligne. Et il serait funeste de céder à des tentations autoritaires là où, au contraire, nous devons rester guidés par des principes, et notamment la liberté d’entreprendre, une valeur cardinale. La situation de domination américaine à laquelle nous sommes aujourd’hui confrontés n’était pas forcément prévisible il y a vingt ans. Certes, Microsoft et Apple régnaient déjà sur les systèmes d’exploitation dans la micro-informatique. Dans les équipements télécoms, les géants étaient en grande partie européens, comme Nokia et Ericsson. Mais, depuis, les fabricants asiatiques ont tout balayé sur leur passage dans ce domaine (y compris des américains comme Motorola), à l’exception d’Apple qui a réussi un tour de force en s’appuyant sur un écosystème exceptionnel… et totalement fermé. Côté plateformes et outils, les géants sont américains, mais ils l’étaient déjà à l’origine : la première génération des MySpace, Yahoo, Napster ou Altavista a simplement été emportée. Cette domination assurée par Facebook, Amazon, Google ou Netflix (les « FANG » de la tech, distingués des « MAN » – Microsoft, Apple et Nvidia du hard/software) ne vient pas de nulle part. Les Etats-Unis ont depuis toujours un extraordinaire écosystème autour de l’informatique et de l’électronique, mêlant excellence universitaire mondiale, capitaux privés surabondants, marchés financiers puissants et commandes publiques et militaires considérables. Il a évidemment entraîné les acteurs du web à sa naissance, lui-même réseau d’origine américaine. Un facteur majeur explique aussi cette concentration aux Etats-Unis : n’en déplaisent aux admirateurs de la construction européenne, le marché unique européen n’existe toujours pas dans les faits. Là où une startup américaine dispose immédiatement d’un marché totalement unifié de près de 350 millions de consommateurs au pouvoir d’achat moyen très élevé, son homologue européenne va ramer sur un marché national bien plus petit avant d’espérer répliquer son éventuelle réussite pas à pas dans les autres pays européens, chacun avec leurs spécificités culturelles et réglementaires, et sans disposer d’une base aussi large et de son levier. Ajoutons que le règne de l’anglais, des normes des affaires et de la puissance globale des investisseurs américains facilite également un déploiement rapide hors des Etats-Unis dans beaucoup de pays du monde, anglophones de fait, et très ouverts aux investissements américains. Dans ce qui était une course évidente à la taille de par la nature même des effets de réseaux, il n’est donc guère étonnant que la domination américaine hors de Chine soit si impressionnante. Le principal atout de l’Europe dans la situation actuelle n’est donc pas sa base d’entreprises de la tech, mais bien davantage ce qu’elle représente comme marché de consommateurs aisés, et peut-être plus encore, de centres de profits pour ces géants de la tech. Nous ne brillons pas comme producteurs dans ces activités, mais nous sommes, en niveau de développement économique et de pénétration des technologies, des clients très recherchés et parfois vitaux. C’est bien de cela, de nos principes juridiques et de nos valeurs, qu’il faut se servir pour répondre aux défis des mastodontes de la technologie. Au moins trois sujets majeurs doivent être traités sous l’angle de l’approche du bien-être global évoquée plus avant : la fiscalité, la concurrence et les données personnelles.

> La fiscalité est peut-être le sujet le plus fréquemment et globalement débattu, et celui pour lequel les solutions seraient a priori les plus simples dans un univers européen coopératif. Aujourd’hui, la facturation de services en ligne et les mécanismes d’érosion de bases fiscales, comme le versement de redevances, conduisent à faire échapper une large partie des profits réalisés par ces géants à l’imposition qui serait due s’ils étaient totalement localisés dans les pays où ils sont générés. C’est évidemment un problème d’équité majeur.

Pour autant, rien ne serait plus dangereux que des fausses solutions déniant nos valeurs fondamentales. A ce titre, la proposition d’une taxation de, par exemple, 3% du chiffre d’affaires des grandes entreprises numériques est néfaste, car la fiscalité doit autant que possible répondre à des règles claires : la capacité contributive ou la consommation effective de services publics. Taxer le chiffre d’affaires dans un seul secteur – alors même que les problématiques de prix de transferts et d’érosion de la base fiscale existent dans bien d’autres – n’est pas sain, même de manière temporaire, même en ciblant les seules « grandes » entreprises. Les suggestions d’une taxation selon le pays d’origine seraient encore pires, probablement contraires à notre droit et de nature à aiguiser les tentations protectionnistes, au détriment in fine de tout le monde.

Deux pistes paraissent en revanche s’imposer et pourraient d’ailleurs être complémentaires. La première, purement nationale et donc très facile à mettre en place, est celle d’une fiscalité pénalisante en cas de montage pouvant être caractérisé comme artificiel. C’est ce que le Royaume-Uni a mis en place (diverted profits tax), l’objectif étant principalement dissuasif afin de pousser les entreprises concernées à acquitter l’impôt sur les sociétés au taux normal plutôt que de chercher à réduire leur profit imposable de manière contestable et d’en être pénalisé par la suite.

Mais l’essentiel est ailleurs, dans les travaux de l’OCDE (BEPS) ou de la Commission européenne (Accis), avec l’objectif d’harmoniser les bases d’imposition et en particulier de définir ce que serait un « établissement stable numérique », en référence à la notion fiscale classique d’établissement stable physique. Avec l’identification de cette empreinte numérique et sa taxation locale évidemment déductible en aval au sein d’un groupe dans un autre pays, une véritable équité fiscale est possible. L’écueil principal est évidemment aujourd’hui la coordination des pays concernés et notamment la capacité qu’auraient certains petits pays européens de rejeter une règle qui pourrait leur retirer une partie de leur avantage comparatif. C’est la responsabilité des grands pays européens de mener à bien au plus vite cette offensive, l’unanimité en matière fiscale ne pouvant faire durablement obstacle à une règle raisonnable qui viserait d’ailleurs surtout les pays non européens. Quitte à manier la menace d’une révision des traités.

> Le sujet de la concurrence est encore bien plus important que celui de la fiscalité. Car l’anomalie des géants de la tech est aujourd’hui d’abord leur niveau de rentabilité. S’il y a un vrai sujet d’imposition des profits, c’est d’abord et avant tout parce que ces profits sont absolument colossaux. Qu’ils ne semblent ni temporaires ni décroissants. Et parce qu’une part toujours plus grande des marges d’écosystèmes entiers semble absorbée par ces nouveaux empires.

Apple, Alphabet, Microsoft dégagent des EBIT de plus de 20% de leur chiffre d’affaires, Facebook de plus de 50%. En 2017, ces quatre entreprises ont dégagé environ 135 milliards de dollars d’EBIT, plus que le CAC 40 ! Et le niveau de leurs actifs financiers nets d’endettement est encore plus impressionnant, près de 130 milliards de dollars pour Apple, 100 milliards pour Google, plusieurs dizaines de milliards pour Microsoft ou Facebook… L’illustration qu’une grande part de leurs profits gigantesques n’ont même pas besoin d’être réutilisés pour maintenir leur position dominante, et qu’ils sont au contraire largement inemployés au sens productif.

La concentration des profits s’observe sur plusieurs segments, comme pour Apple sur les smartphones, malgré une part de marché limitée, mais grâce à l’absence totale de concurrence sous iOS, là où les fabricants sous Android sont légion. Google et Facebook apparaissent quant à eux comme les véritables trous noirs de la publicité numérique, dont ils absorbent une part gigantesque de la valeur. Des pratiques anticoncurrentielles sont par ailleurs régulièrement mises en évidence, comme par exemple la façon dont Google a défavorisé les comparateurs de prix concurrents de son outil. Après une longue procédure à ce sujet, la Commission européenne a infligé l’an dernier une lourde amende au moteur de recherche, qui en a fait appel. Mais des éditeurs, des médias, des détenteurs de droits de propriété intellectuelle ou artistique, des acteurs du tourisme et d’autres se plaignent également des pratiques de ces deux géants ou d’autres plateformes. Par ailleurs, les effets globaux de la concentration, dans la tech mais aussi dans le reste des économies comme celle des Etats-Unis, sont mis en exergue pour expliquer un taux d’entrée de nouvelles entreprises sur les marchés au plus bas, ou encore le faible niveau des investissements. Contrairement à une idée populaire, le processus de destruction créatrice serait particulièrement faible aujourd’hui, avec un impact sur la tendance baissière des gains de productivité et une croissance finalement modeste pour ce qui apparaît être un haut de cycle. Alors que le débat sur ces acteurs allant jusqu’au démantèlement fait rage y compris aux Etats-Unis, avec de nombreuses comparaisons sur les cas les plus célèbres de l’antitrust américain comme la Standard Oil ou ATT, la difficulté tient bien entendu aux lourdeurs propres au respect du droit, à l’absence de coopération internationale et plus encore à la définition des mesures qui permettent de remédier de manière effective aux entraves à la concurrence. Aujourd’hui, avec des moyens parfois déséquilibrés par rapport aux entreprises concernées, c’est l’Union européenne qui est en pointe dans la chasse aux abus de position dominante. Même si ces procédures sont longues et leurs résultats parfois décevants, elle doit redoubler d’efforts en la matière. La critique faite à l’Europe d’empêcher l’émergence de ses champions en s’arcboutant sur le droit de la concurrence n’est pas recevable, car il ne doit pas être question de céder sur ce qui apporte le meilleur en matière de dynamisme économique, d’innovation et de valeur pour le consommateur. En revanche, l’Europe peut être beaucoup plus agressive sur ces questions à l’égard des autres zones économiques qui laissent se constituer des monopoles. S’il faut rester neutre en matière fiscale ou normative, il est bien normal de prendre en compte les biais en matière de concurrence dont bénéficieraient ceux qui ne sont pas encadrés à ce sujet selon nos standards dans leurs pays d’origine. Cela vaut notamment pour les acquisitions d’entreprises européennes, quitte à déplaire aux investisseurs qui souhaitent faciliter leur sortie de nos start-up : l’Europe devrait s’opposer à des acquisitions par des acteurs externes dont la position devient trop forte à l’échelle mondiale. Elle peut aussi être plus dure à leur égard dans l’analyse de pratiques anticoncurrentielles. Et elle doit faire de la lutte contre les positions dominantes un enjeu diplomatique de premier plan, notamment dans le dialogue transatlantique.

Pour finir, la question des données personnelles est devenue un autre débat majeur autour des GAFA, notamment avec l’affaire liant Facebook et Cambridge Analytica. Beaucoup de propositions et de débats ont eu lieu ces dernières années, avec une réelle créativité, sur la manière d’organiser l’utilisation des données personnelles. Au moins trois voies s’opposent : une forme de statu quo autour du consentement au libre usage des données personnelles dès la connexion à un service en ligne de type plateforme ; la marchandisation des données personnelles, qui deviendraient une propriété cessible par chacun ; la régulation de l’usage par des droits nouveaux en faveur des individus. C’est la voie européenne à ce jour, avec le RGPD et peut-être bientôt la directive ePrivacy. Une voie que la France avait en partie anticipé avec sa loi « Informatique et libertés » de 1978, qui avait notamment donné naissance à la Cnil. L’Europe est parfois accusée de mettre en place des régulations trop dures pour ses propres petites entreprises et, au moins de manière relative, plus douces avec les géants du web. Certains vont jusqu’à plaider pour une régulation différenciée selon l’origine géographique de l’entreprise concernée, ce qui paraît comme en matière fiscale discriminatoire et injustifié. L’argument de la taille est plus recevable, mais les textes européens font déjà certaines différences. Surtout, ils ont la bonne idée d’avoir une visée extraterritoriale – peu importe où se trouve l’entreprise collectant les données – et de prévoir des amendes en proportion du chiffre d’affaires mondial, ce qui devrait être dissuasif pour les plus grands acteurs. En fait, les critiques de ces initiatives en Europe viennent surtout de l’écosystème de la publicité ciblée. Or, au-delà du sort des modèles économiques concernés, y a-t-il un réel préjudice pour la société à limiter les capacités de ces entreprises, surtout si leurs externalités négatives sont avérées ? Si on part de l’importance majeure pour chacun de pouvoir mettre à l’abri ses données personnelles et surtout les plus sensibles, si l’on s’accorde sur le fait qu’il s’agit effectivement d’un bien supérieur, alors il est bien légitime d’accorder une protection renforcée à ces données. Plutôt qu’une improbable commercialisation de celles-ci dont on peine (malgré des travaux très sérieux menés à ce sujet) à apprécier la mise en œuvre concrète et surtout le pouvoir dissuasif dans ce qui restera une relation très déséquilibrée entre monopoles acheteurs et foules de vendeurs, il paraît tout à fait légitime de permettre de s’opposer à certains usages sans conséquence dommageable sur les services proposés. Ainsi, il pourrait être exigé d’offrir le droit à chacun de refuser non seulement la vente de ses données personnelles mais aussi leur usage à ce niveau de granularité. Chacun pourrait par exemple choisir de ne pas accepter le traitement de ses données conduisant à de la publicité ciblée personnalisée sans la moindre restriction sur le service sous-jacent (par exemple un réseau social, une place de marché…). Les entreprises auraient ainsi des usagers ou clients de trois niveaux : ceux refusant toute collecte de donnée auxquels ils pourraient refuser différents services ou en modifier les conditions (par exemple les rendre payants), ceux qui accepteraient la collecte de donnée mais pas leur usage individualisé, et ceux qui accepteraient tout, par exemple pour recevoir de la publicité très ciblée, avec interdiction de discriminer les conditions d’accès aux services entre ces deux derniers publics. Tous ceux qui refusent l’utilisation de leurs données personnelles par des tiers ou des algorithmes les impliquant seraient ainsi dans la position de l’audience d’une chaîne de télévision : ils pourraient recevoir de la publicité globale correspondant aux statistiques agrégées sur l’audience du site concerné, que celui-ci continuerait d’avoir le droit de proposer aux annonceurs, mais ne verraient plus leurs données personnelles utilisées comme un vecteur de ciblage. C’en serait ainsi fini des possibilités de ciblage à la Cambridge Analytica en fonction de ce que vous avez pu dire ou aimé, de vos caractéristiques ou de vos fréquentations. Certains, et notamment les plus financièrement intéressés aux possibilités actuelles, dénonceront une régression, une perte de valeur pour la publicité et d’utilité pour le consommateur. Mais dès lors que ce dernier peut choisir ou non d’accepter cet usage et ce traitement de ses données, c’est au contraire un progrès puisque cela préserve des droits qu’il peut juger plus importants qu’une publicité moins bien ciblée ou un service globalement plus cher car moins bien financé par les annonceurs.

D’ailleurs, l’hyper segmentation n’est pas toujours un optimum social, loin s’en faut. C’est le cas par exemple en assurance santé, où beaucoup de pays comme la France interdisent ou pénalisent le traitement de données trop sensibles. C’est vrai aussi en statistique publique, où certains niveaux de granularité sont inaccessibles pour préserver la confidentialité de données individuelles. De même, il n’y a pas de raison que le parangon de la publicité moderne soit le ciblage le plus fin si cela contrevient aux préférences des destinataires et à leur « bien-être » au sens économique. Cette voie aurait l’avantage de limiter l’immixtion subie par un consentement léonin, par exemple l’acceptation de conditions générales d’un site ou des cookies de navigation sans quoi l’accès au service est purement et simplement refusé. Ce qui serait perdu en ROI de la publicité et donc en ressources pour les sites concernés serait largement regagné par la confiance accrue dans l’ensemble de l’écosystème web et mobile, le niveau d’engagement des utilisateurs, les capacités réduites d’acteurs malveillants et une moindre dissémination à risque des données personnelles. En traitant de manière ambitieuse et offensive ces trois sujets – fiscalité, concurrence, données personnelles -, en restant fidèle à ses grands principes de liberté de marché et de protection des consommateurs, l’Europe aurait les moyens de s’affirmer la puissance numérique qu’elle peut être compte tenu des intérêts qu’elle représente. »

Les enjeux de l’intelligence artificielle (Cédric Villani)

Les enjeux de l’intelligence artificielle  (Cédric Villani)

Enjeu scientifique, économie, démocratique et sociétal, Cédric Villani développe ces aspects dans une interview au JDD

L’intelligence artificielle (IA) semble aujourd’hui très à la mode, mais de quoi s’agit-il?
Il n’y a pas de définition précise. L’intelligence artificielle, c’est l’art de la programmation qui permettra à un algorithme, un ordinateur, de réaliser des tâches subtiles en tenant compte de nombreux paramètres. Il faut comprendre que l’IA repose sur des méthodes variées : la déduction logique, mais aussi l’apprentissage statistique, par l’exemple (vous ne dites pas à la machine ce qu’est une tarte aux fraises, mais vous lui montrez des milliers d’images de tartes pour qu’elle apprenne à les reconnaître) ou l’exploration (c’est ainsi que les derniers algorithmes du jeu de go découvrent les meilleures stratégies).

En quoi l’intelligence artificielle nous concerne tous?
L’IA va bouleverser notre quotidien avec discrétion. Vous en bénéficiez déjà quand vous faites en quelques clics une recherche par mot clé ou une traduction automatique. Vous serez un jour conduits par des voitures automatiques. Et un algorithme, au vu de vos données médicales et de vos radios, pourra vous dire : « Vous avez telle maladie et je recommande à votre médecin tel traitement.  » Vous serez alors soigné par une combinaison d’humain et d’IA.

Quelles seront les grandes pistes de votre rapport?
Elles s’articulent autour de six grands piliers : l’impact sur l’emploi, l’écologie, l’éthique, la recherche, la politique industrielle et l’enjeu des données. En cette matière, le droit européen est de loin le plus protecteur du monde. Nous tenons à le rappeler, car si les citoyens et les administrations n’ont pas confiance, ils ne partageront pas leurs données, et notre recherche prendra du retard. En même temps, il faut décloisonner. Nos administrations n’ont pas l’habitude de partager.

 

Que préconisez-vous en matière de recherche?
La compétition de l’IA est avant tout une course pour l’intelligence humaine, celle des experts. Il faut associer les grands acteurs : les universités, les centres de recherche comme le CNRS, l’Inria, le CEA. Donner aux chercheurs en IA des avantages, un environnement administratif moins pesant, des moyens de mener leur projet. Rapprocher le secteur public et le privé, favoriser les collaborations avec l’industrie. Je n’oublie pas un grand besoin de formation. Dans le domaine de l’IA, nous avons besoin aussi bien de bac +20 que de bac +3.

Seriez-vous prêt à postuler à un ministère de l’IA?
Certainement pas. Le sujet touche tous les ministères et doit irriguer toutes les administrations. S’il existe un ministère de l’IA dans certains pays, nous sommes convaincus qu’il faut une organisation plus subtile.

 

Votre mission a-t-elle repéré des secteurs prioritaires en matière d’IA?
Les expérimentations concernent tous les secteurs. Mais pour une vraie politique industrielle, notre rapport insistera sur les transports, la santé, l’environnement et la défense, des domaines dans lesquels l’Europe et la France ont une vraie expertise et dans lesquels l’Etat peut apporter une forte valeur ajoutée au virage de l’IA. En santé, nous avons de véritables pépites comme Therapixel, start-up spécialisée dans les diagnostics avancés en matière de cancer, Cardiologs en cardiologie ou Rythm et son bandeau facilitateur de sommeil. Arrêtons de nous sous-estimer.

 

Quel financement la France devrait-elle consacrer au développement de l’IA?
Au niveau de l’UE, une trentaine de milliards sur les années qui viennent me paraît la bonne échelle. Et au niveau de la France, une cible de 1 à 2 milliards d’euros par an semble raisonnable, si l’on ajoute les investissements IA en recherche, matériel, industrie, formation…

Aujourd’hui, l’IA se nourrit d’une foule de données personnelles, doit-on faire payer leur utilisation?
Quand un hôpital vend des données personnelles de ses patients sans leur consentement, c’est choquant. Nous n’avons pas plus vocation à en faire commerce. Pourquoi ne pas les communiquer pour des expériences scientifiques, pour que d’autres en fassent usage? Comme lorsqu’on choisit de donner son corps à la science.

Face aux géants américains et chinois, la bataille des données n’est-elle pas déjà perdue?
Il est plus délicat de constituer de grandes bases dans un environnement fragmenté, comme l’Europe, mais la mission est convaincue qu’on peut y parvenir. A Europe unie, rien d’impossible. Cette union de forces est pour moi le plus grand enjeu à long terme, et la première raison pour laquelle je fais de la politique.

 

Face au développement de l’IA, la culture scientifique des Français est-elle suffisante?
En France, on s’est mis en tête que la culture était littéraire… Nous devons convaincre que les sciences font partie de la culture. A ce titre, la proposition du ministre de l’Éducation d’instaurer, en première et en terminale, deux heures hebdomadaires d’humanités scientifiques et numériques me plaît beaucoup.

 

En quoi consistera ce nouveau cours?
Pour les élèves des sections littéraires, qui abandonneront les sciences, les grands principes sont déterminants. On abordera la question : qu’est-ce que les sciences changent dans notre société ? Sujet immense. On pourra y parler de l’IA, qui influence la géostratégie mondiale, expliquer comment la science a modifié le cours de la Seconde Guerre mondiale, raconter l’aventure de l’informatisation, les bonnes pratiques face aux progrès technologiques… Cela donnera des clés pour comprendre.

 

Et à l’école primaire?
Les enfants de 6 ou 7 ans sont très curieux. La mission sur l’enseignement des maths recommande de cultiver le sens des quatre opérations dès le CP. Je vous conseille les vidéos Curious Mind, Serious Play, de Jan de Lange, célèbre pédagogue néerlandais. On y voit des gamins de 3 à 6 ans qui se passionnent pour de petites expériences et ont de bonnes intuitions là où un Prix Nobel pourrait être perdu!

 

À quel âge commencer les cours d’informatique?
Dès le CP… mais sans écran. Il faut distinguer les algorithmes – la science des processus – et le logiciel. Suivre des jeux, des instructions, comprendre la démarche algorithmique, tout cela peut commencer très tôt, sans appareils. La fondation La Main à la pâte, qui cherche à améliorer la qualité de l’enseignement des sciences, a conçu un manuel, « 1,2,3 codez! », qui peut être utilisé dès la maternelle.

 

Les élèves français sont très mal notés dans les classements internationaux évaluant leurs performances en sciences. Le problème n’est-il pas lié à la façon dont elles sont enseignées?
Absolument. À leur décharge, les collègues enseignants ont reçu beaucoup d’instructions contradictoires et très peu de formation. Il est donc important de rappeler le subtil dosage d’ingrédients que l’on retrouve dans les pédagogies qui ont eu du succès, que ce soit Séguin, Montessori, Singapour… D’abord, l’élève commence par manipuler. Puis il va désigner les choses et les représenter. Et enfin passer aux concepts, aux règles abstraites. La formation des enseignants se révèle cruciale. Et le périscolaire a un rôle à jouer. En France, nous avons des clubs de jeux, des concours, des activités remarquables et sous-exploitées.

 

Les avancées de la science ne risquent-elles pas d’aboutir à une fracture entre ceux qui peuvent accéder au savoir et les autres?
C’est un vrai risque et nous voulons l’éviter. L’intelligence artificielle est un bon exemple. Elle suscite des craintes variées. Le spectre d’une IA autonome ne m’effraie pas, nous en sommes tellement loin. Mais l’idée d’une IA qui profite seulement aux experts est un danger sérieux. Pour que le sujet prenne son essor, il faut que les gens se sentent dans le coup. Bien plus que la simple acquisition de connaissances, la culture scientifique est un enjeu pour la cohésion de la société.

 

Scolarisation obligatoire à 3 ans: enjeux

Scolarisation obligatoire à  3 ans: enjeux

Une  annonce importante de Macron avec la scolarisation obligatoire des enfants dès l’âge de 3 ans, au lieu de 6 ans .  Aujourd’hui,   97 % des enfants de 3 ans vont en maternelle. (Certains n’y vont pas en raison du cout de la cantine). Martine Milliat, IEN chargée de mission maternelle, département du Rhône, dans une note officielle explique l’enjeu de la maternelle pour le développement intellectuel (sans parler du développement physique et affectif)

 

« Il est très différent suivant les expériences vécues et les cheminements singuliers de chacun. Les modèles de développement linéaire issus des recherches en psychologie se sont avérés très incomplets. Nous parlons aujourd’hui d’intelligences multiples et l’école doit aider chacun à développer ses talents et son potentiel. Néanmoins, la pensée du jeune enfant est plutôt globale, intuitive, analogique et symbolique. Il la construit à partir des objets qui l’entourent et de leur apparence, d’où l’importance de la manipulation pour l’aider à trier et à classer. Il réajuste ses représentations grâce à des expériences sensorielles multiples. Le développement et la structuration de sa pensée sont essentiels dans ses apprentissages scolaires. Il est attaché au symbole. C’est pourquoi le faire semblant, l’imitation ont une fonction d’apprentissage très importante. Le jeu est une activité fondamentale pour son développement et pour son équilibre. Le petit a encore de grandes difficultés à structurer l’espace et le temps. À deux ans, il comprend « tout de suite », « bientôt ». Vers trois ans, il distingue le passé proche du présent mais la succession des actions dans leur déroulement n’est pas encore acquise. Cette construction sera centrale à l’école maternelle. Ce temps vécu, passé à l’école, les événements festifs, les sorties seront autant de jalons pour poser des repères. Ce sont également les expériences menées dans l’espace qui vont l’amener à passer d’une expérience immédiate à une perception plus fine de l’environnement. À deux ans, il a déjà des compétences numériques. À trois ans, il comprend « trois » et l’école maternelle va l’aider à développer ses capacités sur les nombres. Il possède déjà une variété de stratégies cognitives pour l’aider à résoudre des problèmes et les dispositifs pédagogiques mis en œuvre l’aideront à choisir les cheminements les plus efficaces. Si le développement de la parole est très variable suivant les caractéristiques intrinsèques de chaque enfant, les progrès réalisés entre deux et trois ans sont néanmoins considérables. À deux ans, l’enfant a déjà mis en mémoire environ 300 mots. La syntaxe s’organise, passant d’une juxtaposition de mots à l’élaboration de mots phrases (deux mots). Martine Milliat, IEN chargée de mission maternelle, département du Rhône 8 Entre deux et trois ans, il va passer du « bébé » à « il » jusqu’à la conquête magnifique de l’utilisation du « je ». En un an, il va mémoriser près de 1500 mots. Vers trois ans » Vers trois ans, 90% des enfants sont capables d’énoncer une phrase (sujet + verbe + complément). Le développement langagier, c’est-à-dire l’acquisition du vocabulaire, l’enrichissement de la syntaxe et la cohérence des propos, sera le pivot de tous les apprentissages menés au cours de ces deux années passées à l’école. La maîtrise de la fonction symbolique est importante. «

 

Il faudra évidemment des effectifs suffisants pour ne pas avoir à gérer des classes de 25 ou 3 élèves et notamment  des agents territoriaux spécialisés des écoles maternelles (Atsem), ces agents recrutés à un niveau CAP qui secondent les enseignants de maternelle dans les classes et dont le rôle d’auxiliaire pédagogique devrait être davantage reconnu et valorisé.

Intelligence artificielle : enjeux et perspectives (Charles-Édouard Bouée)

 

Charles-Édouard Bouée, le président du cabinet de conseil Roland Berger, explique les défis qui nous attendent avec l’arrivée de l’intelligence artificielle dans une interview à la Tribune

 

Sommes-nous en train de vivre un tournant avec l’arrivée de l’intelligence artificielle dans nos vies ?

 

CHARLES-ÉDOUARD BOUÉE - À l’évidence, oui ! Tous les indices que nous observons depuis deux ans le montrent. Nous entrons dans l’âge des machines intelligentes. En 2016, il y a eu des prises de position très claires de personnages emblématiques des nouvelles technologies – Elon Musk, Bill Gates, etc. – et des victoires hautement symboliques de l’IA contre les champions du monde du jeu de go, de poker ou du jeu Civilisation, qui est un jeu de stratégie encore plus complexe. On a aussi vu émerger de nouveaux acteurs de l’IA, comme Nvidia qui a doublé de valeur boursière en un an. Le vrai point d’inflexion a eu lieu il y a dix ans, en 2005-2006. C’est là que les premières puces Nvidia et les premières applications de machine learning sont apparues. Mais le mot intelligence artificielle n’est entré dans le vocabulaire des entreprises que depuis 2016. La France s’en est rendu compte avec retard mais a lancé en janvier dernier France IA, une initiative intéressante dotée d’une enveloppe de 1,5 milliard d’euros sur dix ans, et qu’il faut désormais développer. Tous les grands pays en ont fait une priorité : dès 2016 aux États-Unis, un rapport très complet sur les enjeux de l’IA a été remis à Barack Obama. Les Chinois aussi en ont fait leur nouvel objectif national prioritaire. Les entreprises en parlent, les États s’en préoccupent et le sujet commence aussi à intéresser le grand public, à voir les nombreuses unes de la presse qui y sont consacrées.

Il y a donc une accélération ces deux dernières années…

L’intelligence artificielle coïncide avec la prise de conscience de l’impact des technologies nouvelles sur le travail, et sans être au coeur des enjeux des élections dans les différents pays, elle percute le débat politique parce qu’elle aura des conséquences pour l’économie et l’emploi. En mai 2014, Roland Berger avait fait une étude remarquée selon laquelle la robotisation pourrait menacer 42 % des emplois. C’était très prospectif. Les débats restaient très académiques. C’est aujourd’hui devenu un sujet de l’actualité. Tout le monde en parle. Il y a une accélération du temps. Pas seulement celui des technologies mais de tout. Hartmut Rosa, le philosophe allemand, a raison : le temps s’accélère.

Quels scénarios envisager pour l’arrivée de l’IA dans nos vies ?

Elle est déjà présente mais cela reste peu visible. Dans mon livre, j’essaie de décrire ce qui va se passer à un double horizon de dix ans et de vingt ans. 2026-2036, c’est à la fois loin et très proche. Cela va être selon moi un tsunami, en deux vagues. La première, sur la période 2016-2026, va être marquée par le basculement dans l’intelligence artificielle portative, intégrée dans les téléphones mobiles et également dans tous les autres équipements que nous utilisons. L’intelligence artificielle portative pour tous, cela veut dire que notre vie va changer encore davantage dans les dix prochaines années que dans les dix précédentes. L’IA portative va nous faire gagner du temps, en réalisant à notre place tout une série de tâches simultanément et rapidement. L’homme augmenté avec son smartphone intelligent sera capable de gérer plusieurs dimensions en parallèle : notre intelligence artificielle portative pourra en même temps faire nos courses sur plusieurs sites Internet et nous faire livrer à domicile au meilleur prix les meilleurs produits, réserver nos vacances, comparer les prix des abonnements de téléphone tout en vérifiant que nos données personnelles ne sont pas utilisées par des tiers sans notre accord – car notre IA portative effectuera elle-même les recherches et les achats, disruptant ainsi des secteurs entiers comme la grande distribution ou la publicité. Elle se connectera aussi avec l’IA portative de nos voisins, par exemple pour acheter de l’électricité au distributeur local. Notre vie quotidienne et toutes les industries vont être radicalement transformées.

Il y a un gros débat sur la productivité à l’heure du numérique, car on ne la voit pas dans les statistiques. Cette IA portative va tout changer ?

Oui, et elle va faire disparaître la fracture numérique, le fameux digital divide, à part pour ceux qui ne sauront pas se servir d’un smartphone… C’est comme l’énergie. On est tous égaux devant l’électricité. L’IA portative entraînera aussi un rééquilibrage du rapport de force entre les entreprises et les particuliers. Aujourd’hui, l’entreprise, même traditionnelle, a le pouvoir sur nos données et sur la technologie. Demain, avec l’IA portative, l’écart va se combler car tout le monde aura accès à cette puissance informatique. Avec la montée des cadres nomades et des freelancers, les rapports de force sociaux et le monde du travail pourraient évoluer sensiblement : nous tous, salariés comme consommateurs, serons « augmentés » et pourrons postuler aux nouveaux emplois, nous procurer les nouveaux produits et services avec l’appui de notre IA personnelle.

Qui seront les acteurs de cette intelligence artificielle portative ?

Selon moi, les leaders de cette nouvelle révolution ne seront pas les Gafa. Ni Google ni Apple ni Facebook ni Amazon, ni même les Chinois des Bat (Baidu, Alibaba et Tencent). Il y aura un rééquilibrage entre les grands acteurs de l’Internet, les entreprises et les individus. La question de la sécurité des données, des data, sera cruciale. On crée tous les deux ans autant de données que celles qui ont été produites avant par l’humanité. C’est vertigineux. Celui qui pourra avoir accès à des données « fraîches » sera très rapidement au même niveau que celui qui l’a précédé. Avec une IA portative, personne ne voudra avoir affaire à un commerçant qui dispose de son historique de données. Tout nouvel acteur capable de garantir cette protection des données aura donc une prime sur les autres. Ce pourra être un spin off des Gafa, ou bien un nouvel acteur encore inconnu. Les données n’auront plus la même valeur économique. Les futurs nouveaux algorithmes seront probablement moins consommateurs de données car l’IA sera de plus en plus élaborée. Aujourd’hui le machine learning [apprentissage automatique ou apprentissage statistique, Ndlr] a besoin d’une masse considérable de data et de capacité de calcul. Demain, nous passerons au machine reasoning avec une IA interprétative ayant une plus forte capacité de raisonnement. La dernière preuve empirique que les Gafa ne seront pas forcément les gagnants de la bataille de l’IA, c’est l’observation du passé. Il y a eu trois vagues technologiques depuis les années 1990 : la vague de l’ordinateur portable avec Microsoft et IBM ; la vague d’Internet avec les grands opérateurs fournisseurs d’accès à Internet, comme AOL (America Online). Et enfin, on a eu la vague des Gafa avec Apple, Google, Facebook et Amazon.

En dix ans, les Gafa ont atteint en Bourse l’équivalent du PIB de la France… Comment imaginer leur disparition ?

Ces entreprises ne vont pas disparaître mais elles peuvent connaître le même sort que celui des opérateurs télécoms. Dans dix ans, il y aura des sociétés qui auront une capitalisation boursière de plus de 1 000 milliards de dollars mais selon moi, ce ne seront pas les Gafa. Les nouveaux acteurs dominants seront ceux qui fourniront l’IA portative en protégeant les données personnelles. L’histoire a montré qu’à chaque transition, les consommateurs ont cherché un nouveau produit et une nouvelle marque. Google au début était un service neutre qui n’essayait pas de nous vendre quelque chose. Le moteur de recherche s’est imposé et est ensuite devenu un service marchand. Il y a donc beaucoup de présomptions que les dernières années ne sont pas une garantie pour le futur. On peut imaginer que la prochaine disruption technologique, qui est la plus grosse, se fera avec de nouveaux acteurs.

Cela veut dire que tout le monde repart du même point. Mais les Gafa sont tellement riches qu’ils pourraient aspirer tous les cerveaux. N’a-t-on pas atteint un point de non-retour ?

Ce n’est pas qu’une question de puissance et d’argent mais d’algorithmes et de créativité pour engendrer de nouveaux business. Ceux qui ont fait fortune, ce ne sont pas les créateurs d’Internet, mais ceux qui ont suivi, qui ont su créer les services, fait un comparateur, un site de vente en ligne ou de voyage ou de rencontres… Au début des années 1990, les étudiants d’Harvard allaient chez Microsoft qui attirait tous les talents et pourtant ce sont d’autres qui ont gagné la bataille de l’Internet. Donc rien ne garantit que les Gafa seront les gagnants pour l’éternité. En dix ans, un nouvel entrant avec peu de capitaux mais les bons cerveaux peut prendre leur place.

Donc, c’est la révolution des cerveaux… humains ?

Oui, heureusement… mais cela sera différent dans les dix années qui suivent. Dans la séquence 2026-2036, les progrès de l’IA seront encore plus spectaculaires : machine learning, machine reasoning, la machine qui apprend, celle qui raisonne ; puis viendront les algorithmes génétiques qui se corrigent et se transforment, c’est-à-dire une machine capable d’évoluer génétiquement, comme un cerveau humain.

On va donc vers l’IA forte ?

Progressivement, de plus en plus d’applications utiliseront l’IA portative. Ma thèse est qu’à un moment donné, de manière aléatoire, une machine va s’éveiller. Dans le livre, je date cet événement, qui correspond au fameux point de singularité, au 15 août 2038. Cela peut arriver n’importe où, n’importe quand. Ce sera un « accident ». Ce n’est pas nécessairement celui qui cherche qui trouvera. Dans la thèse du livre, c’est une mise à jour de routine de l’IA qui déclenche son éveil.

Oui, et cela pose dès lors toute une série de questions philosophiques. Comment se comporte l’IA devenue consciente ?

Il y a deux écoles. Ceux qui pensent que la machine aura tous les caractéristiques humaines. Les bonnes et les mauvaises… Elle sera cupide, voudra du pouvoir et asservir les autres. Et il y a ceux, les plus nombreux, qui pensent que la machine raisonnera par rapport à son propre empire. Elle voudra sécuriser son accès à l’énergie, la stocker et survivre. Elle va donc s’assurer que l’environnement climatique et énergétique est sécurisé. C’est tout ce dont elle a besoin. Elle cherchera à éviter les guerres et tout ce qui pourrait perturber ses infrastructures.

Elle va gouverner la planète Terre… Ce sera « la chute de l’empire humain » ?

Elle va s’assurer de sa survie sur Terre. La machine ne raisonnera pas selon les critères humains, mais en fonction de ses besoins propres. La chute de l’empire humain à l’ère de l’intelligence artificielle forte, ce sera du Gengis Khan ludique et indolore. Comme le décrit Elon Musk, l’homme vivra dans un énorme jeu vidéo, une sorte de Matrix – car pour la machine ce sera le meilleur endroit où mettre les humains.

Les gens en auront-ils conscience ?

Non. Pour l’instant les gens sont sur la plage : ils contemplent les vaguelettes et ne voient pas l’énorme tsunami qui arrive.

Pourtant on voit poindre un début de révolte contre les technologies…

Empiriquement, on sait qu’on ne peut pas arrêter les technologies. Même le nucléaire ne l’a pas été. La question est de savoir dans quel monde nous voulons vivre et comment nous souhaitons contrôler la technologie, ou pas. Mais le vrai problème est que nous n’avons pas conscience de la situation. Si l’être humain savait avec certitude qu’une machine prend le contrôle, alors il se battrait pour sa souveraineté. Mais la probabilité que nous ne soyons pas dans une immense simulation est d’une sur un milliard, a dit Elon Musk. Sa thèse est que la chute de l’empire humain, nous ne la verrons pas. Il se pourrait que nous y soyons déjà.

Sans aller aussi loin dans la prospective, l’intelligence artificielle est aussi une énorme opportunité de business ?

Je ne suis pas d’accord avec ceux qui pensent qu’on est coincé dans un monde de raréfaction du travail et où le revenu universel va s’imposer. Il nous reste dix ans devant nous pendant lesquels nous pouvons encore gagner la bataille. On est à l’aube d’un âge d’or si on sait s’adapter.

Pourtant le patron de Microsoft dit, comme certains hommes et femmes politiques, qu’il faudra taxer les robots pour financer un revenu universel…

Nous avons encore dix ans devant nous pendant lesquels nous pouvons gagner. Le revenu universel, c’est beaucoup trop tôt pour l’envisager. C’est reconnaître qu’on va perdre la bataille de l’IA. C’est exactement l’inverse de ce qu’il faut faire. Nos hommes et femmes politiques sont loin d’être les seuls à tenir ce discours, il y a aussi des représentants de la Silicon Valley qui en parlent. Mais la différence est que ceux-ci sont persuadés qu’ils vont gagner la bataille de l’IA. Le revenu universel, c’est pour expliquer aux gens qu’il faut qu’ils se préparent à être d’éternels perdants, qu’ils ne pourront qu’être pauvres, et subventionnés pour ne pas travailler. Au contraire, les syndicalistes devraient s’emparer de l’IA pour réclamer un effort massif d’éducation et de formation, et permettre aux étudiants et aux travailleurs français d’être les meilleurs. Aujourd’hui, il faut regrouper nos forces : travailler avec les Allemands ainsi qu’avec les autres pays européens, et faire effet de levier face aux Américains qui sont actuellement un peu affaiblis en raison de leurs clivages internes.

Et les entreprises, que font-elles pour se préparer ?

La prise de conscience a commencé. Depuis deux ans, les entreprises se sont lancées à marche forcée dans la transformation digitale. Elles sont en train de comprendre que ce n’est qu’une promenade de santé au regard de la montagne à gravir. Mais je leur dis que c’est une opportunité incroyable pour une entreprise de la vieille économie, car cela rebat toutes les cartes. En ayant une stratégie IA, elles peuvent rattraper leur retard. Aujourd’hui, tous nos clients se sentent menacés par les Gafa. Leur dire que même les Gafa peuvent disparaître avec l’arrivée en dix ans de nouveaux acteurs, c’est de nature à leur redonner l’espoir.

L’Europe a sa chance dans cette nouvelle bataille ?

Oui, parce qu’on a les mathématiciens, les ingénieurs, les cerveaux. Et on n’a pas les Gafa. Pourquoi les Gafa ont-ils gagné contre les opérateurs télécoms ? Parce que les opérateurs étaient persuadés qu’ils avaient la maîtrise du débit et du client. Les fournisseurs d’accès Internet ont cru qu’ils allaient gagner parce qu’ils avaient les abonnés. Mais lorsque les Gafa ont débarqué avec des applications qui ont été d’emblée adoptées par les clients, c’était fini pour eux. Ils sont passés de très riches à très pauvres. C’est une des raisons pour lesquelles l’Europe a raté le virage. Les opérateurs télécoms européens étaient les maîtres du monde et ils ont été vaincus : Vodafone, Deutsche Telekom, France Telecom avaient une stratégie d’expansion mondiale. C’étaient des cash machines qui émettaient de la monnaie papier car ils contrôlaient les consommateurs en les équipant de portables. Et les Gafa les ont remplacés en dix ans. C’est la preuve empirique que tout reste possible. On n’est pas assez stratèges en Europe. Les Chinois ont gagné la bataille suivante parce qu’ils sont partis de zéro. Il faut sortir de notre complexe d’infériorité vis-à-vis de la Silicon Valley. La bonne nouvelle, c’est que les grands groupes européens, dans l’automobile, l’industrie, les cosmétiques, n’ont pas peur des Gafa. L’IA est une opportunité pour eux. Ensuite, c’est aux gouvernements nationaux et à l’Europe de fournir les moyens de cette transformation. L’Europe doit lancer une plateforme IA en open source. Si l’Europe, qui a créé le GSM, sait définir les normes de l’intelligence artificielle portative, elle deviendra la référence, au moins pour l’Europe continentale.

Ceux qui auront donné le tempo sur les normes auront un avantage compétitif fort.

Aujourd’hui le problème de l’IA, c’est qu’elle n’est pas portable. C’est la forêt, ça foisonne, on est avant que Microsoft n’impose son système d’exploitation pour tous les ordinateurs. Celui qui saura développer l’OS de l’IA va emporter la mise.

Une stratégie IA pour une entreprise, c’est quoi ?

C’est très différent d’une stratégie classique où l’on regarde la concurrence, le marché, les produits, les clients, etc. La première étape est de visualiser le futur, un futur assez lointain, au moins 2030. Dans ce futur, il faut analyser tout ce qui dans son activité peut être impacté par l’IA. Ensuite, il faut développer une stratégie de conquête. Il faut apprendre à se projeter dans le futur : qu’est que ce qu’on va fournir au consommateur de 2036, qui aura accès à l’IA comme celui de 2017 a accès à l’Internet haut débit ? La seconde étape est d’analyser ses actifs, et déterminer ceux qui sont utiles et ceux qui ne le sont pas.

C’est simple à dire, pas à réaliser…

C’est beaucoup plus simple quand on a pris conscience des conséquences de l’arrivée de l’IA. C’est écrire avec le comex les futurs possibles et voir comment on peut les préempter et prendre de l’avance. C’est pour cela que les groupes traditionnels ont encore leur chance. Ils ont un avantage beaucoup plus grand qu’ils ne le pensent…

 

Fermeture de 17 réacteurs nucléaires : les enjeux

Fermeture de 17 réacteurs nucléaires : les enjeux 

 

 

Après les déclarations un peu hâtives de Nicolas Hulot concernant peut-être la fermeture de 17 réacteurs Nicolas Goldberg, manager au sein du cabinet Colombus Consulting et spécialiste des questions de politiques énergétiques, analyse l’impact social, économique et écologique de cette décision dans une interview au Figaro. Notons par ailleurs que cette déclaration du ministre de l’écologie à aussitôt été contesté par le premier ministre sans doute plus réaliste vis à  vis des enjeux énergétiques

 

 

Quelles seraient les centrales concernées par les déclarations de Nicolas Hulot?

Nicolas Goldberg - Logiquement, ce sont les centrales les plus anciennes qui seront les premières concernées: Fessenheim, bien entendu, mais aussi Dampierre en Burly, Bugey … Car fermer 17 réacteurs nucléaires, cela veut dire qu’une grande partie des 23 réacteurs arrivant à l’âge de 40 ans ne sera pas prolongée. Deux options s’offrent donc à EDF: soit elle fait le choix de prolonger leur durée d’activité de 10, voire 20 ans, ce qui implique de déclencher des travaux de rénovation des cuves rapidement, soit elle fait le choix de la fermeture. Sachant que, bien évidemment, EDF a tout à gagner à porter à 50, voire 60 ans les centrales les plus anciennes: d’un point de vue économique d’abord, mais aussi d’un point de vue social. Pour rappel, la filière nucléaire en France emploie directement et indirectement plus de 450.000 personnes. Mettons que dix-sept des cinquante-huit réacteurs ferment d’ici la fin du quinquennat, soit l’équivalent d’environ un quart de la totalité de la puissance nucléaire installée en France, cela signifie en première approximation automatiquement 100.000 emplois menacés.

 

Mais selon de nombreuses études, la filière des énergies renouvelables est prête à prendre le relais. Elle possède notamment un très fort potentiel d’emplois susceptible de compenser les effets du démantèlement de la filière…

Fermer les 17 réacteurs les plus vieux équivaut également à se priver de 15 GW de puissance, soit l’équivalent de la totalité des puissances éoliennes et solaires actuellement installées en France. Sachant que l’éolien et le solaire sont intermittents, il faudrait donc parvenir à tripler, voire quadrupler, les productions éoliennes et solaires existantes d’ici la fin du quinquennat, ce qui paraît très ambitieux.

Concernant la création d’emplois à long terme, même chose: j’attends que les faits valident la théorie. Pour rappel, Nicolas Sarkozy a lancé, en 2011, un vaste plan pour soutenir le développement d’une filière française de l’énergie solaire. Sauf que les effets sur l’emploi français tardent toujours à se faire sentir: malgré tous les dispositifs de soutien, l’éolien et le solaire n’emploient chacun que 20.000 personnes en France, ce qui est toujours peu. Et pour cause! Sur le solaire par exemple, les opportunités offertes par le développement de la filière ont finalement profité à la filière solaire chinoise, sans parvenir à créer autant d’emplois locaux qu’escompté.  Pour l’éolien terrestre, c’est le même constat: il nous manque un champion national pour pouvoir affirmer que la création d’emplois profite bien à la France, et non aux leaders danois ou allemands. Sur l’éolien offshore, nous pourrons faire le bilan des emplois créés par les premiers appels d’offres une fois que les éoliennes seront mises en service, ce qui est pour le moment prévu en 2021. La question n’est donc pas de savoir si les énergies renouvelables sont capables de créer des emplois, elles en créeront certainement, mais en créeront-elles autant que le nucléaire et de manière aussi locale?   Si nous prenons la direction du remplacement du parc nucléaire par des énergies renouvelables, il y aura peut-être des créations d’emplois mais aussi beaucoup de destructions dans le nucléaire: il y aura donc des gagnants et des perdants et il sera du rôle de notre politique industrielle de s’assurer que le solde soit positif. Ainsi, il faudrait que le gouvernement soit en mesure de mettre au point une vraie planification décennale qui fasse la démonstration de la capacité de la filière française à affronter ces différents enjeux. Pour le moment, cette démonstration n’a toujours pas été faite et nous avons plus que jamais besoin d’un débat public sur le sujet pour construire l’avenir de notre production d’électricité, qu’elle soit nucléaire ou renouvelable sur le long terme.

 

Fermer des réacteurs nucléaires, est-ce compatible avec les engagements de diminution de CO2 de l’Accord de Paris?

C’est un autre vrai problème car le gouvernement semble décidé à défendre deux objectifs absolument contradictoires. D’un côté, il y a cette volonté d’accélérer la fermeture du nucléaire. De l’autre, le désir de s’orienter vers la fin des véhicules diesel et essence à horizon 2040, ce qui veut dire qu’il va falloir les remplacer principalement par des véhicules électriques. Ainsi, nous aurions un objectif visant à nous priver d’une partie de notre production d’électricité sans CO2 et de l’autre, une volonté d’accroître notre besoin en électricité pour prendre le relais des véhicules thermiques: ce sont deux positions a priori irréconciliables. Il faut rappeler que le nucléaire n’émet pas CO2 et est donc conforme aux objectifs fixés par la COP21. Si nous fermons les centrales pour les remplacer par autre chose, nous n’avançons pas dans la lutte contre le réchauffement climatique. En revanche, garder une production d’électricité sans CO2 et électrifier le parc de véhicules électriques, c’est un moyen d’être moins dépendant des hydrocarbures et de lutter efficacement contre le réchauffement climatique.

 

Congrès Versailles : un rappel indispensable des enjeux

Congrès Versailles : un rappel indispensable des enjeux
Il ne faut sans doute pas s’attendre à l’annonce de mesures nouvelles et ou sensationnelles de la part de Macron lors de la réunion du congrès à Versailles. Il s’entrera sans doute son propos sur les principaux enjeux et sur les perspectives ; un rappel des enjeux non seulement nécessaire mais indispensable compte tenus de l’état de la culture française en matière d’économie et de l’attachement particulier du pays à l’étatisme ; un étatisme supposé régler tous les problèmes économiques, sociaux et sociétaux mais dont l’efficacité reste à démontrer si l’on en juge par la faible performance économique du pays, le haut niveau du chômage, le développement des inégalités sociales ou encore l’état de certains quartiers délaissés . Macron va s’attacher à resituer la situation de la France dans son environnement international et notamment européen. Il indiquera ses orientations mais celle-ci sont largement connues et il ne faut pas attendre à de nouvelles annonces. Cela d’autant plus que Macron comme le premier ministre savent très bien que leur action est hypothéquée par l’ampleur du déficit et du coup que certaines mesures devront sans doute être décalées dans le temps. L’urgence sur le plan économique sera d’alléger les dépenses budgétaires pour tenter d’atteindre le fatidique seuil des 3 % de déficit budgétaire et en même temps éviter de faire encore grossir la dette qui va encore progresser pendant un temps notamment du fait de la remontée des taux. Bien entendu Macon au cours de son intervention abordera de nombreux champs d’action mais la priorité visera à moderniser l’économie à fin de favoriser la croissance et l’emploi. Certes l’action du gouvernement dans ce domaine est incontournable mais la responsabilité en incombe tout autant aux acteurs économiques et plus généralement aux citoyens pas simplement consommateurs de démocratie et de progrès mais aussi acteurs de la modernisation. Bref, ce n’est pas seulement l’action du président de la république qui permettra la modernisation du pays, sa performance dans tous les domaines mais aussi celle des Français eux-mêmes dont certains sont englués dans un conservatisme mortel.

 

Sondage enjeux 2017 : emploi, protection sociale et pouvoir d’achat

Sondage enjeux 2017 : emploi, protection sociale et pouvoir d’achat

 

Selon un sondage OpinionWay pour le Printemps de l’Économie, sur «les Français et les programmes électoraux», les principaux enjeux sont les suivants : emploi (59%),  protection sociale (51%), le pouvoir d’achat (48%) et l’immigration (43%). La fiscalité ne recueille que 35% des suffrages, la dette et les déficits 32%, les affaires 31%, ou la construction européenne 19%. «Force est de constater que, pour l’ensemble des Français, les trois préoccupations majeures restent économiques et sociales», analyse Pierre-Pascal Boulanger, le président-fondateur du Printemps de l’Economie.les   électeurs les républicains et  du FN, placent l’immigration et l’emploi en tête des enjeux de la prochaine élection (avec respectivement 59% et 57% pour les sympathisants de François Fillon aux deux items, et 83% et 50% pour ceux de Marine Le Pen). Leurs préférences divergent par la suite, les sympathisants LR mettant l’accent sur la dette et les déficits (54%) quand ceux du FN, sensibles à la ligne étatiste très à gauche de Marine Le Pen, plébiscitent la protection sociale (38%).

Le président chinois en France: les enjeux

Le président chinois en France: les enjeux

 

Pour la France, c’est de réduire le déficit commercial de 26 milliards avec la Chine. Pour la Chine, c’est de trouver des accords de coopération pour mieux maîtriser certaines technologies.  Dans ce cadre, il y a d’abord l’accord sur l’entrée au capital du groupe PSA Peugeot Citroën de l’État français et du constructeur Dongfeng. Au chapitre des contrats, une commande de quelques dizaines de court-courriers A320 et le déblocage de celle de 27 A330, gelée en raison d’un différend commercial entre Pékin et Bruxelles, devraient être annoncés.  Les présidents français et chinois devraient également lancer « un partenariat industriel renforcé pour la fabrication en commun d’hélicoptères civils de type EC175″ d’Airbus Helicopters, indique une source industrielle. « Ce partenariat pourrait concerner jusqu’à 1.000 appareils sur une vingtaine d’années », précise-t-elle.  L’aéronautique mais également le nucléaire civil, l’agroalimentaire, la santé, les énergies renouvelables, l’automobile, les transports et le « développement urbain durable » font partie des secteurs à fort potentiel dans cette relation commerciale franco-chinoise.  Le patron du groupe nucléaire français Areva, Luc Oursel, escompte pour sa part « la signature d’un certain nombre d’accords », alors que des discussions sont en cours pour la construction en Chine d’une usine de retraitement de déchets nucléaires.  Sur le plan diplomatique, l’Iran, la Syrie, la Corée du Nord et l’Afrique feront partie des grands dossiers évoqués.  Mais au surlendemain de la réunion des grandes puissances du G7 à La Haye, la crise ukrainienne devrait également donner lieu à de nouvelles « discussions approfondies entre les présidents Hollande et Xi Jinping » autour d’un dossier qui, selon Paris, ne suscite « aucun motif de désaccord ».  La Chine affiche cependant une bienveillante neutralité à l’égard de Moscou. Elle s’est abstenue lors du vote au Conseil de sécurité de l’ONU condamnant le référendum en Crimée, tandis que la Russie opposait son veto et que les autres membres du Conseil l’approuvaient.

 

Réforme pénale : enjeux

Réforme pénale : enjeux

 

 

En  gros soit le tout carcéral ou l’aménagement des peines courtes ; Plusieurs raisons, d’abord une raiosn économique, la France n’a palus les moyens de construire assez de prisons et il y a une surpopulation d’environ 25%. Dès lors ne reste plus que le laxisme à vernis humanitaire type Taubira. Finalement Valls a raison de manifester une fermeté vis à vis de la délinquance mais il est impossible de faire appliquer les peines ; de l’autre Taubira n’a pas complètement tort car la prison n’est pas un lieu idéal de se réinsérer mais elle rêve et de gave de mots quand elle affirme «  il faut changer de paradigme ». Depuis la loi sur l’homosexualité Taubira a les pieds qui ne trouvent plus terre, elle a même une suffisance et une arrogance qui surprennent quand elle ne fait pas dans le théâtral ; par exemple quand elle se rend à vélo ( pour des motifs écolos) à son ministère mais entourée de motos et de voitures ! Dans une circulaire présentée en septembre 2012, la ministre de la Justice prônait une rupture avec le tout-carcéral. Elle y rappelait que « le recours à l’incarcération doit être limité aux situations qui l’exigent strictement » et que « faire de l’aménagement des peines d’emprisonnement (devait être) une priorité de politique pénale ». Christiane Taubira avait aussi annoncé qu’elle ne reprendrait pas le souhait de l’UMP de construire 24.000 nouvelles places de prison sur le quinquennat. « L’engagement est d’atteindre 63.000 places », contre environ 57.000 aujourd’hui, indiquait-elle alors. Au 1er juillet, on comptait 68.569 détenus dans les prisons françaises, soit un taux d’occupation de près de 120%. Entre les deux ministres, il y a des divergences de méthode et de fond. Dans son courrier à François Hollande, Manuel Valls revient sur les points les plus essentiels à ses yeux. Ce dernier estime notamment qu’il n’est pas acceptable « d’ignorer la question du dimensionnement du parc immobilier pénitentiaire » et refuse que la surpopulation carcérale soit uniquement expliquée par « le recours ‘par défaut’ à l’emprisonnement et par l’effet des peines planchers ». Il se positionne ainsi en faveur de la construction de nouvelles prisons. Le ministre de l’Intérieur est également critique envers la « peine de probation » qui « n’est pas défini précisément », selon lui. Quant à la question de la récidive, il assure que le phénomène « oblige à une exigence accrue de prévisibilité et de fermeté ». Et estime que les récidivistes devraient être exclus du dispositif d’aménagement des peines, à l’exception de certains cas. « Mme Taubira est contre la prison », a déclaré Christian Estrosi (UMP) mercredi sur BFMTV. Une phrase qui résume les reproches de l’opposition à l’encontre de Christiane Taubira, alors que Manuel Valls, sur une ligne plus droitière au sein du PS, obtient davantage ses faveurs. L’UMP juge « dangereuse » la politique pénale conduite par la garde des Sceaux, depuis son entrée en fonction. « Dire que le recours à la prison ferme doit désormais être l’exception (…) est totalement irresponsable », estime Eric Ciotti. De son côté, Manuel Valls convainc au-delà de son camp. Son attitude jugée autoritaire séduit.

 

1...45678



L'actu écologique |
bessay |
Mr. Sandro's Blog |
Unblog.fr | Annuaire | Signaler un abus | astucesquotidiennes
| MIEUX-ETRE
| louis crusol