Archives pour la catégorie Economie

La fiscalité locale : états des lieux et perspectives 

Par Pierre Geraud, étudiant en Master Stratégies territoriales à Sciences Po

Constituant l’une des quatre grandes catégories de ressources des collectivités territoriales (avec les concours de l’Etat, l’emprunt et les produits issus du patrimoine et des services publics locaux), la fiscalité locale représente deux tiers des recettes des collectivités, soit environ 165 milliards d’euros en 2022 et regroupe d’une part les impôts et taxes locaux et d’autre part la fiscalité nationale affectée. Toutefois, la récente vague d’augmentation des taxes foncières dans certaines communes confrontées à une situation budgétaire difficile comme à Paris (+ 52% en 2023) a relancé le débat sur le financement des collectivités locales, dans un contexte où les collectivités doivent faire face à la suppression de taxes locales (taxe d’habitation, contribution sur la valeur ajoutée des entreprises). En outre, les collectivités ont été confrontées à une hausse structurelle de leurs dépenses avec l’élargissement de leurs compétences au gré des actes de la décentralisation, mais également conjoncturelles pendant la période inflationniste 2022-2023.  

Les collectivités locales sont dotées d’une autonomie financière en vertu de la Constitution  :

Le principe de libre-administration (Constitution du 4 octobre 1958, art 72) dont dispose les collectivités induit une autonomie financière (Constitution de 1958, art 72-2 introduit par la révision du 28 mars 2003) selon laquelle les collectivités doivent bénéficier de « ressources propres ». Cependant, les collectivités ne bénéficient pas de l’autonomie fiscale, l’autorisation à lever l’impôt relève de la compétence du législateur (Déclaration des Droits de l’Homme et du Citoyen de 1789, art 14).  L’article 72-2 précise alors que la loi peut autoriser les collectivités à recevoir tout ou partie du produit d’impositions de toute nature et en fixer l’assiette et le taux dans les limites qu’elle détermine . Les ressources propres représentent une part déterminante des recettes des collectivités. La loi organique du 29 juillet 2004 établit des seuils de ressources propres : ainsi au moins 62% des ressources des communes doit provenir de ressources propres, 58 pour les départements et 42,3 % pour les régions.  

La fiscalité locale regroupe d’une part les impôts et taxes locaux qui constituent une source de financement importante des collectivités et d’autre part, la fiscalité nationale affectée qui représente une part notable et de plus en plus importante des ressources des collectivités :  

Les impôts et taxes locaux, sont ceux qui bénéficient exclusivement aux collectivités territoriales. Il existe d’une part une fiscalité directe locale1 :  

  • La taxe d’habitation (TH), supprimée totalement depuis le 1er janvier 2023 pour les résidences principales, demeure sur les résidences secondaires et les logements vacants (2,8 Md€ en 2023 et 3 Md€ en 2024) affectée au bloc communal.  
  • Les taxes foncières sur les propriétés bâties (TFPB, 39.8 Md€ en 2023) et non bâties (TFPNB, 1 Md€ en 2023) payées par les propriétaires de terrain, dont les assiettes sont calculées à partir des valeurs locatives cadastrales affectées principalement au bloc communal. Il existe également des taxes annexes à la TFPB (environ 11 Md€), comme la taxe d’enlèvement des ordures ménagères (TEOM) qui représente 8 Md€ en 2023  
  • La fiscalité économique des collectivités est constituée de la contribution économique territoriale (CET, 16 Md€ en 2022), créée en 2010 en remplacement de la taxe professionnelle. Elle est composée de deux impositions : la cotisation foncière des entreprises (CFE, 7 Md€ en 2022, affectée au bloc communal) la cotisation sur la valeur ajoutée des entreprises (CVAE, 9 Md€ en 2022, affectée au bloc communal et aux départements). La recette de la CVAE est amenée à diminuer dans les années à venir du fait de sa suppression progressive (cf infra).  
  • L’imposition forfaitaire sur les entreprises de réseau (IFER) (producteurs d’électricité, propriétaires de réseaux téléphoniques, Réseau ferré). Son produit (1,6 Md€) est également partagé entre les niveaux de collectivités territoriales.  
  • D’autres impôts économiques existent comme la taxe sur les surfaces commerciales (TASCOM), la taxe sur les pylônes ou la redevance des mines par exemple.  

D’autre part, il existe une fiscalité indirecte locale :  

  • Les droits sur les mutations à titre onéreux (DMTO, 20 Md€ en 2021, 16.3 Md€ en 2023) sont principalement affectés aux départements.  
  • Les taxes d’urbanisme (taxe d’aménagement, taxe de participation pour voirie et réseaux, taxe départementale des espaces naturels sensibles)  

En parallèle, la fiscalité nationale affectée représente une part notable et de plus en plus importante des ressources des collectivités. Contrairement aux impôts et taxes locaux, la fiscalité nationale affectée ne bénéficie pas exclusivement aux collectivités, le produit n’est que partiellement reversé aux collectivités.  

La fiscalité nationale affectée aux collectivités territoriales est constituée principalement : 

  • De fraction de TVA, versées en compensation de la suppression de la taxe d’habitation et de la réforme de la CVAE : elles se sont élevées à 52,1 Md€ en 2023 (14,1 Md€ bloc communal, 20,4 Md€ départements, 16,3 Md€ régions)  
  • D’accises sur les produits énergétiques (anciennement TIC, 11 Md€) en 2023, partagée essentiellement et de manière quasiment égale entre régions (5,1) et départements (5,5), une petite partie est également affectée au bloc communal (375 millions)  
  • De la taxe spéciale sur les conventions d’assurance (TSCA, 8,3 Md€), affectée presque intégralement aux départements. 

Ces impôts nationaux partagés compensent les transferts de compétences dans le cadre de la décentralisation ainsi que la disparition d’anciens impôts et taxes locaux. 

La suppression récente d’impôts locaux majeurs a réduit la part de la fiscalité locale dans les ressources des collectivités :

Ces dernières années, les produits des taxes et impôts locaux et leur part dans les ressources des collectivités ont fortement diminué, passant de 98 milliards en 2020 à 68 en 2022 et à 65,2 en 2023 (Les collectivités locales en chiffres, 20242). Les pouvoirs publics ont en effet réduit la fiscalité locale des entreprises et des ménages pour soutenir la compétitivité des premières et le pouvoir d’achat des seconds. Aussi, la suppression progressive de la CVAE, avec une pleine suppression prévue au premier janvier 2030 (Loi de Finances pour 2025), constitue un vecteur de diminution des recettes fiscales pour les collectivités territoriales. En outre, entre 2018 et 2023, la taxe d’habitation sur les résidences principales a été progressivement supprimée.  

Ces diminutions de ressources pour les collectivités ont quasiment toutes été compensées par de la fiscalité nationale affectée, en premier lieu de la TVA, dont une part est par ailleurs transférée à la Sécurité sociale pour équilibrer les exonérations de cotisations.

De ce fait, la structure de financement des collectivités a été profondément modifiée : le bloc communal capte aujourd’hui la majeure partie des impôts locaux avec pouvoir de taux, notamment fonciers alors que cette fiscalité locale est devenue minoritaire du financement des autres collectivités – se réduisant par exemple aux DMTO pour les départements et dont la recette a diminué ces dernières années – voire absente pour les régions. La fiscalité affectée, sans pouvoir de taux, et donc de maitrise de ces ressources, engendre une réduction des marges de manœuvre des collectivités.  

Par ailleurs, la révision à venir des valeurs locatives cadastrales (VLC) pour les locaux d’habitation (logements, parkings), prévue pour 2028 (LF 2023), inquiète les collectivités. Si cette réforme revêt un enjeu de justice fiscale, notamment d’asseoir l’imposition sur une valeur proche de la valeur réelle du bien, la dernière révision générale des VLC ayant eu lieu en 1970 pour les locaux d’habitation, elle risque de redistribuer le potentiel fiscal entre collectivités et de nécessiter des mécanismes de péréquation renforcés.  

La réflexion quant à la nature et aux objectifs de la fiscalité locale doit être poursuivie et amplifiée, dans la perspective d’une refonte du système de financement  

Face à une complexité croissante, l’étude d’une refonte globale du financement des collectivités parait opportune. La Cour des comptes (Le financement des collectivités territoriales : des scénarios d’évolution, octobre 20223) avait notamment préconisé d’affecter la totalité du produit des impôts locaux au bloc communal comme la DMTO ou la part départementale de la CVAE afin de privilégier un lien entre l’impôt local et le service public local rendu au plus près des citoyens. Cette proposition s’inscrit d’ailleurs dans un débat plus large, celui de l’hypothèse d’une suppression des départements et le transfert de leurs compétences aux régions et aux intercommunalités (Commission sur la libération pour la croissance française, proposition 259, janvier 20084), même s’il faut souligner que cet échelon détient une légitimité historique (Décret du 22 décembre 1789 de l’Assemblée nationale constituante). Il serait également pertinent de poursuivre et d’encourager la recentralisation du RSA, comme l’expérimente la loi 3DS de 2022, afin de soulager les département compte tenu de l’effet procyclique engendré par la hausse du chômage, qui génère une hausse des dépenses de RSA et une baisse des recettes de TVA, en particulier dans certains départements.  

Par ailleurs, la révision des VLC pour les propriétés non commerciales et locaux d’habitation doit être une priorité afin de rétablir une fiscalité juste et actualisée, tout en garantissant des mécanismes de péréquation renforcés, afin de limiter les écarts entre les collectivités. En ce sens, il est nécessaire de garantir l’effectivité de cette révision en 2028 et de ne pas encore une fois la reporter, la révision étant initialement prévue en 2026.  

Enfin , la question du développement de la fiscalité environnementale, incitant à des comportements vertueux notamment en termes de sobriété foncière, reste ouverte (Conseil Prélèvement Obligatoires sur le ZAN et la fiscalité locale, 20225 ; Comité pour l’économie verte, 20196). De même, la Convention citoyenne pour le climat (Orientations en matière de financement, juin 20207) avait proposé de réformer la TEOM par des mécanismes plus justes et incitatifs afin de favoriser les comportements éco-responsables.  

1987 : Quand la déconnexion avec les réalités économiques atteint son paroxysme

Lundi 19 octobre 1987 : l’indice Dow Jones perd 22,6 % de sa valeur, soit la pire séance jamais enregistrée pour Wall Street. Surnommé « the black Monday », ce krach n’a paradoxalement pas eu de répercussions immédiatement néfastes sur l’économie réelle, contrairement au krach de 1929. Cette crise a été causée par des phénomènes macroéconomiques, tels que les variations de taux de change avec le dollar mais également par des nouvelles innovations qui sont mises en application sur les marchés financiers tels que les algorithmes de trading. Dans ce reportage, nous allons nous pencher précisément sur les facteurs de cette crise, mais également analyser la réponse de la FED.

Une conjoncture précédant la crise marquée par des variations importantes du dollar

Une politique désinflationniste initiée par Paul Volcker :

Il convient de rappeler le contexte de cette crise. Dans les années 1970, l’économie américaine est marquée par la stagflation, c’est-à-dire une forte inflation combinée à une faible croissance. La fin de la convertibilité or-dollar, décidée par Richard Nixon le 15 août 1971, a entrainé la mise en place d’un système de changes flottants, faisant évoluer la valeur des monnaies selon l’offre et la demande. Ce système s’est révélé pervers pour les Etats-Unis puisque le dollar a été confronté à plusieurs dévaluations, générant de l’inflation. Cette inflation a également été causée par les chocs pétroliers de 1973 et 1979, faisant passer de 1,3 à plus de 30 dollars le prix du baril entre le début et la fin des années 1970, ce qui a lourdement impacté la production des entreprises du secteur secondaire. Si l’on donne des chiffres précis, le taux d’inflation en 1974 était aux alentours de 10 % et le taux de croissance était de -2 %, soit à un niveau négatif. En août 1979, Paul Volcker est nommé par Jimmy Carter président de la FED. Il mène alors une politique de lutte contre l’inflation, afin de redonner de la valeur au dollar. Pour cela, il fait passer les taux au jour le jour de 11 % à plus de 20 %, c’est-à-dire que le prix de l’argent prêté par la Banque centrale américaine aux établissements de second rang pendant 24 heures étaient de plus de 20 %, ce qui limitait forcément la création monétaire en dollars, entrainait sa rareté et par conséquent augmentait sa valeur. La création monétaire prévue pour le rachat de devises étrangères devenait par conséquent plus limitée.

Une désinflation excessive :

Sur un plan purement monétaire, cette politique, s’est révélée efficace : en 1980, le taux d’inflation était d’environ 14 %, il n’était plus que de 3 % en 1983. Cette appréciation fulgurante du dollar au détriment des autres monnaies qui se voyaient alors dévaluées a alors débouché sur un accord monétaire entre les principaux pays du G7 (Etats-Unis, Royaume-Uni, France, Japon et RFA) le 22 septembre 1985, les Accords du Plaza. Plusieurs milliards de dollars sont injectés sur le marché monétaire, ce qui fait baisser mécaniquement sa valeur. Ainsi, à la fin de l’année 1986, le dollar avait effacé tous ses gains et avait retrouvé son niveau de 1979. Les accords du Plaza, censés limiter l’appréciation du dollar, ont eu des effets excessifs, dans le sens qu’ils ont créé un cercle vicieux inflationniste pour le dollar. Pour contrer cette nouvelle dépréciation du dollar, les pays du G5, accompagnés du Canada optent pour la stratégie inverse de celle conclue au Plaza, en signant les Accords du Louvre le 21 et 22 février 1987, correspondant à une politique de renforcement de la valeur du dollar. Cependant, ces accords ne parviennent pas à enrayer la dépréciation de la monnaie américaine. L’échec de cet accord, a alors des conséquences sur les rendements du marché obligataire américain. En effet, la hausse de l’inflation, entraine une diminution des taux d’intérêts réels, qui rappelons-le se calcule approximativement par le taux d’intérêt nominal soustrait du taux d’inflation. Par conséquent, durant les mois précédent le krach, les taux d’intérêts nominaux ont augmenté considérablement, le bond du trésor américain sur 10 ans atteint 9,5 %. La dépréciation du dollar a des effets bénéfiques sur la croissance et permet de dynamiser les exportations. En effet, si la valeur du dollar diminue par rapport au franc par exemple, il faudra moins de francs pour obtenir un bien en dollars, ce qui les produits américains plus compétitifs. Cependant, cette hausse de la compétitivité des produits américains ne permet pas de compenser les pertes causées par la dévaluation du dollar, ce qui se traduit par une hausse du déficit commercial. L’annonce des chiffres du déficit commercial américain le 16 octobre est d’ailleurs considérée comme l’un des principaux éléments déclencheurs du krach.

Une crise endogène

Une crise favorisée par la dérégulation :

Par la suite, il est nécessaire de comprendre le contexte de l’époque. Depuis l’arrivée au pouvoir de Ronald Reagan en 1981, les Etats-Unis connaissent une période de libéralisation, dans le sens d’un recul voire d’une absence d’intervention de l’état sur les marchés financiers. Cette politique favorise alors le développement de produits financiers ou de nouvelles opérations. Par la suite, des opérations font leur apparition grâce à l’informatisation de la finance, marquée par les débuts des programmes de trading. Des algorithmes avaient été créés et programmaient des ordres de vente et d’achat automatique. Les programmes fonctionnaient alors avec des stop loss, c’est-à-dire des ordres de vente automatique afin de protéger le capital. Cependant, à cette époque, étant donné que les programmes étaient encore peu développés et similaires, leur fonctionnement avait alors tendance à intensifier les fluctuations des cours de bourse, notamment baissières. L’autre apparition importante était celle de la portfolio insurance, dont l’objectif était de protéger le capital des investisseurs. L’idée est d’organiser une fusion entre un portefeuille d’actions et un contrat de vente, une option put. En cas de croissance du marché les gains générés étaient moins importants que la hausse des cours, du fait de la perte de la prime dans le cadre de l’option. Pour en connaître plus sur le système des options, je vous invite à regarder la vidéo consacrée à ce sujet. L’avantage était que si les gains en cas de hausse du marché étaient moins importants, les pertes en cas de baisse étaient amoindries par la prime de l’option. Il s’agissait en fait d’un arbitrage visant à répartir les risques.

Un stop-loss ayant favorisé une crise uniquement financière :

Le stop-loss était marqué par des inconvénients pour les investisseurs. Le premier était qu’à cette époque, le marché de ce type de produits était oligopolistique, ce qui mettait les établissements bancaires dans une position de Price Maker et non de Price Taker comme sur un marché concurrentiel. En effet, sur un marché concurrentiel, caractérisé par une atomicité de l’offre et de la demande, les acteurs, nombreux et étant des atomes, ne pouvaient pas avoir d’influence sur le marché et par conséquent, infléchir les prix à la hausse ou à la baisse. Par conséquent, à cette époque, les établissements bancaires fixaient en quelque sorte à leur guise les conditions du marché, comme le montant de la prime ou les conditions d’échéance. Ainsi, en cas de baisse massive des cours, l’investisseur par ces conditions de marché peu avantageuses, n’a pas son capital réellement protégé et c’est ce qui s’est produit durant le krach d’octobre 1987. Les réponses institutionnelles ont été immédiates. La FED, la banque centrale américaine, joue son rôle de prêteur en dernier ressort et inonde le marché de liquidités. Mais la particularité de ce krach est que les conséquences immédiates sur l’économie réelle sont quasiment nulles. En effet, le taux de croissance en 1987 était de 3,5 % et a même connu une accélération l’année suivante en grimpant en 1988 à 4,2 %. Après le krach, les autorités ont décidé de réguler le fonctionnement des programmes de trading, avec l’instauration de coupe-circuit, en cas de baisse brutale des cours. Cependant, à plus long-terme, à l’aube des années 1990, face à l’inflation engendrée par la politique de la FED, cette dernière a alors été contrainte de relever ses taux, ce qui a ralenti la croissance de l’économie américaine. De 3,5 % en 1989, elle s’élevait à 4,2 % l’année précédente.

Cet épisode de 1987 révèle les effets néfastes qu’engendre la dérégulation et l’absence d’intervention de l’état sur les marchés. Cette libéralisation, qui a débuté sous Nixon avec la fin des taux de change fixe, a engendré un bouleversement du marché monétaire mondial et le dollar a connu successivement des phases de dévaluation et de renforcement, qui a impacté également les autres monnaies ainsi que le pouvoir d’achat des ménages. Puis, avec l’arrivée au pouvoir de Reagan, les Etats-Unis connaissent durant les années 1980, une période de dérégulation financière et d’euphorie sur les marchés. Les autorités publiques, refusant de reconnaitre le risque de formation d’une bulle spéculative, laisse cette dernière éclater. Paradoxalement, le marché était tellement déconnecté avec les réalités économiques, que l’impact sur l’économie réelle sera minime, mais cette chance ne sourit pas toujours, comme l’ont révélé les épisodes de 1873 et de 1929 ou plus récemment de 2007 et de 2011.

https://www.edubourse.com/guide-bourse/krach-1987.php

https://www.lefigaro.fr/flash-eco/2012/10/19/97002-20121019FILWWW00596-le-krach-de-1987-c-etait-il-y-a-25-ans.php

https://www.lesechos.fr/2017/10/krach-du-19-octobre-1987-le-jour-ou-wall-street-sest-effondre-184501

http://www.fb-bourse.com/krach-boursier-1987/

https://fr.statista.com/statistiques/564926/prix-annuel-du-petrole-de-l-opep-1960/

https://www.francetvinfo.fr/replay-radio/histoires-d-info/quand-la-fed-remontait-ses-taux-a-20_1791297.html

https://fr.wikipedia.org/wiki/Krach_d%27octobre_1987

https://fr.tradingeconomics.com/united-states/gdp-growth-annual

https://fr.tradingeconomics.com/united-states/inflation-cpi

https://fr.wikipedia.org/wiki/Récession_du_début_des_années_1990

Aux origines du krach de 1873

9 mai 1873 : l’euphorie sur les marchés boursiers touche à sa fin. La bulle immobilière qui s’était formée depuis les années 1860 éclate. La bourse de Vienne, berceau de la crise perd ce jour-là 30 % de sa valeur. Ce krach plonge alors le monde occidental dans une phase récessive. Les historiens s’accordent à dire que cette période débute en mai 1873 et se termine en 1896, et considèrent cet intervalle de temps comme la première « Grande Dépression ». Durant cette période, la France connaitra également un autre krach en 1882, considéré même comme plus violent que celui de 1873. Le krach de Vienne ou plus largement l’insouciance et la frivolité de cette période ont d’ailleurs été source d’inspiration et de dénonciation chez les intellectuels, à l’image de Johann Strauss avec son opérette en trois actes « La Chauve-Souris » paru en 1874, ou encore Emile Zola avec son roman « La Curée » en 1871. A travers cet article, nous allons nous pencher sur l’origine et la propagation de ces crises de la fin XIXème siècle, mais également nous intéresser aux conséquences sur l’économie réelle.

Une crise provoquée par différents mécanismes

Un krach favorisé par une politique industrielle libérale :

La Révolution industrielle, qui commence à l’aube du XIXème siècle a engendré une expansion économique et une urbanisation qui s’accélèrent au cours du milieu du XIXème siècle. Cette urbanisation est d’abord dopée par des innovations telles que le procédé Bessemer, conçu en 1855 par l’industriel britannique Henry Bessemer. Cette technique a permis une réduction importante du coût de fabrication de l’acier, tout en garantissant une résistance bien meilleure que celle du fer. Ce procédé a alors permis la multiplication des réseaux de chemins de fer mais également le développement urbain puisque l’acier était employé pour les façades des immeubles qui sortent de terre. Ces aménagements du territoire favorisent le dynamisme des échanges et l’émergence de nouveaux centres mondiaux dans une économie marquée par les balbutiements de la financiarisation. A Paris, cette urbanisation galopante a débuté sous le Second Empire avec les réformes du préfet de la Seine, le Baron Georges Eugène Haussmann. Il fait construire des immeubles modernes, dans un style que l’on qualifiera par la suite d’hausmmanien. Ces immeubles d’un nouveau genre, bénéficient d’un phénomène de mode et sont utilisés pour réaliser des plus-values spéculatives. Le secteur de l’immobilier attire alors des investissements, financés en grande partie par des banques et des fonds d’investissement, comme les frères Pereire qui sont par exemple à l’origine de l’aménagement du quartier Monceau dans le dix-septième arrondissement de Paris. En Allemagne, cette période d’expansion urbaine qui s’accompagne d’une croissance économique forte de plus de 5 % par an est qualifiée de « Gründerzeit ». L’emballement des investisseurs est également intensifié par les dividendes à deux chiffres que proposent les banques, notamment la Deutsche Bank en Allemagne. La banque joue alors un rôle double dans cette crise. D’une part en finançant à outrance les projets immobiliers dans les grandes capitales européennes de l’époque, elle participe à l’alimentation de la bulle spéculative immobilière et d’autre part, avec des dividendes très attractifs, incitant les investisseurs à acheter des actions de ces banques uniquement pour son rendement et non en fonction d’une véritable solidité financière, ce qui alimente également une bulle dans le secteur bancaire. En Allemagne et en Autriche, cette euphorie est plus intense qu’en France. En effet, en 1873, la France ne s’est pas encore vraiment remise de la défaite de 1870 face à la Prusse. Le 4 décembre 1871, le parlement allemand, le Reichstag, vote la loi monétaire obligeant la France à verser 5000 milliards de francs, soit l’équivalent de cinq milliards de francs. Cette injection de liquidités vers l’Allemagne va se révéler profitable dans l’immédiat et va permettre de financer de vastes projets d’urbanisation et de construction de réseaux ferroviaires. Mais ces investissements à outrance, vont entrainer l’alimentation de bulle spéculative dans ces secteurs, l’utilisation de ces réparations financières va se retourner contre son bénéficiaire. La loi monétaire a donc eu un rôle non-négligeable dans l’alimentation de la bulle. La prospérité à court-terme et la bulle spéculative qui caractérisent l’économie allemande a également des répercussions similaires dans d’autres pays. En effet, cette période est marquée par l’essor des théories libérales d’économistes comme Adam Smith ou David Riccardo, estimant que le libre-échange est un jeu « gagnant-gagnant ». Les économies deviennent de plus en plus ouvertes et de ce fait de plus en plus interdépendantes. Ainsi, l’Autriche et l’Europe d’une manière générale profitent en quelque sorte de la prospérité de l’Allemagne et de l’optimisme de ses investisseurs. L’alimentation de la bulle immobilière prend une ampleur telle que durant l’année qui avait précédé le krach, les prix de l’immobilier dans les capitales européennes avaient plus que doublé. Par ailleurs, la spéculation intervient également dans le secteur ferroviaire, qui profite également d’innovations telles que le procédé Bessemer. Aux Etats-Unis, le krach de mai 1873 entraîne la quasi-faillite de la Northern Pacific Railway. La situation financière de l’entreprise s’était d’ailleurs aggravée avec la faillite de son créancier, la banque Jay Cook le 18 septembre 1873. Pour survivre à la crise, la Northern Pacific avait été contrainte d’opter pour un plan d’austérité, dans une Amérique en pleine récession. Dans cette situation particulière, la compagnie était confrontée à d’importants retards de pose de rails. Ces poses de rails, qui passaient dans des territoires indiens avaient entrainé de violents combats entre l’armée américaine qui escortait la compagnie et les amérindiens, ces derniers voyant ici une atteinte à la souveraineté de leur territoire.

Des signaux annonciateurs  :

D’une manière générale, il avait été déjà constaté un essoufflement de la frénésie des investisseurs dans le secteur ferroviaire, au début des années 1870, la croissance de la production commençait déjà un ralentissement. Cette crise est donc liée à un trop-plein d’investissement engendrant une surproduction. Ce surplus d’offre est également visible dans le secteur primaire. A cette époque, certains pays développent à grand pas leur agriculture et bénéficie d’un avantage comparatif du fait de leur main-d’œuvre peu coûteuse. C’est le cas de l’Argentine, du Canada, de l’Argentine ou de la Russie. Ce surplus d’offre a alors entrainé une baisse des prix des matières agricole sur le marché, ce qui a impacté une part non-négligeable de la production en Europe de l’Ouest. A cette époque, le secteur primaire représentait encore une part importante de la richesse créée dans les pays les plus développés. A titre d’exemple, 50 % de la population française vivait de l’agriculture en 1870. L’ensemble de ces faits a permis l’alimentation et l’éclatement de la bulle boursière et immobilière. Si la crise boursière a lieu en mai 1873 en Europe, elle éclate seulement en septembre de la même année aux Etats-Unis. Le krach entraine la fermeture de Wall Street du 20 au 30 septembre 1873. Les conséquences socio-économiques sont considérables dans l’économie réelle. Le krach de 1873 entraine une paupérisation de toutes les classes sociales, en particulier le monde ouvrier, confronté à une augmentation importante du taux de chômage. Cette apparition du chômage de masse peut s’expliquer par les plans d’austérité voire les faillites d’entreprises du secteur industriel, entrainant dans les deux cas des licenciements massifs voire des baisses de salaire. A cette époque, les états n’intervenaient pas sur le marché du travail, ce marché était par conséquent purement concurrentiel. Or, sur un marché concurrentiel l’offre est faite par les travailleurs et la demande par les entreprises. Et si la demande se contracte, on assiste à une offre supérieure à la demande, ce qui provoque un volume d’offre non-satisfaite, donc du chômage et une pression baissière des prix du marché, soit une baisse des salaires.

Une situation particulièrement tendue en France

Une récession prolongée en France :

Mais la récession en France s’est prolongée par le krach de janvier 1882. Considéré comme le krach le plus violent du XIXème siècle en France, l’élément déclencheur de cette crise est la faillite de l’Union Générale, une banque en pleine expansion à cette époque. Cette crise est corrélée avec une asymétrie de l’information puisque les investisseurs ne disposaient d’informations fiables au sujet d’opérations financières ou de données relatives à la santé financière de l’Union Générale. Initialement, l’Union Générale avait vu le jour en 1875 mais c’est à partir de l’arrivée en 1878 d’Eugène Bontoux, ancien banquier chez Rothschild, que la banque connaît un développement remarquable. Eugène Bontoux organise des opérations d’augmentation du capital de la banque, le faisant passer de 25 millions à son arrivée en 1878 à 100 millions de francs en 1881. La banque finance alors des projets d’infrastructure ferroviaire ou minière en France mais également en Autriche, dans les Balkans ou au Moyen-Orient, que la presse se charge de relayer. Cette bonne publicité, faites par des journaux financiers tels que « La Finance » ou « Le Clairon » suscite alors un certain engouement autour de l’Union Générale. Le prix de l’action est multiplié par six entre 1878 et la veille du krach, passant de 500 à 3000 francs. Cependant, la gestion de l’Union Générale était caractérisée par certaines irrégularités. Le bilan de certaines années pouvait être falsifié, les publications de résultats annuels pouvaient être des estimations optimistes et pouvaient être par conséquent déconnectés de la réalité. Les opérations d’émissions de nouvelles actions passaient par des pratiques visant à gonfler artificiellement le cours. En effet, certains anciens actionnaires pouvaient bénéficier d’achat d’actions à tarif préférentiel, à un prix trois ou quatre fois inférieur à celui du cours. D’une manière concrète, un bon nombre d’actions qui valaient par exemple 2000 francs n’ont été acheté que pour seulement 500 francs. Le problème est que le marché n’étant pas au courant de cette pratique, celui-ci a alors intériorisé l’idée que toutes les actions ont été achetées au prix fort, et que la banque est donc jugée par les investisseurs comme solide. En janvier 1882, le marché se rend compte de cette surévaluation. Entre le début et la fin du mois, le cours passe de 3000 à 500 francs et la banque, en défaut de paiement, est contrainte de faire faillite. Cette faillite entraine une crise systémique dans le secteur bancaire, d’abord parce que l’Union Général était un acteur important et d’autre part car le secteur bancaire va subir les conséquences de la méfiance des investisseurs. En effet, à cette époque la plupart banques ne faisaient pas de stricte séparation entre ses services de dépôt et d’investissement. Cette porosité a entrainé dans l’essor des financements non monétaires. En effet, étant donné que les banques ont un pouvoir limité de création monétaire ex-nihilo, c’est-à-dire à partir de rien, les banques ont alors financé un bon nombre d’investissements par financement non-monétaire, c’est-à-dire en prenant sur l’épargne de particuliers. A l’issue du krach, les particuliers se rendant comptant de la fébrilité du système bancaire avaient alors demander à ce que leur épargne soit retirée des banques. Ce mouvement de panique des investisseurs a entrainé la faillite de nombreuses établissements bancaires.

Des conséquences socio-politiques notables en France :

Dans cette situation, les banques n’ont pas pu rembourser l’intégralité des dépôts des particuliers et ont été contraintes d’arrêter net leurs investissements ferroviaires, miniers ou urbains. Cela a donc entrainé une baisse de la valeur de l’épargne de la population qui a alors dû moins consommer, et en parallèle les entreprises financées par les banques ont vu leur approvisionnement de liquidités s’arrêter net. Les entreprises ont dû licencier massivement, ce qui a créé du chômage, encore moins de consommation, il s’agit d’un cercle vicieux. Ce contexte économique tendu a alors été facteur d’instabilité politique en France. Le nouveau régime de la IIIème République doit faire face aux mouvements socialistes, constitués essentiellement d’anciens communards mais également d’anarchistes. L’une des têtes de cette contestation grandissante dans les années 1870 et 1880 est Louis Michel. Ancienne figure de la Commune, elle est condamnée par la suite à l’exil en Nouvelle-Calédonie. De retour en France métropolitaine en 1880, elle devient le porte-parole du mouvement anarchiste de l’époque. Les actions qu’elle mène dans les années 1880 sont inspirées des méthodes violentes et révolutionnaires de la Commune. Le 9 mars 1883, elle organise une manifestation pour les « sans-travail » avec Emile Pouget, créateur du journal anarchiste le Père Peinard. Cependant, cette manifestation tourne en émeute et se solde par des pillages de boulangerie et une intervention des forces de l’ordre, afin de mettre fin aux troubles. En parallèle, certains anarchistes se tournent vers des actions encore plus violentes, comme en témoigne la série d’attentats anarchistes du début des années 1890. Au printemps 1892, François Konigstein, surnommé « Ravachol » organise une série d’attentats à la bombe. Le 9 décembre 1893, Auguste Vaillant lance dans la chambre des députés une bombe chargée de clous. L’anarchisme s’en prend même aux plus hautes figures de l’état. Le 24 juin 1894, le président de la République Saadi Carnot est poignardé par l’anarchiste italien Sante Geronimo Caserio. Ce dernier meurt de ses blessures quelques jours plus tard. Ce climat délétère est fortement corrélé avec la situation économique de la période en France, marquée par la paupérisation des classes populaires. Le milieu ouvrier ne croit plus à la capacité de la République à améliorer leur sort. La IIIème République s’était surtout appuyée sur les milieux intellectuels et libéraux, mais pas sur la classe ouvrière. Sur le plan politique, la récession favorise la montée de Jules Guesdes, initialement anarchiste mais qui devient par la suite collectiviste. Il prend alors la tête du Parti ouvrier en 1879 qui devient le Parti ouvrier de France en 1882 et montre son opposition farouche à l’économie de marché et au capitalisme financier.

https://www.lemonde.fr/la-crise-financiere/article/2008/10/10/les-krachs-boursiers-une-vieille-histoire_1105364_1101386.html

https://www.cairn.info/revue-economique-2010-3-page-421.htm#

https://fr.wikipedia.org/wiki/Union_générale

https://lexpansion.lexpress.fr/actualite-economique/comment-le-credit-lyonnais-devint-sage_1329993.html

https://fr.wikipedia.org/wiki/Krach_boursier_de_1882#cite_note-5

https://www.lemonde.fr/economie/article/2013/06/14/le-krach-de-1873-et-la-grande-depression_3430247_3234.html

https://www.edubourse.com/guide-bourse/krach-vienne-1873.php

http://www.fb-bourse.com/le-krach-boursier-de-1873/

Comparaison de différentes situations de pays impliqués dans la crise des dettes souveraines en Europe, à la suite de la crise économique mondiale de 2008

Carricature de Patrick Chappatte

La pandémie actuelle ayant entraîné des mesures drastiques de confinement, a plongé le monde dans une nouvelle période de récession. Des plans de relance ont alors été décidés dans l’urgence. Mais les états sont confrontés à un dilemme : ces plans de relance ont un coût (plusieurs dizaines voire centaines millards d’euros pour la France) et la remontée de la dette dans le bilan des banques centrales aura tôt ou tard une limite. Un accroissement de la dette, en valeur absolue mais également relative au PIB est inévitable, ce qui a tendance notamment à exacerber les divergences des économies entre les pays d’Europe du nord et ceux du sud et ce qui augmente le risque d’insolvabilité de ces derniers, comme à l’issue de la crise des Subprimes. L’idée de cette article est alors de faire un retour sur cette crise, permettant de comprendre les enjeux auxquels nous sommes actuellement confrontés.

Dès octobre 2009, la Grèce – point de départ de la crise des dettes souveraines en Europe – et ses 126,7% du PIB de dette – en augmentation de plus de 17 points par rapport à l’année précédente -, est déclarée « peu solvable » par les agences de notation. Sa note financière est d’autant plus menacée que l’Etat, premièrement, falsifiait ses budgets depuis plusieurs années (enregistrant des déficits budgétaires bien plus importants que ceux déclarés), et deuxièmement, est victime d’une économie souterraine forte – évaluée à 28% du PIB par la Banque Mondiale -, en marge de nombreux problèmes de corruption et d’une faible intégration de son économie dans le commerce mondial, à l’exception de la marine marchande et du secteur du tourisme. Il est alors plus difficile à la Grèce d’emprunter, et lorsque c’est possible, elle emprunte à des taux plus élevés, ce qui mène à l’incapacité de l’Etat à rembourser sa dette. Ses créanciers enregistrent des pertes, voire risquent la faillite. Par exemple pour le cas des banques françaises, elles étaient nombreuses à avoir investi dans la dette grecque, et étaient très menacées par la perte de leurs liquidités. Pour le Crédit Agricole, banque la plus exposée, ce sont 29,5 milliards d’euros qui attendent d’être remboursés par la Grèce. L’Etat français est donc obligé de s’impliquer dans la crise grecque en mettant en place des programmes d’aides.

En parallèle, de multiples autres crises ayant des conséquences socio-économiques néfastes – liées à la crise économique de 2008 et à celle des dettes publiques de 2010 – se déclarent dans l’Eurozone. En Espagne, les prix de l’immobilier chutent fortement dès 2008 : c’est l’explosion de la bulle immobilière espagnole, qui était en forte croissance depuis une décennie, en sus d’un endettement très fort des ménages, qui atteint son maximum de 154,8% du revenu disponible net en 2007. En conséquence de l’explosion de cette bulle, de nombreuses opérations de fusions-acquisitions bancaires se font entre 2010 et 2012 – visant à se protéger de la concurrence et des Offres Publiques d’Achats (OPA) “hostiles”-, en prime de plusieurs nationalisations et d’autres systèmes d’aides aux banques (c’est le système institutionnel de protection, qui passe par la fusion de banques nationalisées) mis en place par le gouvernement espagnol. Finalement, fin 2012, l’Europe refinance à hauteur de 37 milliards d’euros le secteur bancaire espagnol. Cette crise bancaire a provoqué une crise sociale – un nombre considérable de défauts de paiements ayant menés à près de 500 000 expulsions –  mais également migratoire. En effet, le solde migratoire espagnol était négatif entre 2009 et 2016.

Au Portugal, le déficit public augmente jusqu’à frôler les 10% du PIB, et l’endettement public jusqu’à dépasser les 100%. Le 23 mars 2011, le Parlement – où l’opposition est majoritaire – rejette les plans d’austérité du gouvernement, qui visaient à éviter d’avoir recours à l’aide internationale; le premier ministre José Socrates démissionne dans la foulée. Face à cette crise politique, la note financière du Portugal est dégradée par les agences de notation, augmentant, encore une fois, les taux d’emprunt du pays.

En Irlande, où l’économie est basée sur le secteur bancaire, la finance, et est très dépendante du reste du monde, notamment par la présence de nombreuses firmes transnationales américaines, une autre crise se déclare. Entre septembre 2010 et janvier 2011, la banque centrale d’Irlande recapitalise ses banques à hauteur de 50 milliards d’euros; celles-ci avaient souffert de la crise, à partir de 2007 avec l’explosion d’une bulle immobilière. La crise Irlandaise a également abouti à des dégâts sociaux très importants, impliquant la mise en place des plans de rigueur conséquents, avec un taux de chômage qui a augmenté de 10 points entre 2005 et 2010, et l’endettement des ménages qui a lui aussi explosé, atteignant son paroxysme en 2009 avec 240,6% du revenu disponible net, soit une augmentation de presque 130 points depuis 2001. Parallèlement, l’augmentation des dépenses publiques mise en place pour répondre à cette crise et à la dépréciation du secteur bancaire irlandais a conduit à une forte création de dette publique; celle-ci a été multipliée presque 5 fois entre 2007 et 2012. L’Irlande a finalement bénéficié de 85 milliards d’euros d’aides de l’Europe, d’une part pour sauver son déficit public qui atteignait 32,1% en 2010, d’autre part pour sauver son système bancaire.

Dette publique et PIB de l’Irlande

Toutes ces crises ont pour point commun d’être aggravées par un système financier basé sur un endettement mal régulé : souvent, les banques ne demandaient pas suffisamment de garanties à l’obtention de crédits, en s’appuyant sur des systèmes d’hypothèques et de montages financiers spéculatifs. De plus, un aléa moral* joue en leur faveur : trop importantes pour faire faillite, les Etats sont obligés de les refinancer en cas de crise. Ce sont donc une financiarisation spéculative de l’économie et une libéralisation des marchés, tous deux portés à l’extrême, qui – en entraînant une explosion de la dépense publique – sont les principaux facteurs de la crise.

Junk Bonds


« Depuis la crise financière mondiale, les réformes structurelles et la politique monétaire ont encouragé l’utilisation des marchés des obligations d’entreprises comme source viable de financement à long terme pour les sociétés non financières« 

Angel Gurría, Secrétaire général de l’OCDE

Nous aborderons dans cet article la financiarisation du financement des entreprises privées et les risques que cela implique, après avoir expliqué le fonctionnement du marché obligataire.

L’importance de la dette des entreprises est depuis plusieurs années déjà désignée comme préoccupante en cas de ralentissement. Or le cirse du coronavirus a justement entrainé ce ralentissement d’activité pour beaucoup d’entreprises.

Tel qu’évoqué dans l’article précédent sur le système monétaire international, les entreprises ont de plus en plus recours au marché obligataire pour se financer.

Afin que chaque lecteur comprenne la suite de ce papier, résumons brièvement le fonctionnement du marché obligataire.

Comment fonctionne le marché obligataire, le ministère de l’économie défini une obligation comme « un morceau de dette émis par une entreprise, une collectivité territoriale ou un État. Lorsque l’un de ceux-ci souhaite se financer, les montants requis peuvent nécessiter l’intervention de nombreux créanciers. Vous pouvez devenir l’un de ces créanciers en « achetant » une obligation, c’est-à-dire une partie de cette dette. En plus du capital qui vous sera restitué à échéance fixe (en général, entre 5 à 30 ans), le débiteur s’engage à vous rémunérer périodiquement (tous les ans, ou tous les trimestres notamment) selon un taux d’intérêt fixe ou variable. ». Le marché obligataire est ainsi un marché financier au près duquel les entreprises peuvent obtenir des liquidités par l’émission de titre de créance qui sont les obligations. C’est donc sur ce marché que les obligations sont émises et échangés. Nous nous intéresserons dans ce papier aux obligations coporates c’est-à-dire émise par des entreprises. L’émetteur sera donc l’entreprise et le créancier l’acquéreur du titre de créance émis. Pour accéder à ces liquidités l’entreprise rémunère le détenteur du titre qu’elle a émis en payant régulièrement des intérêts appelé coupons. Plus la société est en bonne santé moins le risque est important pour le créancier ainsi les coupons sont moins élevés. A l’inverse plus l’émetteur de l’obligation est jeune, en mauvaise santé financière ou exerçant sont activité dans un domaine risqué ou en perte de vitesse plus l’entreprise rémunère le créancier pour son service.

C’est ici que les agences de notation interviennent. Ces agences ont pour d’évaluer puis de noter la capacité de remboursement de l’émetteur de l’obligation. Ces notes vont déterminer la catégorie de l’entreprise sur le marché obligataire de par le risque que le créancier prend lorsqu’il l’obligation. Si l’on schématise il existe de grande catégorie associée aux notes des entreprises : la catégorie Investment Grade (abrégé IG) et la catégorie Non Investment Grade (abrégé Non-IG) que nou simplifierons en l’associant au High Yield. La catégorie IG regroupe les entreprises notées de AAA à BBB et les Junk Bonds à partir de BB.

Après avoir expliqué le fonctionnement et le jargon du marché obligataire corporate nous allons pouvoir aborder le cœur du sujet de ce papier qu’est l’inquiétante augmentation du volume d’obligation et de la dégradation de celles-ci.

Premier constat : les entreprises font de plus en plus appel aux marchés financiers pour se financer en témoigne ces graphiques suivants publiés par l’OCDE dans ses rapports.

La comparaison avec les niveaux de 2008 est d’autant plus flagrante

Ainsi l’OCDE énonce en février 2020 que la dette d’entreprise atteint des niveaux « sans précédent ». En effet le volume de la dette d’entreprise est de 13 500 milliards de dollars fin 2019. Pour l’OCDE cette hausse récente est la conséquence d’« un retour à des politiques monétaires plus expansionnistes en début d’année. ». Le constat est sans appel les politiques extrêmement accommodantes que mène les banques centrales depuis dix ans favorise ce type d’endettement chez les entreprises. Ainsi l’émission de dette d’entreprise a doublé en dix ans.

En outre, cette augmentation d’émission préoccupe car elle s’accompagne d’une dégradation de qualité. En effet, aujourd’hui on assiste à une hausse significative : des sociétés passant de la catégorie IG à Junk bonds et de la dégradation de la note des sociétés au sein de la catégorie IG. Ainsi les obligations des sociétés noté AAA baisse au sein du marché obligataire et occupe environ 0,7% de celui-ci contre environ 8% pour le AA, 41% pour le A et environ 51% pour le BBB. Le graphique ci-dessous révèle la tendance de long terme concernant l’évolution de la qualité des obligations corporates qui se dégrade significativement au sein de l’IG.

Parallèlement à cette dégradation de l’IG, on observe une augmentation du Non-IG au sein de l’émission globale.

D’après l’OCDE cette masse d’obligations corporates de qualité moindre se caractérise par « un durcissement des exigences de remboursement », « un allongement des échéances », « une moindre protection des investisseurs ».

La part d’émission d’obligation non-IG dans les émissions totales des entreprises non financières a augmenté ces dernières années. Elle fut par exemple de 25% l’année dernière.

Selon l’OCDE « La part des émissions d’obligations de la catégorie spéculative n’était jamais restée aussi élevée pendant une période aussi longue depuis 1980 ». En plus du fait que le volume global d’obligation émises par les entreprises non financières a considérablement augmenté, l’augmentation de la part de celles classées spéculatives et BBB s’intensifie depuis 2008 notamment avec des émissions dans les pays émergents.


L’augmentation du recours au marchés obligatoire ne touche pas que les pays développés. En effet, l’augmentation est d’autant plus flagrante depuis une dizaine d’années chez les pays émergents. Une étude du crédit suisse explique qu’ « Au cours de la dernière décennie, le marché des obligations d’entreprises des pays émergents a augmenté de 17% par an. » « Le marché des obligations d’entreprises des pays émergents s’est transformé d’une niche en une classe d’actifs à part entière, mature et variée »

Or l’augmentation du volume de titres de créance signifie augmentation des remboursements nécessaires. Il convient de souligner qu’aujourd’hui plus de 30% de l’ensemble des obligation corporates doit être remboursé sous les trois ans, un record. Et encore une fois, parmi elles de plus en plus sont de BBB ou Non-IG.

Tout ceci pourrait amplifier les conséquences délétères sur l’économie si une contraction de l’activité survenait ou si le contexte de faible taux d’intérêt disparaissait, souligne l’OCDE. Or cette contraction hypothétique qu’évoque l’OCDE en ce début d’année 2020 est présente depuis le début de la crise du coronavirus. C’est pourquoi les Banque Centrale et les Etats ont dû agir si massivement, cependant la crise va entrainer des faillites en cascades à mesure que les banquiers centraux ont de moins en moins de marge de manœuvre et que les Etats s’endettent.

L’on voit bien que les banques centrales ne peuvent faire autrement, les politique monétaire accommodantes ont encouragé les entreprises à avoir recours au marché financier pour se financer avec un effet de levier parfois conséquent.

En effet, une politique si accommodante a permis aux entreprises d’émettre de nombreux titres tout en conservant une certaine capacité de remboursement et a permis aux entreprises en mauvaise santé de survivre.

Les entreprises qui ont accrus leur ratio d’endettement sont maintenant dépendantes de cette politique ultra accommodantes (au même titre que les Etats). C’est pourquoi après avoir voulu normaliser son bilan la Fed y a rapidement renoncé. En cas de crise comme celle que nous traversons les entreprises dépendantes des politiques accommodantes déjà présentes avant la crise ont besoin d’une politique encore plus accommodante. Alors que certains trouvaient que l’action des banques centrales en temps normal était trop importante, aujourd’hui les banquiers centraux doivent faire preuve d’ingéniosité et ne plus compter en milliard. En effet, le risque était déjà très important en 2019 début 2020, il est encore plus aujourd’hui.

En 2019, Bloomberg Scott Mather responsable des investissements de Newport Beach déclarait « Le segment des obligations d’entreprises présente sans doute le niveau de risque le plus élevé de son histoire. …Nous constatons une hausse de l’endettement des entreprises, une baisse de la qualité de crédit, ainsi qu’une diminution des garanties accordées aux prêteurs ». Une situation que Les Echos n’hésite pas à qualifier « typique d’une fin de cycle ». En effet, en mai 2019 les agences de notations commençaient déjà à dégrader les notes des entreprises américaines et selon Les Echos en mai 2019 « Les fonds qui investissent dans cette classe d’actifs aux Etats-Unis ont enregistré près de 3 milliards de dollars de retraits de capitaux en une semaine, d’après les données d’EPFR. Au total 6,5 milliards de dollars sont sortis de ces fonds en mai, souligne Bloomberg. ». Tout comme Les Echos le souligne en mai 2019 https://www.lesechos.fr/finance-marches/marches-financiers/dette-dentreprises-lavertissement-dun-poids-lourd-du-marche-1025524 , Capitale évoque également cette dégradation des notes des entreprises américaine en avril 2020 https://www.capital.fr/entreprises-marches/les-faillites-explosent-la-dette-des-entreprises-est-a-surveiller-de-pres-1366580 et précise «Il y a quelques mois, le FMI avertissait qu’en cas de choc économique équivalent à seulement la moitié de celui des subprimes, le montant global de la dette à risque d’entreprises, dans les 8 économies observées (Etats-Unis, Chine, Japon, Allemagne, Royaume-Uni, France, Espagne et Italie) pourrait atteindre 19.000 milliards de dollars…soit 40% du montant total des dettes d’entreprises. C’est-à-dire 40% des dettes d’entreprises dont les intérêts ne pourraient pas être couverts par les bénéfices, d’après les critères du FMI. »

  Je laisse chacun juger de la situation actuelle tout en sachant qu’il y a un an déjà certains tiraient la sonnette d’alarme. Les agences de notations se sont déjà faite surprendre en 2008, elles seront je pense plus réactive aujourd’hui et commencé déjà à dégrader les notes de certaines entreprises dans le contexte de ralentissement de la croissance ces dernières années. La crise du coronavirus révèle ou révèlera surement ces niveaux de ratio d’endettement et la dépendance qu’ils impliquent vis-à-vis de la politique monétaire. Mais alors que les Banques Centrales font tourner la planche à billets à plein régimes et viole ou suspende les règles pour sauver l’économie, les entreprises déjà très endettées avec la crise se relèveront (pour celles qui survivront) très difficilement or nombreuses sont celles notés BBB. Et tel qu’évoquais ci-dessus les agences de notations ne se feront peut-être pas avoir une seconde fois et commençais déjà à dégrader les notes avant a crise.

C’est ici que le problème suivant se pose. Il convient de rappeler au lecteur que les fonds d’investissement sont eux aussi séparé en catégories, ceux qui investissent dans l’IG et ceux qui investissent dans le High Yield. Ainsi une dégradation de la note attribuée aux entreprises actuellement notées BBB les feraient passer de la catégorie IG à Non-IG ce qui par la même occasion forceraient les fonds d’investissement qui se concentre sur l’investissement dans le IG à vendre l’ensemble des ex-BBB maintenant dégradé et spéculatives. Or les BBB représente plus de la moitié de l’IG et le High Yield représente 25% de l’ensemble du marché obligataire coporate en 2019. Chacun perçoit alors le problème : le IG est trois fois plus importants que le Non-IG, si la moitié du IG venait à être classé Non-IG les fonds de celui-ci auraient peut-être du mal à tout absorber et ce qui est sûr c’est qu’à ce moment précis les entreprises auparavant BBB et maintenant dégradé vont voir leurs couts de financement bondir. Beaucoup pourraient alors ne pas survivre ou bien se transformer en Zombie. Il est évident que si un tel scénario se produisait la banque centrale devrait intervenir. Il est cependant peu probable que l’ensemble des entreprises notées BBB bascule dans le High Yield. Néanmoins l’actuel fort ralentissement en fera basculer plus d’une, mais il serait prétentieux et hasardeux de prédire la proportion d’obligations corporates qui basculeront vers le Non-IG. En tous cas les banques centrales et les états devront sans doute redoubler d’imagination et d’astuces pour contourner les règles, afin de sauver ces entreprises si elles sont trop nombreuses à basculer, car celles-ci rachètent déjà beaucoup d’actifs au point d’aboutir à l’extrême opposé du néolibéralisme qui a été poussé pour certains à son paroxysme.

–FIN –

30 Juin 2020

Charles Roussel

Sources :

www.oecd.org/fr/economie/perspectives/la-resilience-dans-un-contexte-d’endettement-eleve-perspectives-economiques-ocde-novembre-2017.pdf Graphiques : page 10 – page 18 – page 27

http://www.oecd.org/fr/gouvernementdentreprise/corporate-bond-market-trends-emerging-risks-and-monetary-policy.htm ou pour directement visualiser le pdf cliquer sur le line suivant http://www.oecd.org/corporate/ca/Corporate-Bond-Market-Trends-Emerging-Risks-Monetary-Policy.pdf Graphiques : page 13 – page 15 – page 27- page 48- page 14- page 11

Dans quelles mesures la levée de boucliers des banquiers centraux révèle-t-elle les déséquilibres au sein de la zone euro ?

La zone euro, une hétérogénéité source de conflits au sein de ses institutions

Dans quelles mesures la levée de boucliers des banquiers
centraux révèle-t-elle les déséquilibres au sein de la zone
euro ?

Le 12 septembre dernier l’ex-président de la BCE (Banque Centrale Européenne), Mario
Draghi a annoncé notamment l’abaissement du taux de dépôt à -0,5% et la reprise du QE (Quantitative Easing) à un rythme de 20 milliards d’euros par mois. Suite à ces mesures de nombreux banquiers centraux et autres membres des institutions monétaires de la zone euro, se sont révoltés.

Treize jours après cette décision, l’un des membres du directoire de la BCE, Sabine Lautenshcläger, annonce sa démission de l’institution. Malgré l’absence de raisons officielles à son départ, pour certains : il est clair que celle-ci était en désaccord avec ces mesures annoncées le 12 septembre par Mario Draghi, et ce serait notamment cette désapprobation qui motiva son départ.  

En effet les décisions prises par Mario Draghi sont loin de faire l’unanimité au sein du conseil des gouverneurs (c’est-à-dire les 6 membres du directoire ainsi que les 19 banquiers centraux des banques centrales nationales de la zone euro). Les informations des diverses sources diffèrent sur cette question, celles-ci varient d’un tiers à la moitié du conseil des gouverneurs opposé à ces récentes décisions orientées vers une politique monétaire de plus en plus accommodante.

Puis quatre semaines après cette annonce du 12 septembre de Mario Draghi, le 4 octobre 2019 un mémorandum est publié par Hervé Hannoun (ex-vice-président de la BDF de 1999 à 2005), Klaus Liebscher ( ex-président de l’OeNB1 de 1995 à 2008), Helmut Schlesinger (vice-président de la Bundesbank de 1980 à 1991 puis président de celle-ci jusqu’en 1993), Nout Wellink (président de la DNB2 de 1997 à 2011, administrateur de la BRI de 1997 à 2012, gouverneur du FMI ou encore membre du FSB3), Otmar Issing (membre du conseil d’administration de la Buba de 1990 à 1998 puis économiste en chef et membre du directoire de la BCE de 1998 à 2006) et Jürgen Stark (économiste en chef de la BCE de 2006 à 2011). À travers ce mémorandum ces six individus jugent la politique monétaire accommodante menée par la BCE, inadaptée et dangereuse. En outre les six signataires émettent le soupçon que Mario Draghi aurait mené cette politique pour porter secours aux états lourdement endettés (et plus particulièrement à l’un de ces états) contre une hausse éventuelle des taux d’intérêt qui entraînerait d’importantes difficultés de financements pour ces gouvernements. L’impartialité de Mario Draghi pourrait en effet être remise en cause, l’Italie faisant partie de ces états lourdement endettés. Néanmoins la vérifier serait quasiment impossible.

Il est évident que l’opposition face à cette politique monétaire accommodante est exclusivement issue des pays de l’Europe du Nord (l’Allemagne, les Pays-Bas, l’Autriche, la Hollande et dans une moindre mesure la France avec la critique de Hervé Hannoun mais aussi de Jacques de Larosière directeur général du FMI de 1978 à 1987 puis gouverneur de la BDF).

Les conflits entre la Buba et la BCE ne sont pas récents et date depuis les années 2010 : lorsque les membres de la Bundesbank ont pris conscience que la BCE n’était plus un « clone » de la Buba comme elle l’était à sa création. En effet Hans Tietmeyer, président de la Bundesbank de 1993 à 1999, « a contribué de façon considérable à façonner l’Union économique et monétaire » (selon un communiqué de la Bundesbank à la mort de celui-ci). Ainsi celui-ci façonna la BCE à l’image de la Bundesbank, indépendante des pouvoirs publics et luttant pour la stabilité des prix. Or c’est à travers ce mémorandum que cette indépendance est mise en question. De plus les oppositions se multiplient, ce qui implique leur prise en considération. L’un des inconvénients de la monnaie unique est ainsi énoncé : ce mémorandum signifie que la zone euro (supposé être aux bénéfices de tous ses membres) est aujourd’hui, de par la politique monétaire de la BCE, à l’avantage de l’un et au détriment des autres. La BCE aurait (par cette politique monétaire accommodante) causé des ennuis aux autres membres de la zone euro pour venir en aide à ce gouvernement lourdement endetté. Effectivement, ces décisions du 12 septembre 2019 qui s’inscrivent dans cette politique monétaire accommodante, alimentent directement les taux négatifs* ainsi le taux du Bund à 10 ans est passé de 0,57% à environ -0,76% suite à l’annonce de la BCE ce 12 septembre (selon Investir). En effet les taux négatifs sont facteurs de création de bulles sur le marché obligataire mais aussi des actions et de l’immobilier. Ainsi «  l’indice CAC 40, qui était presque stable juste avant les annonces [de ce 12 septembre 2019], affiche un gain de 0,63% et l’indice européen Stoxx 600 est en hausse de 0,57%. » selon Investir.

En outre, les taux négatifs favorisent la prolifération des entreprises zombies. De surcroît, ils permettent aux entreprises de mener des politiques non-productive et ne bénéficiant qu’aux actionnaires. En effet dans un contexte de taux négatif, emprunter ne coûte rien (même si : le taux d’emprunt n’est pas le seul coût qui intervient lors d’un emprunt, en effet il convient d’additionner tous les coûts tels que ceux d’assurance…), il est ainsi aisé pour une entreprise (rappelons-le, dont l’orientation des politiques est décidée par les actionnaires) de racheter ses propres actions sur le marché de manière à premièrement : soutenir le cours de celle-ci et deuxièmement augmenter les dividendes perçu par chaque actionnaire (car diviser une même proportion des bénéfices de l’entreprise en un moins grand nombre de parts implique que chaque part soit plus rémunérée). Ce mécanisme s’inscrit dans cette déconnexion croissante et à certains égards inquiétante, entre les sphères réelles et financières de l’économie.

De plus, les taux négatifs rendent l’équation qui vise à concilier préservation de la valeur de l’épargne et absence de risque, quasiment sans solution. Ainsi les assureurs, qui garantissent des rendements à leurs clients sont en piteux état, certains s’aventurent vers des produits financiers risqués pour obtenir du rendement, d’autres sont déjà en difficulté. Il s’agit notamment de « Suravenir, la filiale d’assurance-vie et de prévoyance du groupe bancaire Crédit Mutuel Arkéa [qui a] dû être recapitalisée à hauteur de 540 millions d’euros par sa maison mère. » (Les Echos 22 octobre 2019), mais aussi de « AG2R La Mondiale [qui] a placé une émission de dette de 500 millions d’euros pour renforcer sa marge de solvabilité » (Les Echos 22 octobre 2019), ou encore Sogecap ainsi le 6 novembre2019 Les Echos titre « Assurance-vie : Société Général « n’exclut pas » de recapitaliser sa filiale ». Les fonds de pension et assureurs sont en effet dans l’impasse car une partie très importante de leurs placements garanties repose sur les titres d’état dont les rendements sont négatifs or ceux-ci (assureurs et fonds de pensions) garantissent pour certains des rendements bien plus élevés. Il existe en réalité des solutions pour préserver la valeur de son épargne mais celles-ci sont non-productives, les taux négatifs favorisent donc une mauvaise allocation du capital. Ces solutions comprennent notamment les métaux précieux tels que l’or dont la hausse du court s’explique par la forte demande des banques centrales notamment russe et chinoise mais aussi et ce dans une moindre mesure, de par la demande des épargnants soucieux de préserver la valeur de leur épargne sans prendre de risque.

Ce contexte explique la révolte des pays d’Europe du Nord qui remettent en cause la politique monétaire menée par la BCE qui favorise cette destruction de l’épargne par les taux négatifs, protégeant les gouvernements lourdement endettés. Ce sacrifice de la valeur de l’épargne des épargnants de la zone euro (et plus précisément de l’Europe du Nord où l’épargne y est bien plus abondante) actuellement dénoncé, peut être débattu néanmoins Christine Lagarde qui prend la tête de la gouvernance de la BCE en cette fin d’année 2019 a énoncé ce 30 octobre sur RTL «…chaque personne, ceux de vos auditeurs qui sont là, est à la fois : un salarié, un épargnant, un emprunteur et que les impacts des taux d’intérêt vont affecter chacune de leurs dimensions, je pense qu’on sera plus content d’avoir un emploi plutôt que d’avoir une épargne protégée, je pense que c’est dans cet esprit-là que les politiques monétaires ont été déterminés par mes prédécesseurs et je pense que c’est assez salutaire comme choix. ». Ses propos sont suffisamment clairs pour comprendre que ce sacrifice dénoncé semble être vérité, et que la politique monétaire future de la BCE n’ira probablement pas de sitôt vers une rupture avec celle menée ces dernières années.

Pour conclure la BCE mène cette politique accommodante pour :

 – Officiellement : atteindre la cible d’inflation désormais symétrique, de 2%. En effet, la BCE communiquait le 12 septembre 2019 « The Governing Council reiterated the need for a highly accommodative stance of monetary policy for a prolonged period of time and continues to stand ready to adjust all of its instruments, as appropriate, to ensure that inflation moves towards its aim in a sustained manner, in line with its commitment to symmetry. Today’s decisions were taken in response to the continued shortfall of inflation with respect to our aim. In fact, incoming information since the last Governing Council meeting indicates a more protracted weakness of the euro area economy, the persistence of prominent downside risks and muted inflationary pressures. » (Mario Draghi, President of the ECB, Luis de Guindos, Vice-President of the ECB, Frankfurt am Main, 12 September 2019). Or ce sont justement ces pressions inflationnistes qui sont contestées par les pays d’Europe du nord.

Et officieusement (selon ces frondeurs) : à faveur des gouvernements lourdement endettés, ce au détriment de l’épargne.

C’est donc cet objectif officieux poursuivi par la BCE, à la faveur de certains et au détriment des autres et ses conséquences négatives sur l’économie (confer : impacts néfastes des taux négatifs*) que critiquent ces frondeurs des pays d’Europe du Nord.

1 OeNB = Oesterreichische Nationalbank = Banque nationale d’Autriche
2 DNB = De Nederlandsche Bank = Banque des Pays-Bas
3 FSB = Financial Stability Board = Conseil de stabilité financière  

– FIN –

22 Décembre 2019

Charles Roussel

Sources :

Christine Lagarde était l’invitée de RTL https://www.youtube.com/watch?v=vbqzaUeGvmk  Publiée le 30 octobre 2019

https://www.lesechos.fr/finance-marches/banque-assurances/assurance-vie-societe-generale-nexclut-pas-de-recapitaliser-sa-filiale-1145979  Publié le 6 nov. 2019 à 15h48

https://www.lesechos.fr/finance-marches/banque-assurances/assurance-vie-londe-de-choc-des-taux-negatifs-se-propage-1142077  Publié le 22 oct. 2019 à 19h18

https://www.ecb.europa.eu/press/pressconf/2019/html/ecb.is190912~658eb51d68.en.html Mario Draghi, Président of the ECB, Luis de Guindos, Vice-President of the ECB, Frankfurt am Main, 12 September 2019

https://investir.lesechos.fr/marches/actualites/la-bce-baisse-son-taux-de-depot-et-relance-ses-achats-de-dette-1871727.php  Publié le 12/09/19 à 13h53

https://www.banque-france.fr/statistiques/taux-et-cours/les-taux-monetaires-directeurs

La « stagnation séculaire » : vers la fin de la croissance ?

Depuis 50 ans, l’augmentation annuelle des gains de productivité n’a cessé de ralentir en France. Supérieure à 5% dans les années 1960, elle n’était plus que de 4 à 5% dans les années 1970, puis de 2 à 3% dans les années 80 et de 1,5 à 2% dans les années 1990. Même en mettant à part la crise financière de 2008 et les années difficiles qui ont suivi, on observe que ces gains sont désormais inférieurs à 1% par an. 

Cette tendance concerne tous les pays développés et certains économistes prédisent une « stagnation séculaire ». En ces temps d’accélération du progrès technique et de sa diffusion, du fait de la mondialisation, ceci peut paraître surprenant. Sommes-nous condamnés à la stagnation ? 

Nous verrons d’abord que ces chiffres donnent une image exagérée des tendances récentes et qu’il existe des motifs d’espoir pour les décennies à venir. Pour autant, si on prend du recul pour comparer l’époque actuelle à celle qui l’a précédée, il apparaît que ce ralentissement constitue bien un phénomène « structurel » que nous allons devoir prendre en compte dans toutes nos réflexions. 

Un ralentissement, temporaire, qui ne serait pas si inquiétant.

Tout d’abord, la baisse des gains de productivité en France s’explique en bonne partie, depuis la fin des « Trente Glorieuses » par le fait que la France ne peut plus se contenter d’imiter le modèle américain, comme elle l’avait fait pendant toute cette période. En effet, à la fin de la deuxième guerre mondiale, notre pays avait accumulé beaucoup de retard, technologique ou dans l’organisation du travail. Il lui suffisait donc de se moderniser en important les méthodes et les connaissances américaines, ce qui explique que la croissance française a même été supérieure à celle des Etats-Unis pendant un temps. On ne devrait pas s’inquiéter trop fortement d’un ralentissement en partie dû au fait que ce rattrapage est terminé. 

Il est vrai que les gains de productivité ont aussi diminué aux Etats-Unis. L’économiste Robert Solow s’étonnait dans les années 1980 de « voir les ordinateurs partout sauf dans les statistiques ». Il a été démenti depuis, puisque les Etats-Unis ont enregistré un rebond de ces gains dans les années 1990, clairement liés à la production et à l’utilisation des nouvelles technologies de l’information et de la communication. 

Pour les « techno-optimistes », il devrait en aller de même au XXIème siècle. On assistera à une nouvelle phase d’accroissement des gains de productivité, quand la révolution digitale produira tous ses effets, en se diffusant largement dans l’économie et la société. En effet, ceci demande du temps, parce que les entreprises et les travailleurs doivent s’adapter et que les nouvelles possibilités techniques ne se traduisent pas tout de suite par des innovations. De nouveaux produits et services apparaîtront progressivement. 

Enfin, certains mettent en avant que les données de la comptabilité nationale mesurent mal certains progrès, par exemple une plus grande rapidité ou une amélioration du confort, sans que cela ne se toujours dans le calcul du PIB. A des prix qui peuvent être constants, on va beaucoup plus vite en TGV et on a une image de meilleure qualité grâce aux nouveaux téléviseurs et à la TNT. Il est également difficile de prendre en compte correctement les progrès apportés par des biens et services complètement nouveaux, comme internet – il permet de communiquer plus vite que le courrier, mais aussi de faire beaucoup plus de choses. 

Donc, pour certains spécialistes, on n’aurait pas le droit de parler de « stagnation séculaire ». D’ailleurs, cette expression n’a-t-elle pas été inventée dans les années 1930, au moment de la Grande Dépression, c’est-à-dire à la veille de la plus formidable période de croissance qu’aient connue nos pays ? 

Nous serions bien en train de vivre un inévitable « retour à la normale ». 

Les « techno-pessimistes » ne contestent pas ces arguments, mais ils estiment que les gains de productivité rendus possibles par la digitalisation n’atteindront jamais durablement les niveaux du XXème siècle. On ne peut pas inventer deux fois l’électricité, le moteur à explosion, etc. qui ont permis des économies de temps et d’énergie considérables pour les humains. 

L’économiste Robert Gordon reconnaît que la révolution numérique a modifié en profondeur de nombreuses activités, mais sans s’accompagner d’économies de temps importantes dans la satisfaction de besoins fondamentaux et dans l’accomplissement de tâches répétitives très répandues. Pour souligner la différence avec le passé, il prend l’exemple de l’arrivée de l’eau courante au domicile, à partir de la fin du XIXème siècle – un progrès d’une technicité limitée, mais qui a apporté un gain de temps considérable dans la vie quotidienne (avant, il fallait aller chercher l’eau à l’extérieur).  

De plus, il soutient que les effets de la révolution numérique seraient déjà derrière nous. Les principaux effets de la numérisation remonteraient à l’époque où l’automatisation a fait disparaître de nombreux postes d’employés, de secrétaires, etc. Les principales pistes de progrès connues aujourd’hui ne seraient pas à la hauteur des révolutions passées et si les dépenses de recherche ont augmenté, leur rendement a aussi beaucoup diminué. 

Il existe d’autres raisons possibles à un ralentissement durable : la fin de l’augmentation de la qualification moyenne des travailleurs (après une période sans précédent de démocratisation de l’enseignement), le vieillissement de la population, un excès d’épargne au niveau mondial qui pèserait sur la demande, donc finalement aussi sur l’investissement et l’innovation. La transition écologique va également entraîner des « coûts », en tout cas économiques. Plus généralement, la priorité pourrait être désormais donnée à la préservation de l’environnement plutôt qu’à la croissance. 

Même si l’idée d’une stagnation paraît exagérée, il semble bien que la conjonction de facteurs favorables à la croissance de la productivité ait disparu. Ceci met fin à une période de prospérité qui était en réalité exceptionnelle. Si cette nouvelle situation peut avoir des avantages et être en partie voulue, en particulier à cause de l’impératif écologique, elle a aussi des conséquences économiques, sociales et financières, qu’il faudra bien évaluer.  

Peut-on produire tout en préservant l’environnement ?

Si la question écologique revient aussi souvent dans les débats publics du XXIe siècle, la protection de l’environnement ne reste pas moins une préoccupation récente dans l’histoire de l’humanité, en atteste le Sommet de la Terre à Rio qui officialise la notion de développement durable en 1992 seulement.  

Le développement durable peut être définit comme « un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures à répondre aux leurs », définition énoncée pour la première fois dans le rapport Brundtland en 1987. L’enjeu pour les politiques actuelles consiste donc à assurer la pérennité des économies en garantissant un certain niveau de production, tout en préservant l’environnement et, plus particulièrement, les ressources naturelles ainsi que les conditions climatiques actuelles. 

L’écologie pose la question de l’intégration de l‘environnement dans l’économie, d’où la notion de développement durable employée pour expliquer le souci de conciliation les trois piliers fondamentaux d’une société que sont l’économie, l’environnement et le social. Nous nous demanderons donc dans cet article si croissance et écologie sont compatibles ou, au contraire, s’il convient de faire un choix difficile entre les deux.

Histoire de la question écologique

Nature et humanité entretiennent une relation changeante au fil des époques. Si certaines croyances, souvent dans des temps reculés, sacralisaient l’environnement, comme chez les Indiens d’Amérique, les Japonais et même les Grecs (Aristote comparait la terre à une nourrice, tandis que beaucoup de dieux grecs symbolisent des éléments de la nature, dont Poséidon et Déméter, entre autres), le christianisme délivre une nouvelle vision de la nature. Cette dernière est perçue en Occident à partir du Moyen-Age comme une espace à exploiter, Dieu ordonnant à l’homme, l’être au centre du monde selon la Bible, de peupler et dominer la terre. 

La désacralisation de la nature est concrétisée par le philosophe Descartes qui, au XVIIe siècle, invite l’homme dans le Discours de la méthode à se rendre maître et possesseur de celle-ci. Les deux révolutions industrielles au XIXe siècle ne se soucient guère de la nature ; au contraire, l’environnement est vu comme un vaste réservoir de matières premières que l’homme doit extraire et exploiter afin de produire l’énergie et les composants nécessaires à la production. Le positivisme, défendu par des philosophes comme Auguste Comte, a pour moteur le progrès scientifique, la connaissance de la nature, mais souvent au détriment de l’environnement.

C’est à partir des années 1970 qu’une conscience de la nécessaire protection de l’environnement émerge peu à peu. La croissance économique s’essouffle avec la fin des Trente Glorieuses suite aux deux chocs pétroliers de 1973 et 1979. Les premières conséquences négatives du productivisme apparaissent, comme l’illustrent des catastrophes écologiques tels la pollution par du mercure de la baie de Minamata au Japon dans les années 1950, le nuage de dioxine s’échappant d’une usine chimique à Seveso en Italie en 1976, la marée noire dans le Golfe du Mexique en 1979 ou encore l’accident dans la centrale nucléaire de Tchernobyl en 1986.

A cela s’ajoutent l’épuisement progressif des gisements de matières premières, comme le pétrole, dont le stock devrait être écoulé d’ici à 2100 selon certaines prévisions, et la déforestation liée à l’exploitation massive des forêts, entraînant une perte significative de biodiversité.

L’un des principaux effets de l’activité humaine et l’un des plus néfastes pour l’environnement est le réchauffement climatique qui s’opère depuis plus de 150 ans. Depuis 1861, la température mondiale a globalement augmenté de 0,6 degré, entraînant la perte d’écosystèmes entiers, la fonte des glaciers et la montée du niveau de la mer, en plus d’intensifier la fréquence des cyclones et autres tempêtes. Des projections prévoient une hausse de 6 degrés si aucune mesure n’est prise d’ici 2100. Le réchauffement climatique est principalement dû à l’émission massive de gaz à effets de serre comme le dioxyde de carbone (CO2) dans l’atmosphère, en constante hausse. 

Le concept de développement durable s’est donc imposé à nos sociétés post-industrielles. Il s’agit d’un développement consistant à générer une production justement répartie au sein de la population et respectueuse de l’environnement, dans le souci notamment de préserver les générations futures de dégradations irréversibles de ce dernier.

Ces constats alarmants ont permis aux mouvements écologiques, jusqu’alors marginaux, de se consolider. Dans les années 1980, les partis politiques « Verts » se structurent en Allemagne (« Die Grünen ») et en France (aujourd’hui « Europe Ecologie Les Verts ») et se multiplient dans des pays où ils étaient jusque-là inconnus. L’écologie devient une préoccupation de la société relayée par certains politiques mais aussi par des associations internationales indépendantes comme Greenpeace, qui militent pacifiquement pour protéger l’environnement et la biodiversité.

Le modèle économique fondé sur la consommation de masse est-il compatible avec la préservation de l’environnement ?

A cette question, l’avocate spécialisée dans la protection de l’environnement et ancienne ministre de l’environnement entre 1995 et 1997 Corinne Lepage répond positivement. Il serait possible de concilier croissance et écologie, à condition d’investir dans des projets dits « verts ». Par exemple, la Norvège, riche de son exploitation du pétrole et du gaz, « s’inscrit pleinement dans le système capitaliste et passe pourtant pour l’un des plus vertueux par ses choix d’investissements non productivistes ». La croissance devrait surtout être réorientée, en faveur de la transition écologique et au service de l’environnement.

Une autre solution, plus radicale, consisterait pour tous les pays industrialisés à diminuer considérablement leur consommation et leurs investissements productifs afin d’arriver à un stade de « croissance zéro », voire de « décroissance ». En effet, dans un contexte où les ressources sont limitées, parler de croissance infinie serait une aberration pour certains. Au XXe siècle, Kenneth Boulding s’amusait à dire à ce sujet que « celui qui croit à une croissance exponentielle infinie dans un monde fini est soit un fou, soit un économiste ». 

Néanmoins, Corinne Lepage indique, à ce sujet, que « prôner la décroissance à l’échelle planétaire paraît compliqué alors que la population mondiale ne cesse d’augmenter – de 7,5 milliards aujourd’hui à 10 milliards en 2050 – et que les pays du Sud ont des besoins colossaux ». La mise en place d’une décroissance permettrait, certes, de mieux préserver la nature mais, en contrepartie, le niveau de vie moyen mondial pourrait même diminuer, compte tenu de l’accroissement démographique. Il serait difficile de se passer de toutes les innovations technologiques des siècles derniers, basées sur l’électricité (produite soit à partir de centrales thermiques émettrices de CO2, soit grâce à des centrales nucléaires dont le stockage des déchets radioactifs pose problème), ou sur le pétrole, encore nécessaire dans bien des secteurs de l’économie. Le respect d’une croissance zéro mettrait fin aux espoirs des pays en développement (PED) et des pays les moins avancés (PMA) d’accéder, un jour, à la société de consommation.

Le PDG de l’entreprise Veolia Antoine Frérot défend, lui aussi, l’idée de la compatibilité entre le développement économique et le respect de l’environnement, « à condition d’être raisonnable et de trouver les bons compromis pour soutenir les deux objectifs ». Il prend les exemples des pluies acides et de l’élargissement du trou dans la couche d’ozone qui inquiétaient le monde entier il y a quelques années. Or, ces problèmes ont été résolus grâce à « une réglementation adaptée et des solutions techniques ». Dans un élan d’optimisme, Antoine Frérot affirme qu’« une régulation efficace, les progrès des connaissances, le développement technique, plus de sobriété et moins de gaspillage permettront de trouver la solution au changement climatique ». 

La réglementation, mentionnée par ce PDG, constitue, avec la fiscalité et les « droits à polluer », l’un des trois grands instruments possibles pour protéger le climat. Il s’agit d’un ensemble de lois votées par les gouvernements afin de freiner les externalités négatives (dégâts causés par la pollution des usines par exemple), comme l’interdiction pure et simple du rejet de certains gaz nocifs, l’obligation de se doter de pots d’échappement catalytiques, etc.

La taxation des externalités négatives (ou subvention des externalités positives, par exemple dans le cadre du principe de bonus-malus économique pour l’achat de véhicules plus ou moins polluants) et la mise en place de marchés de quotas d’émission constituent les deux autres instruments de la politique climatique actuelle. Ce dernier instrument revient à « distribuer » des quotas d’émission aux entreprises nationales, après détermination d’une quantité maximale d’émission de CO2 à l’échelle du pays, quota que ne devra pas dépasser l’entreprise à moins de payer une amende à l’Etat (qui servira en outre à financer la transition énergétique) ou d’acheter d’autres quotas à des entreprises ne « dépensant » pas tous les leurs. 

Les Etats restent en général libres de choisir les instruments destinés à atteindre leurs objectifs. Les quantités maximales d’émissions autorisées ou souhaitables, quant à elles, sont définies lors de grands sommets internationaux du climat, comme celui à Rio en 1992 ou, plus récemment, la COP 21 en 2015, durant laquelle 195 pays se sont réunis à Paris. Les gaz à effet de serre contribuent au réchauffement climatique de la planète, quel que soit leur lieu d’émission. Plus généralement, de plus en plus de pays se rendent compte qu’avec la mondialisation, toute dégradation à un endroit de la Terre peut entraîner des conséquences irréversibles à l’autre bout de la planète ; dès lors, une internationalisation de la préoccupation environnementale s’impose.

Les limites matérielles à la croissance.

Si le problème de la pollution atmosphérique et environnementale pourrait être  réglé par une bonne coordination des politiques à l’échelle internationale, la question de la limitation et de l’épuisement des ressources demeure non résolue. Ce problème n’a pas lieu d’être selon les partisans de la « faible soutenabilité » qui affirment que les différents types de capitaux utilisables dans les processus de production sont substituables. Ainsi, la diminution du capital naturel et l’épuisement des matières premières non-renouvelables pourraient être palliés par l’émergence des nouvelles technologies, du moment qu’il existe des cerveaux pour les imaginer (capital humain), des fond pour les financer (capital financier), des moyens pour les produire (capital physique) et des lois pour encadrer les comportements (capital institutionnel). 

Par ailleurs, le développement économique irait de pair avec la tertiarisation des économies et donc de moindres besoins en ressources naturelles. La courbe de Kuznets illustre ce point de vue : les pays commencent par fortement polluer quand ils s’industrialisent, ce qui aboutit, à terme, au développement du secteur tertiaire et contribue ainsi à diminuer le niveau de pollution. La solution au problème climatique serait donc la croissance, car elle conduit à des économies moins polluantes, que ce soit grâce à la technologie ou parce qu’elle se traduit finalement par le passage à une société post-industrielle ou post-matérialiste.

Cependant, la substituabilité des capitaux ne fait pas consensus chez les économistes. Les partisans de la « forte soutenabilité » émettent l’hypothèse que les quatre capitaux énoncés plus haut ne sont pas substituables, mais complémentaires. Il serait donc indispensable de tous les préserver, surtout le capital naturel. Pour ce faire, il conviendrait de laisser le temps aux ressources renouvelables de se régénérer, tout en en gardant certaines intactes, comme la forêt amazonienne. 

Cette divergence des idées entre défenseurs de forte et de faible soutenabilité peut être illustrée par l’exemple des ressources halieutiques : alors que les premiers insistent sur la nécessité de laisser le temps aux poissons de se reproduire, les seconds rétorquent que, malgré la surpêche, la biodiversité marine pourra être préservée grâce à la pisciculture, une exploitation plus productive mais aussi plus respectueuse de l’environnement. Les partisans de la forte soutenabilité prônent ainsi la décroissance (ou, tout du moins, un arrêt de celle-ci) pour préserver le capital naturel, solution pour l’instant rejetée par la totalité des Etats, tant les conséquences sur l’économie et le bien-être des citoyens se révéleraient catastrophiques. 

De même, les tendances liées à la tertiarisation donnent lieu à des analyses divergentes. De grands Etats extrêmement peuplés, comme la Chine et l’Inde, sont encore en phase d’industrialisation. Il faudrait plusieurs planètes si l’on voulait que tous les habitants de la terre aient les mêmes mode et niveau de vie que les Occidentaux actuels. Il semble donc impossible d’attendre que tous les pays émergents rattrapent leur retard sur les Etats aujourd’hui les plus développés et que leur croissance devienne, comme la leur, moins consommatrice de ressources. En outre, des études plus approfondies ont montré qu’en réalité, la croissance de ces Etats s’accompagnait toujours d’une augmentation de l’utilisation des ressources naturelles, une fois pris en compte leurs importations (notamment en raison de la délocalisation d’industries polluantes).

Les difficultés liées aux différents instruments de préservation de l’environnement.

La réglementation des activités productives par le biais des quotas, des normes techniques et des interdictions peut difficilement être généralisé dans une économie mondialisée. Les normes environnementales et leurs sanctions financières en cas de non-respect qui pèsent sur les industries des pays développées vont, par conséquent, les rendre moins compétitives et les amener à perdre des parts de marché au profit d’entreprises provenant de pays émergents comme la Chine qui, elles, n’ont pas à s’adapter aux normes pour vendre sur le territoire. 

Le système de taxation sur les nuisances environnementales risque soit d’avoir trop peu d’effet sur les agents économiques, soit de décourager l’activité s’il est trop contraignant. Enfin, si les quotas ont un prix trop faible sur le marché des quotas d’émission, ils n’auront aucun effet dissuasif, puisqu’il sera plus rentable pour les entreprises d’acheter des quotas pour polluer davantage plutôt que d’augmenter leurs coûts de production afin de se plier aux règles. 

Chaque instrument, ayant ses avantages, mais aussi ses limites, est donc complémentaire : ainsi, pour l’automobile, les constructeurs dépendent d’une forme de marché de quotas, mais la réglementation leur impose aussi certains matériaux recyclables, alors que les acheteurs voient leur dépense modifiée par le bonus/malus.

Nous en arrivons donc à la conclusion suivante : si une « décroissance » paraît inenvisageable, tout l’enjeu pour les gouvernements en place consiste alors à se concerter lors de sommets annuels afin de définir les grandes lignes de la politique climatique et écologique à mener, qu’ils appliqueront ensuite à l’échelle nationale en combinant les différents instruments mis à leur disposition. Nombreux sont les experts qui s’accordent à dire que la croissance demeure compatible avec la préservation de l’environnement, tant que l’exploitation des ressources est maîtrisée, la pollution limitée et réglementée et les quatre principaux types de capitaux, qu’ils soient complémentaires ou substituables, dans l’ensemble, préservés. 

Le nombre de pays à adhérer à la préoccupation écologique ne cesse de croître, même si le principal pollueur mondial que sont les Etats-Unis de Donald Trump paraissent aujourd’hui moins sensibles à cette cause qu’il y a quelques années et que la Chine, en pleine industrialisation, continue d’émettre une quantité très importante de CO2 dans l’atmosphère depuis ses usines à charbon. 

Il convient enfin de rappeler que le comportement écologique est également individuel et citoyen. Eteindre la lumière en quittant une pièce, ne pas gaspiller l’eau, privilégier les transports publics constituent autant d’actions quotidiennes qui font de nous des éco-citoyens et qui, multipliés à grande échelle, préparent un avenir meilleur pour les générations futures.

La planification, une nécessité pour notre économie ?

La crise sanitaire causée par le coronavirus a plongé le monde et en particulier la France dans une récession sans précédent depuis 1929. En effet, le PIB français a connu une contraction de 11 % en 2020 par rapport à l’année précédente, selon Bruno Le Maire, ministre de l’économie. Dans ce contexte, divers plans de relance ont été organisés. Mais la question de la planification dans des secteurs stratégiques tels que la santé ou les industries sensibles revient à l’ordre du jour. Boudé depuis le tournant libéral des années 1970 et 1980, cette planification prend de plus en plus d’importance à tel point que le gouvernement Castex a nommé un commissaire au plan, François Bayrou. Vilipendée par la théorie néo-classique, prônant une faible intervention de l’état sur le marché afin de rendre ce dernier le plus optimal dans l’optique d’une logique efficiente, la planification suscite des débats et divise le monde politique et économique. Dans cet article, nous allons donc analyser les modalités de la planification ainsi que sa finalité et ses conséquences.

Une politique ambitieuse

Un exemple symbolisé par le modèle soviétique :

En URSS, la planification débute réellement le premier octobre 1928 avec le premier plan quinquennal. L’objectif est d’accélérer le développement du secteur industriel. En effet, à cette époque l’URSS accuse un retard important dans le cadre de la production du secteur secondaire, l’essentiel de son économie restant encore fondé sur l’agriculture. Grâce à ces plans, l’URSS connaît une croissance industrielle importante, au point de devenir en 1940 la troisième puissance industrielle, derrière les Etats-Unis et l’Allemagne. Cependant, si l’on prend l’exemple de l’URSS, dont le premier plan date de 1928, cours d’histoire de première, la planification poussée à son extrême a des conséquences néfastes sur un plan économique comme social, Staline n’y allant pas de main morte. Tout d’abord, cette planification instaure une situation d’oligopsone (non ce n’est pas un nouveau Pokémon), c’est-à-dire un unique demandeur, l’Etat, face à plusieurs offreurs qui doivent se plier aux exigences, notamment en matière de délai de livraison, puisque le plan fixe des cadences de production qui doivent être respectées à la lettre. Dans cette situation, l’état organise l’administration des prix, empêchant les prix de se fixer librement en fonction de l’offre et de la demande. L’état va alors fixer des prix plafonds, c’est-à-dire des prix de vente que les unités de production ne pourront pas dépasser. L’isocoût, la contrainte budgétaire de la production, est donc un critère fondamental, même plus important que dans les économies de marché des démocraties occidentales, étant donné que les erreurs des dirigeants des entreprises peuvent leur coûter bien plus qu’une simple remontrance de la part du soviet suprême, disons une petite peine de 20 ans en camp de travail. Dans cette situation, le prix plafond est égal au coût de production, étant donné que ces entreprises n’ont pas comme objectif de vendre leur production sur un marché concurrentiel et d’y faire des bénéfices puisqu’elles sont censées agir pour l’intérêt de la société.

Une alternative apparente au modèle capitaliste :

La planification cherche à répondre à un idéal : celui d’une société égalitaire dans laquelle chacun des acteurs agiraient pour l’intérêt général. La planification cherche alors à corriger les défauts du capitalisme. En effet, dans une économie capitaliste, en proie à de violents retournements du marché, les classes les moyennes et populaires sont souvent plus touchées que l’élite économique et financière. Dans les démocraties occidentales, les entreprises sont majoritairement privées et au début du XXème siècle, les chefs d’entreprise sont souvent propriétaires de leur entreprise. On peut d’ailleurs prendre l’exemple d’Henry Ford ou de Louis Renault dans le secteur automobile. Alors qu’aujourd’hui, les grandes entreprises sont souvent des sociétés anonymes, avec des actionnaires et dont le président n’est pas le propriétaire. Ainsi, les propriétaires de ces entreprises peuvent avoir tendance à gérer l’entreprise dans leurs intérêts personnels et non dans celui de l’ensemble des acteurs de l’entreprise. Les intérêts antagonistes dans une entreprise sont indéniables : les propriétaires ou actionnaires veulent par exemple rogner les salaires afin d’améliorer la rentabilité financière pour toucher plus de dividendes tandis que le salarié aura tendance à vouloir une meilleure reconnaissance par une valorisation de son salaire ou une amélioration de ses conditions de travail. Il s’agit là de l’intérêt de l’économie planifiée selon ses défenseurs : l’idée de créer une économie dans laquelle des fonctionnaires qualifiés agiraient dans l’intérêt général et décideraient de l’allocation des ressources et des choix économiques à faire. Les décisions prises seraient alors bénéfiques à l’ensemble de la population et non à une minorité. Dans ce système, l’Etat maitrise l’ensemble de l’appareil productif et peut alors protéger ses marchés contre la concurrence étrangère ou contre des aléas de toute sorte. L’objectif de l’état par la planification est de se prémunir contre une certaine dépendance de l’étranger, notamment dans des secteurs clés comme la santé, où la pénurie de masque marque le symbole de la dépendance de la France vis-à-vis des marchés étrangers.

Une portée relative

Une population au bien-être mis à mal :

L’administration des prix peut entrainer une modification voire une suppression du point d’équilibre du marché, qui fixe le point d’intersection entre l’offre et la demande ainsi que le prix et la quantité d’équilibre. La fixation des prix par l’état engendre un rationnement de l’offre ou de la demande. Selon la théorie néo-classique, cette fixation des prix par l’état peut alors avoir des conséquences néfastes du fait d’une mauvaise allocation des ressources, c’est-à-dire une mauvaise répartition dans le système économique des moyens financiers, matériels et humains. Dans le cas étudié, la planification peut entrainer un rationnement de l’offre, provoquant des pénuries. Si l’on prend l’exemple du prix d’une voiture, l’état dans une économie planifiée va alors fixer un prix plafond que les entreprises ne devront pas dépasser. Si ce prix plafond permet en théorie de toucher une nouvelle demande aux ressources plus faibles, ce prix plafond risque également d’entrainer une réduction de la production des voitures, car potentiellement moins d’entreprises pourront se plier aux exigences tarifaires de l’état, du fait de coûts de production peut-être même plus élevés que le prix de vente.

Nous pouvons modéliser la situation à l’aide du graphique ci-dessus. Dans le cadre d’un marché concurrentiel le prix et la quantité d’équilibre se formeraient respectivement en P* et Q*. Mais dans le cadre d’une intervention de l’état, les conditions contraignent la production, la fixation d’un prix par l’état crée un prix plafond que tous les offreurs ne vont pas pouvoir supporter. Ainsi, le marché ne peut offrir qu’une quantité Q 0 en deçà de la quantité d’équilibre du marché concurrentiel. Et dans la logique des choses, l’intervention de l’état se fait dans l’objectif de permettre l’accès de biens à l’ensemble de la population. Par conséquent, l’intervention de l’état crée une hausse de la demande. Cette nouvelle demande est représentée par QD. Cependant, une offre réduite par rapport à une demande plus forte entraine inévitablement une fraction de demande insatisfaite. Ainsi, la différence entre la quantité demandée et la quantité offerte correspond au volume de demande insatisfaite. Dans cette situation le surplus collectif est exposé à une perte sèche, chez les producteurs du fait d’un prix trop élevé et chez les consommateurs du fait d’un rationnement de l’offre. Le surplus du producteur dans une économie planifiée doit en théorie être inexistant étant donné que les entreprises n’ont pas pour vocation de faire des bénéfices comme sur un marché concurrentiel. Cette situation de rationnement de l’offre et de demande insatisfaite s’est traduite concrètement en URSS par des situations de pénurie ou de longue attente de la population pour les biens de consommation. On peut prendre l’exemple des longues queues pour l’approvisionnement alimentaire ou encore le fait qu’une famille russe devait patienter dix ans pour recevoir une voiture. Vous imaginez si on revenait dix ans en arrière, comment c’est long. La PS3 était la console à la mode et les Nokia étaient les téléphones les plus vendus. De plus, dans ce système, l’offre est très peu diversifiée, ce qui réduit encore plus le bien-être du consommateur. Imaginez si vous deviez renoncer aux bonbons qui vous plaisent et manger tous les jours des réglisses ! En effet, en URSS, il n’y avait généralement qu’un modèle de télévision, de voiture, de cartable scolaire ou de pair de chaussures.. L’autre enjeu lié à la planification est la question de la bureaucratie. Cette dernière est approuvée par Max Weber dans son ouvrage « Economie et société » en 1921, et désigne un mode de production dans lequel les salariés qui entretiennent des relations impersonnelles occupent des postes uniquement en fonction de leurs compétences. Dans un système bureaucratique le travail de chacun est très encadré afin de ne pas laisser courir le risque de prises de décisions hâtives ou hasardeuse. Les modalités de la production sont réglées au millimètre, l’objectif étant de se protéger de quelconque aléa, risquant de désorganiser le travail. Cependant, étant donné que le travail est très encadré, la bureaucratie limite la prise de décision individuelle et par conséquent l’innovation. De plus, dans un modèle bureaucratique, la hiérarchie est verticale et l’individu en bas de l’échelle n’est souvent pas écouté, même si sa proposition est intéressante.

https://www.lafinancepourtous.com/decryptages/politiques-economiques/theories-economiques/economie-planifiee/

https://www.persee.fr/doc/hes_0752-5702_1992_num_11_3_1641

https://www.francebleu.fr/infos/politique/francois-bayrou-nomme-haut-commissaire-au-plan-a-quoi-va-t-il-servir-1599108599

Le Brexit

23 juin 2016 : Les britanniques sont appelés aux urnes pour répondre à une question cruciale concernant l’avenir de leur pays. Les résultats du scrutin ont alors donner une majorité aux partisans du brexit. Pour la première fois dans l’histoire de l’Union Européenne, un pays membre quitte la communauté.

Alors que pour certains le Royaume Uni part à la dérive depuis que celui-ci a décidé de quitter l’UE. Pour d’autres le départ du Royaume Uni acte la victoire du peuple britannique sur les institutions européennes antidémocratique, recouvrant ainsi sa souveraineté.

Dans cet article, nous nous pencherons sur la question du vote britannique lors du référendum du Brexit et plus précisément sur les « profils » d’électeurs favorable et défavorable au Brexit. Par la suite, nous aborderons la question des conséquences présentes et éventuelles de ce Brexit pour le Royaume Uni mais aussi pour l’UE. En effet, si les défenseurs de l’Union Européenne estiment que le Brexit est une erreur aux conséquences lourdes pour le pays, d’autres ne voient pas ce fait d’un si mauvais œil et pensent que le Brexit est une occasion pour les britanniques de recouvrer une souveraineté populaire qu’ils auraient perdu.

Milieu socio-politique et orientation du vote : corrélation pertinente ou stéréotype réducteur ? ** Le 23 Juin 2016, la victoire du Brexit a révélé une certaine fracture au sein de la société britannique. Cette fracture est principalement de nature sociale, économique et identitaire. A première vue les britanniques qui ont voté pour le Remain sont ceux que l’on désigne comme les « gagnants » de la mondialisation (l’équivalent des CSP+ selon la catégorisation française). Ils incarnent ceux qui vivent souvent en métropole, voire dans l’hypercentre de celles-ci. A l’inverse, ceux qui ont voté en faveur de la sortie du Royaume-Uni de l’UE (Leave) sont considérés comme les « perdants » de la mondialisation. Ce sont les milieux moyens et populaires dont le déclassement au sein de la mondialisation est de plus en plus admis, ces populations vivent dans les milieux ruraux et anciens centres industriels victimes de nombreuses délocalisations. Néanmoins cette fracture qui s’apparente à celle présente lors de l’élection américaine de 2016 peut être jugée trop schématique


https://upload.wikimedia.org/wikipedia/commons/thumb/3/3f/United_States_presidential_election_results_by_county%2C_2016.svg/521px-United_States_presidential_election_results_by_county%2C_2016.svg.png

Le référendum du Brexit dépasse le clivage électoral classique au Royaume-Uni et les dissensions au sein même des grands partis (travaillistes et conservateurs) en témoignent. Les catégories de population qui ont massivement voté en faveur d’un départ du Royaume Uni sont les retraités modestes et les victimes des nombreuses politiques d’austérité que subit le Royaume-Uni depuis plusieurs années. Ce vote est sans doute l’expression de ce sentiment déclassement et appauvrissement que subissent ces populations. Néanmoins le référendum du Brexit révèle également une fracture identitaire au-delà de la fracture sociale et économique. Cette fracture identitaire renvoie au traditionnel euroscepticisme britannique mais aussi à la montée des mouvements populistes. En effet, certaines régions relativement pauvres ont largement voté en faveur du Remain et d’autres relativement bien insérées dans la mondialisation en faveurs du Leave ; ceci s’explique par l’évolution de la population dans ces régions. Certaines régions paupérisées, où les minorités ethniques sont plus nombreuses en comparaison à la moyenne nationale, ont largement voté en faveur d’un maintien du Royaume-Uni dans l’Union Européenne (ex centre est de Londres). A l’inverse dans certaines régions relativement insérées (ex Boston) le Leave est arrivé largement en tête ceci s’explique par sensibilités de ces populations au discours populistes face au chamboulement démographique puis communautaire de leur région.

Un diagnostic établi par les remainer prévoyant des effets indésirables :

Après d’interminables discussions entre Londres et Bruxelles pour trouver un accord de sortie, le Royaume-Uni quitte l’UE en ce début d’année 2020 avec l’espoir de trouver un accord d’ici 2021. En effet, le Royaume-Uni est pour le moment en période de transition (notamment sur le plan économique/commerciale) et reste à ce titre soumis à de nombreuses règles de l’UE même s’il ne fait plus partis de ses institutions. Face à cette incertitude, nombreuses sont les personnalités politiques, instituions ou organismes mettant en garde contre un no deal dont les conséquences seraient dévastatrices. Cependant un bilan économique du Brexit ne peut être traité pour le moment car le recul est insuffisant et celui-ci dépendra notamment de si un accord notamment commercial est conclu. (D’autant plus que certains secteurs par exemple le Luxe français, ont bénéficié en Europe en 2019 de cette incertitude dû à un éventuel no deal ce qui a grossi les stocks, situation dû a un contexte particulier qui évoluera. Cependant un point est à souligner, beaucoup d’acteurs économiques supportent mal l’incertitude.). C’est peut-être cette incertitude sur le no deal qui impactera l’économie britannique même si la crise économique qu’a enclenché la pandémie rebat certainement les cartes. D’autant plus que cette période de transition ne prendra fin en décembre 2020 que théoriquement. Or l’histoire du Brexit montre que les délais sont rarement tenus et que certains points de désaccords profonds tel que les zones de pêche s’avèrent extrêmement complexe, ceci amplifie d’autant plus l’incertitude qui reste cependant moindre qu’auparavant. La période de transition d’autant plus marqué par la crise sanitaire et économique du covid-19 laisse aux entreprises un temps d’adaptation très court. L’un des autres sujets d’inquiétude pour Bruxelles est l’évolution de la réglementation financière et fiscal du Royaume- Uni qui pourrait perturber la zone euro. L’UE se réserve ainsi le droit après la sortie complète du R-U de l’UE, d’autoriser les institutions financières britanniques à agir sur la zone euro. Le Royaume Uni pourrait notamment pratiquait un dumping fiscal et social et valoriser l’entreprenariat en le déchargeant d’importantes contraintes, tout ceci pourrait grandement déranger ses voisins européens. Divers études ont alors été menés par exemple par Bloomberg (https://www.bloomberg.com/news/articles/2020-01-10/-170-billion-and-counting-the-cost-ofbrexit-for-the-u-k ) pour étudier tout d’abord le coût du Brexit pour le Royaume Uni puis les conséquence de celui-ci. D’après Bloomberg le Brexit a couté 130 milliards à l’économie britannique sur la période 2017-2018 et ceci ne cesserait d’augmenter dans le futur. Bloomberg dresse alors un bilan très négatif de la situation économique du Royaume-Uni suite au vote du Brexit qui serait responsable de la baisse de la croissance britannique. Ainsi, Bloomberg énonce «But they have been diverging since the vote to leave the EU, with the British economy now 3% smaller than it could have been had the relationship been maintained. ».


https://www.washingtontimes.com/news/2019/mar/24/theresa-may-pressed-resign-save-brexit/

Le gouvernement britannique se montrait alors bien plus positif. Face à ces incertitudes, beaucoup d’investissements, de fusions-acquisitions… ont été suspendu car cette sortie n’est qu’une période de transition et les relations futures entre l’UE et le Royaume-Uni sont encore à définir. La situation en ce début du mois de juillet 2020 est bien différente des perspectives début 2020, le Royaume-Uni est très fortement touché par la pandémie que ce soit sur le plan sanitaire (plus de 42 000 morts) ou économique (chute du PIB de plus de 11% sur l’année 2020 d’après l’OCDE).

(Le Royaume-Uni doit ainsi redresser son économie et pour atteindre le niveau d’avant crise une route relativement longue est envisageable. Cette faiblesse économique du Royaume-Uni pourrait augmenter l’incertitude sur sa capacité à se relever économiquement en cas de no deal. )

Des conséquences néfastes à relativiser :

Néanmoins ce qui est certains c’est qu’à présent le Royaume-Uni est bien plus libre juridiquement. Cette liberté Boris Johnson comptait dessus pour lancer un programme d’investissement notamment en infrastructure afin d’intégrer les espaces délaissés par la mondialisation ou encore pour moderniser et revoir les dépenses de la NHS ou bien réformer l’administration en favorisant le principe de subsidiarité. La crise actuelle facilitera peut-être certaines réformes législatives mais d’autres (investissements) seront peut-être plus difficile à mettre en place notamment pour des questions de financements. En effet, le confinement coûte et coutera chère à l’économie et l’état britannique, ainsi mener de grands investissements notamment en infrastructures alors que les caisses de l’état seront bien amaigries par le plan de relance que nécessite le déconfinement, s’avère délicat d’autant plus que jusqu’à présent les investissements étrangers dans les infrastructures britannique étaient très importants. Ainsi, le Royaume-Uni a accueilli plus de 23 milliards d’euros d’investissements chinois sur la période 2000- 2016 ce qui en fait le premier bénéficiaire de l’UE.


https://www.lepoint.fr/monde/royaume-uni-de-juteux-contrats-attendus-au-deuxieme-jour-de-la-visite-de-xi-jinping-21-10-2015-1975430_24.php

La Chine a en effet beaucoup investi dans les infrastructures britanniques ces 20 dernières années finançant par exemple des projets de centrales nucléaire, la CIC (China Investment Corporation) détient 10% de l’aéroport d’Heathrow et 9% du réseau de distribution d’eau de Londres… C’est par exemple aujourd’hui Huawei qui fournit en équipement la British Telecom & Vodafone UK. Lors du référendum Pékin défend publiquement le Remain, laissant ouvertement paraître sa stratégie, ces investissements permettent en effet à la Chine d’accéder à tout le reste de l’UE, le Royaume Uni est alors la tête de pont vers l’UE et sa place financière mondiale (la City) joue un rôle également stratégique. La sortie de l’UE met sûrement à mal cette stratégie, il est alors possible que Pékin réduise ses investissements au Royaume Uni à moyen terme si telle était la stratégie adoptée. Le Royaume Uni devrait alors trouver quelques nouveaux investisseurs pour financer ses investissements en infrastructure d’autant plus que les caisses de l’état seront quasiment vides.

Le Brexit aura également des conséquences pour l’UE qui perd 15% de son PIB et 13% de sa population. L’Europe pèsera moins sur le plan démographique et économique, son influence dans les relations internationales et son pouvoir de négociations sera donc très probablement amoindrie. D’autant plus qu’avec le Brexit, l’UE perd l’une de ses principales puissances militaires et la France se retrouve désormais seule détentrice de la puissance nucléaire au sein l’UE. Le budget de l’UE (déjà très faible) sera lui aussi impactait puisque le Royaume Uni représentait plus de 12 % du budget d’autant plus qu’au même titre que la France et l’Allemagne, le R-U faisait partie des plus grands contributeurs net. Ceci semble embêtait Bruxelles au vu de la facture que l’UE demande au Royaume Uni pour le Brexit. Le Royaume Uni est également un grand importateur de l’UE qui aurait donc intérêt à trouver un accord. Cependant pour certains Bruxelles fait et fera tout son possible pour que le Royaume-Uni ne se présente pas d’ici quelques années sous une croissante radieuse aux yeux des pays d’Europe en difficultés. Que dirai l’Italie si elle voyait son voisin britannique s’enrichir après son départ de l’UE ?


https://www.express.co.uk/news/politics/1313788/italexit-italy-eu-exit-brexit-Nigel-Farage-Gianluigi-Paragone-Latest-update

Bien sûr le redressement du Royaume-Uni n’est qu’une hypothèse, mais si elle se produisait…la réaction des pays tels que l’Italie pourrait provoquait l’éclatement de l’UE. L’on peut se demander par quel moyen le Royaume-Uni pourrait prospérer après son départ de l’UE même si cet exercice est hasardeux. L’on peut par exemple penser à un rapprochement avec les Etats-Unis. En effet le Royaume-Uni pourrait se rapprocher de son allié traditionnel mais ceci surtout dans un contexte où Trump joue la division en proposant à Guiseppe Compte de l’aider à payer la dette de l’Italie si elle quitte l’euro et l’UE ou à macron des accords commerciaux des plus intéressants pour la France si elle quitte l’euro et l’UE. Or ce rapprochement serait bien plus difficile avec un président américain bien moins hostile à l’égard de l’UE.


 https://www.france24.com/fr/20180629-trump-propose-macron-quitter-union-europeenne-accords-commerciaux.

Une sortie aisée puis accompagnée d’un redressement de l’économie britannique ouvrirait la porte à la sortie d’autres pays de l’UE (c’est pourquoi l’UE fait son possible pour démontrer qu’il est très difficile de sortir de l’UE et fera peut-être son possible pour montrer les conséquences néfastes d’une sortie). Attali explique lui-même en tant que rédacteur des premières versions du traité de Maastricht l’esprit du traité sur ce point dont chacun juge ce qu’il en pense malgré un discours sans équivoque. (je vous conseil d’ailleurs de visualiser la vidéo de son discours https://www.dailymotion.com/video/xp2073 , voici l’extrait en question https://www.youtube.com/watch?v=ZWBreXNezgk 

– FIN –

29 Juin 2020

Charles Roussel

Pour aller plus loin, voici quelques sources utilisées, notamment des cartes pour analyser les résultat du scrutin :

https://journals.openedition.org/espacepolitique/4555 (notamment cartes 1 et 3)

https://www.ons.gov.uk/methodology/geography/geographicalproducts/areaclassifications/2011areaclassifications/maps (notamment cartes 1-6-8)