Tous les articles par L'équipe de Connexions

The developing relevance of Environmental Justice (Part I : A developing globalised issue of Environmental ‘Injustice’)

By Harrison Cox, University College London

Harm stemming from environmental causes affects everyone. However, in the 1980s, grassroots activism in the United States argued and effectively proved that communities of colour were disproportionately affected by environmental harm, specifically the siting of pollutant activities. This idea developed into Environmental Justice (EJ). In the context of this essay, I will proceed according to the idea that EJ is “the equal protection and meaningful involvement of all people with respect to”[1] environmental laws. This highlights two key elements. First, it is related to protecting those who have suffered disproportionately under discriminatory pretences. Second, resolving the issue requires the active participation of all involved.

Since the 1980s, the concept has evolved; today, we see a significantly different idea of EJ. This raises the question of whether it is more relevant today than in the 1980s.

It will be shown that it is much more relevant today as the issue of environmental ‘injustice’ has become globally recognised (I), and the responses to this injustice have evolved, introducing themselves into mainstream politics (II).

Part I: A developing globalised issue of Environmental ‘Injustice’

To determine whether EJ is more relevant today, it is necessary to establish how the issue at the heart of EJ has evolved.

EJ’s origins

The discriminatory approach to distributing environmental harms is not contemporary. It can be stretched back to 1492 with Christopher Columbus’ discovery of the Americas[2]. It was later developed during colonialism[3]. This idea, advanced by Harris, is interesting as it provides a basis to analyse modern ‘injustice’. We see through Harris’ approach to law and political economy that the colonial history of discrimination is a structural limitation of society. Quijano suggests that humans have always considered themselves separate from the environment[4] and masters of anything non-human. This idea developed the racist approach to distributing environmental harm. We have preserved the ‘upside-down’ approach in which an anthropocentric view prevails of division between humans and nature — placing a disproportionate burden of environmental extraction on traditionally vulnerable groups.

In the 1980s, various events spearheaded the EJ movement to the forefront of environmental concerns. Notably, the 1987 United Church of Christ Report concluded that “race has been a factor in the location of commercial hazardous waste facilities in the United States”. This led to a considerable grassroots movement in the United States.

For some time, it remained a US-centred movement. This can be seen through the breadth of reports and literature published during that time focusing on US issues. For instance, the 1990 Greenpeace Report ‘Playing with Fire’ discussed by Bullard[5] identified that the demographic in communities with incinerators was 89% more people of colour than the national average. Bullard’s 1994 article further highlights the issues in the US, stating that the “geographic distribution of both minorities and the poor has been found to be highly correlated to the distribution of air pollution”.[6] The issue in the US was clear, and the evidence was strong; this led to a robust grassroots activism movement and numerous court victories[7]. However, the idea of EJ remained constrained – conceptually limited to the siting of high-level polluters near communities of colour and geographically limited to the US – limiting its relevance.

EJ’s development

Despite these constraints, signs of a future expansion are visible from its earliest forms. For instance, ‘The Principles of EJ’[8] states they are gathered to “begin to build a national and international movement”.[9] The issue of a discriminatory approach to environmental harm seems to stem from colonialism. Thus, this movement would rapidly expand beyond the US towards the former European empires.

Around the year 2000, the term ’environmental racism’ was adopted in the United Kingdom to refer to this idea of discrimination. The issue does not seem to have gained as much traction as it did in the US. Grassroots activism was not as strong in the UK, and people seemed unaware of the depth of the issue. Agyeman describes this as the ‘EJ Paradox’.[10] This point also highlights how differently EJ developed in Europe – a much more legal/policy concept – compared to the US.

Nevertheless, recognition of the problem eventually gained traction, as can be seen in the list provided by Agyeman.[11] A vast amount of reports and studies were conducted by various actors, all leading to the same conclusion that there was a profound issue of discrimination in the distribution of environmental harm in the UK. However, these studies did not necessarily investigate the racial factor. For instance, a 2001 Friends of the Earth report revealed that factory pollution disproportionately affected poorer communities[12]. The UK thus started with a broader social approach to EJ, considering ‘justice’ to be for all social issues, not specifically racial. This position has evolved, and the issue is recognised as a global source of concern, raising its relevance.

A global issue

Preserving colonial traditions has led to EJ being relevant across the planet to respond to the imperial, economic idea of extraction and exploitation. This point is illustrated by the finding that “Climate-related disaster losses, as % of GDP, are 4.3 times greater in low-income countries than in the high-income countries”.[13] Since 2010, the correlation between demographics and the location of large polluters has been widely recognised.[14] Recognition of the environmental ‘injustice’ makes EJ more relevant.

Furthermore, EJ’s concerns have expanded beyond pollution and the distribution of environmental harm. For instance, it is now concerned with access to green and blue spaces, as can be seen in the Groundwork UK report showing a clear link with racial disparities – exacerbated during the pandemic.[15] A developing social issue linked to access to green spaces is the idea of eco-gentrification, people being priced out of their homes because of the closeness to green spaces, deepening the ‘injustice’.

Furthermore, EJ plays a more critical role today because the issues it is dealing with have also become vital. As Harris argues, the abundance of fossil fuels has led to the exploitation of specific communities, notably indigenous and lesser developed countries. The exploitation of these is creating climate refugees[16]. EJ is no longer only concerned with limiting pollution but is concerned with the right of these people to have an environment. It is a deeper cause, making EJ more relevant today than in the 1980s.

To conclude, EJ is more relevant today because the issue has been recognised as global, and the movement is concerned with a wider breadth of issues. Furthermore, these issues are more profound.

Article written by Harrison Cox, President of Environnemental Law and Life Science Society (ELLS)


[1] Massachusetts – EJ Policy 2002, 2

[2] Agyeman, Just Sustainability, 2004, 156

[3] Harris, LPE approach to EJ, 2021, 457

[4] Quijano, Coloniality and Modernity/Rationality, 2007, 171

[5] Bullard, Overcoming Racism in Environmental Decision Making,1994

[6] Ibid, 11

[7] Perez, Evolution of the EJM, 2015, 1

[8] Principles of EJ, 1991

[9] My emphasis

[10] Agyeman (2), 157

[11] Ibid, 157-159

[12] FoE 2001

[13] The Messy Challenge of EJ, 2019, 4

[14] Banzhaf, Economics of Race, Place and Pollution, 2019, 186

[15] Groundwork 2021

[16] Harris (3), 466

Sénat et Décentralisation : enjeux des réformes territoriales en France

Sur ce deuxième quinquennat d’Emmanuel Macron, le Sénat apparait comme une institution particulièrement solide et constructive, face à la majorité relative de l’Assemblée Nationale et ses débats extrêmement polarisés. L’absence de majorité au Palais Bourbon permet ainsi à celui du Luxembourg d’apparaitre comme une garantie la stabilité institutionnelle. Le retour en force de cette institution pourrait être l’occasion de remettre au centre du débat public son rôle fondamental, celui de représenter les territoires.

En ce sens, le Sénat plaide pour une réforme structurelle de la gouvernance territoriale, une libre-administration des collectivités territoriales, qui, inscrite dans la Constitution, peine à être réellement respectée, même si des avancées notables ont eu lieu, la plus récente étant avec la loi 3 DS de 2022.

Les différents actes de la décentralisation peuvent être vus comme une reconnaissance de la doctrine tocquevillienne. Le Premier Acte est initié avec les lois Defferre de 1982-1983, qui ont marqué un tournant historique en transférant d’importantes compétences administratives, économiques et sociales aux collectivités territoriales (régions, départements, communes). Le Deuxième Acte se concrétise avec les lois de 2003-2004, et notamment la révision constitutionnelle de 2003, qui consacre la décentralisation dans la Constitution, et reconnaît le principe de libre administration des collectivités. Le Troisième Acte né dans les années 2010 (notamment la loi NOTRe de 2015), a poursuivi cette démarche en clarifiant les compétences des différentes collectivités et en renforçant le rôle des régions.

La nécessité de réformes courageuses en matière de décentralisation se pose d’autant plus que les collectivités territoriales sont confrontées à une vague de démissions de leurs élus. Qu’elles soient le reflet d’une tâche trop chronophage ou d’un sentiment d’insécurité face aux agressions, menaces ou intimidations, ces démissions d’élus locaux témoignent d’un manque d’un manque de soutien, d’accompagnement, de formation.

Des élus locaux nécessitant un accompagnement renforcé :

Depuis la loi du 27 février 2002, relative à la démocratie de proximité, le droit à la formation des élus est codifié dans le Code général des collectivités territoriales CGCT (Art. L2123-12 du CGCT pour les communes, Art. L3123-10 du CGCT pour les conseils généraux et Art. L4135-10 du CGCT pour les conseils régionaux). Ainsi, pour assurer le bon fonctionnement de collectivités territoriales, le renforcement de l’accompagnement des élus locaux s’avère fondamental. Souvent issus de la société civile, ils ont besoin d’une formation tout au long de leur mandat. Avec des responsabilités élargies du fait de la décentralisation, les élus locaux sont aujourd’hui des décideurs sur leur territoire, des acteurs de changement, dotés d’un pouvoir décisionnel renforcé. Un renforcement de leur formation, accompagnée d’une augmentation de leurs indemnités pourrait contribuer à limiter les désengagements voire les démissions. En ce sens, l’autonomie des collectivités territoriales peut être assurée sans pour autant faire diminuer la présence de l’Etat dans ses territoires. En outre, la question de la professionnalisation des élus locaux se pose dans le débat public contemporain. Du Maire de village au conseiller municipal d’une métropole, beaucoup d’élus locaux sont contraints de travailler à temps partiel pour pouvoir concilier leur emploi avec leur mandat, ce qui a des conséquences directes sur leurs revenus et de manière indirecte, à plus long-terme, sur leur retraite. Pour rappel, la législation actuelle n’impose pas que le conseiller municipal soit rémunéré.

Par ailleurs, la formation actuelle est assurée par une diversité d’organismes agréés par décision ministérielle : IEP, universités, associations de maire. Cependant, cette diversité d’organismes pose question sur un manque d’homogénéité des conditions de formation des élus, entrainant alors des dérives. Cette idée est d’autant plus appuyée par le fait que certains organismes ont plus qu’une proximité avec les partis politiques. A titre d’exemple, l’Institut de formation des élus locaux (IFOREL) est directement affilié au Rassemblement National. Libération avait notamment révélé que dans le cadre de l’IFOREL, des élus RN avaient bénéficié de séminaires dans des hôtels luxueux, à la Baule notamment. Ce lien de proximité est problématique à au moins deux égards. D’abord, un organisme affilié à un parti aura peut-être tendance à dispenser une formation pouvant manquer d’impartialité, en adéquation avec la ligne idéologique du parti. Mais surtout, l’exemple de l’affaire révélée par Libération pose question au regard de l’utilisation de l’argent public, qui normalement destiné à une formation, est en grande partie allouée à un séjour aux allures de vacances. Ainsi, dans l’objectif de proposer aux élus un accompagnement de meilleure qualité, tout en poursuivant une logique d’intérêt général, un renforcement du contrôle de l’Etat sur ces organismes, bien qu’agréés, s’impose.

Revoir le mille-feuille administratif au profit de l’intercommunalité ?

Le paysage administratif français, riche de sa complexité et de ses nuances, est souvent qualifié de « mille-feuille ». Ce terme, évocateur, fait référence à la superposition des différentes couches administratives – de la commune à la région en passant par le département et l’intercommunalité. Toutefois, la pertinence et l’efficacité de cette stratification sont de plus en plus mises en doute. Le besoin de simplification, d’agilité et de proximité s’impose. À ce titre, le renforcement des compétences des intercommunalités au détriment du département apparaît selon le rapport Attali comme une solution adaptée. Le rapport Attali de 2008, dans sa décision 259, avait même préconisé la suppression du département dans un délai de dix ans, au profit des intercommunalités. Divers arguments plaidant pour le renforcement des intercommunalités peuvent être mis en avant.

Tout d’abord, l’intercommunalité favorise la rationalisation des coûts. L’augmentation des compétences des intercommunalités favorise une réelle mutualisation des moyens. Cette mutualisation pourrait conduire à une réduction des coûts grâce à une meilleure allocation des ressources, favorisant ainsi l’efficacité administrative et une meilleure gestion des deniers publics. En outre, l’intercommunalité, permet de créer un véritable lien de proximité. Avec une échelle plus réduite que le département, l’intercommunalité est en conséquence bien plus proche des préoccupations locales. Par conséquent, l’intercommunalité permet de répondre de manière plus précise et adaptée aux besoins de la population. Sa taille et sa flexibilité peuvent faire de l’intercommunalité un véritable laboratoire d’innovation afin d’expérimenter, de tester et déployer des solutions novatrices à une échelle moindre, avant qu’elles ne soient éventuellement adoptées à une échelle plus large.

Cependant, l’idée de la suppression du département (impliquant un transfert de compétences à l’intercommunalité) a été jugée trop complexe à mettre en œuvre. D’abord sur le fond, une telle suppression aurait impliqué un chamboulement de la machine administrative française. Puis, sur la forme, une telle suppression aurait nécessité une révision constitutionnelle, le département étant prévu à l’article 72 de la Constitution. Cependant, le paradigme disruptif apporté par le rapport Attali a été reconnu. En effet, à l’issue de sa publication, le département a vu ses prérogatives évoluer. S’il disposait jadis de la clause générale de compétence, celle-ci a été supprimée par la loi portant sur la Nouvelle Organisation Territoriale de la République du 7 août 2015, dite loi « NOTRE ». Désormais, seules les communes disposent de cette clause. En parallèle, la loi NOTRE a également permis le transfert de certaines compétences cette fois au profit de la région, notamment en matière de transports routiers, scolaires et ferroviaires.

La loi 3DS, fruit d’un compromis entre le Sénat et le gouvernement :

Essentiellement écrite par le Sénat, la loi 3 DS tente de répondre aux grands défis territoriaux précédemment évoqués (accompagnement des élus locaux, complexité de l’organisation administrative) mais plus généralement aux crises que le pays a traversées (gilets jaunes, Covid-19). Cette loi a fait l’objet d’intenses négociations entre le gouvernement et le Sénat. Lors de l’examen en commission mixte paritaire, 383 amendements ont été adoptés et le texte est passé de 83 à 158 articles. La loi renforce alors le pouvoir réglementaire des collectivités et ont donc plus de latitude pour fixer les règles qui relèvent de leur domaine de compétence. En ce sens, la loi 3 DS est une réponse au projet de loi constitutionnelle du 29 août 2019 visant à consacrer constitutionnellement le principe de différenciation des collectivités territoriales et visant ainsi à prolonger le droit d’expérimentation prévu à l’article 72 de la Constitution. La loi prévoit par ailleurs une recentralisation à titre expérimental du RSA dans les départements volontaires ainsi qu’un allègement des obligations déclaratives des élus locaux auprès de la Haute Autorité pour la transparence de la vie publique (HATVP).

Conclusion : Quelles pistes de réformes constitutionnelles permettant au Sénat de jouer pleinement son rôle de « Chambre des Territoires » :

Si la loi Notre ou 3DS ont révélé des avancées en matière de décentralisation, celles-ci restent limitées sur le fond comme sur la forme. Afin de sortir du flou juridique de la « libre-administration », le Sénat plaide alors depuis de nombreuses années pour obtenir un pouvoir de veto et pour la reconnaissance constitutionnelle d’une véritable autonomie fiscale aux collectivités territoriales.  

Sur le Pouvoir de Veto du Sénat sur les Lois Affectant de Manière Significative les Collectivités Territoriales :

La modification des articles 44 et 45 de la Constitution est envisagée pour renforcer le rôle du Sénat en tant que représentant des collectivités territoriales. Actuellement, bien que le Sénat puisse proposer et amender des lois, il n’a pas de pouvoir de veto absolu sur la législation. En cas de désaccord entre les deux chambres du Parlement, c’est l’Assemblée nationale qui a le dernier mot. L’idée serait alors d’accorder au Sénat un droit de veto ou un pouvoir consultatif accru sur les lois qui affectent directement les collectivités territoriales. Autrement dit, si une loi était proposée ayant un impact significatif sur les collectivités, le Sénat aurait le pouvoir de la bloquer ou d’exiger que ses recommandations soient prises en compte. Dans cette configuration, le Conseil constitutionnel jouerait un rôle essentiel en déterminant la notion d' »affection significative », notamment en émettant des avis.

Sur l’autonomie Fiscale des Collectivités Territoriales :

En réponse à la suppression de certains prélèvements dont les ressources revenaient aux collectivités, une modification de l’article 72-2 de la Constitution pourrait permettre aux collectivités de prélever l’impôt directement. Les collectivités pourraient alors bénéficier d’un véritable pouvoir de création d’impôts locaux et auraient plus de liberté pour fixer les taux de prélèvement dont les ressources leur reviennent, comme c’est le cas avec la taxe foncière. Ces mesures, dans leur ensemble, serviraient à renforcer l’autonomie financière et la gestion des ressources des collectivités territoriales.

https://www.publicsenat.fr/actualites/institutions/senatoriales-2023-quel-est-le-role-du-senat

https://www.publicsenat.fr/dossier/elections-senatoriales/page/4

https://www.publicsenat.fr/actualites/politique/le-senat-un-contre-pouvoir-qui-sait-aussi-collaborer-avec-lexecutif

https://www.publicsenat.fr/actualites/politique/rapports-de-force-groupes-politiques-tout-savoir-sur-les-enjeux-des-senatoriales-2023

Tocqueville et la décentralisation – Persée (persee.fr)

Réforme constitutionnelle 2019 pour un renouveau de la vie démocratique | vie-publique.fr

Loi 3DS décentralisation déconcentration collectivités locales | vie-publique.fr

untitled (vie-publique.fr)

La formation des élus, l’atout bénéf du Rassemblement national – Libération (liberation.fr)

Décentralisation : jeu de dupes entre le Sénat et le gouvernement autour de la loi « 3DS » (lemonde.fr)

Urbanisme – Etude comparative de la verticalité urbaine à Paris et New York

Si jusqu’à la fin du 19e siècle, les paysages urbains se composaient essentiellement de maisons ou d’immeubles d’une poignée d’étages, ceux-ci deviennent de nos jours de plus en plus marqués par la présence de bâtiments de très grande hauteur, que l’on nomme plus communément « gratte-ciels ». Les experts définissent un gratte-ciel comme « une tour de grande taille », sans pour autant réussir à s’accorder sur ses caractéristiques plus précisément. La société allemande de recensement des gratte-ciels Emporis émet par exemple l’avis que ceux-ci doivent mesurer au moins 100 mètres de haut et comporter plusieurs étages pour recevoir cette dénomination. D’autres sources avancent des critères plus rigoureux : par exemple, 150 mètres de hauteur pour 40 à 50 étages minimum. Il s’agit donc d’une définition assez subjective et abstraite, dont le sens peut évoluer selon l’époque et le lieu.

La présence – ou non – de tels édifices ne se fait pas n’importe où sur le territoire, comme nous le verrons dans cet article. Elle répond notamment à des attentes économiques, mais également historiques et culturelles. Loin de faire consensus, les gratte-ciels – et l’inexorable élévation des bâtisses modernes de manière générale – scindent l’opinion publique en deux camps. Les gratte ciels jouissent en effet d’une certaine popularité aux Etats-Unis ; un succès contrasté par le constat que la plupart des villes européennes continuent à les bouder. Avec pas moins de 290 gratte-ciels sur son territoire, New-York symbolise sans doute le mieux la confiance américaine dans le progrès technique et dans l’innovation en matière d’urbanisme. A l’opposé, Paris se distingue pour son urbanisme plus traditionnel, ancré dans un contexte historique bien spécifique et reconnu pour ses nombreux monuments encerclés d’immeubles Haussmanniens du 19e siècle. Les quelques grandes tours apparues sur le sol de la capitale ou à proximité le siècle passé ont, à ce titre, fait l’objet d’un traitement et d’un aménagement particuliers de la part des politiques publiques. Je tenterai donc de répondre dans cette étude comparative à la question suivante : comment expliquer la différence de représentation des gratte-ciels entre Paris et New-York ?

La création de Paris remonte aux alentours de 259 avant J.-C., lorsque la tribu des Parisii, un peuple de pêcheurs gaulois, s’installe sur la rive droite de la Seine et commence à y construire des habitations aux environs de l’actuelle île de la Cité. A l’époque, et jusqu’au Moyen-Age, la rive gauche était laissée vierge de toute construction en raison du risque de crue de la Seine, qui aurait pu engendrer des dégâts. Puis, en 52 avant notre ère, Jules César met la main sur la ville à l’occasion de sa campagne militaire en Gaulle et y fonde Lutèce. Cette nouvelle ville suit les grands standards romains de l’époque en matière d’urbanisme : elle est notamment construite autour d’un cardo maximus, désignant l’axe nord-sud majeur qui structure la cité, en l’occurrence la rue Saint-Jacques, et la plaçant au cœur de la vie économique et sociale de la cité. Le forum, placé au centre de la ville, s’étendait de la rue Saint-Jacques au boulevard Saint-Michel, et de la rue Cujas à la rue Malebranche.

Les siècles suivant la chute de l’empire romain, Paris connaît diverses invasions et incendies modifiant plus ou moins durablement sa structure. Néanmoins, la ville continue de se développer ; comme de plus en plus de monde s’y installe, Paris s’expand progressivement, notamment sur la rive droite. Ville résolument chrétienne, des églises et autres édifices religieux y voient le jour (pour la plupart encore visibles aujourd’hui) mais aussi des monuments liés au pouvoir, à la culture ou à la mémoire de Paris et de la France. La construction des habitations ne suit pas de grands plans urbanistiques, mais se fait davantage par improvisation, là où il reste de la place, donnant souvent naissance à des rues étroites et tortueuses. Tous les problèmes engendrés par cette organisation de l’espace et accentués par le temps sont corrigés par le baron Haussmann sous l’impulsion de Napoléon III dans les années 1850. Ses travaux de modernisation de Paris consistent à mettre en place un système d’égouts, faire disparaître de nombreux quartiers insalubres et construire de grandes avenues pour fluidifier la circulation. La capitale intra-muros a globalement assez peu changé depuis, malgré l’intensification des progrès techniques et architecturaux survenus au XXe siècle.

Maintenant, traversons l’Atlantique pour nous intéresser au cas nord-américain. En 1625, alors que le nouveau continent est découvert depuis déjà plus d’un siècle, des émigrés hollandais fondent New Amsterdam sur les terres des Algonquins, des populations autochtones, sur la côte Est des Etats-Unis. Quarante ans plus tard, les Anglais conquièrent la ville et la renomment New-York, en hommage au duc d’York. New-York connaît alors une croissance démographique soutenue jusqu’en 1807, date à laquelle les 123 000 habitants la composant font d’elle la plus importante ville des Etats-Unis, pays devenu indépendant vis-à-vis des Anglais quelques années plus tôt. Puis, aux XIXe et surtout XXe siècles, les Etats-Unis deviennent une destination rêvée pour de nombreux Européens et New-York accueille toujours plus d’immigrés, passant de 500 000 habitants en 1850 à 3,5 millions en 1900.

New-York se développe en réponse à cet afflux de population et les premiers gratte-ciels de l’histoire voient le jour. Entre 1900 et 1920, pas moins de 500 tours sont construites rien que sur l’île de Manhattan, symboles de la croissance économique fulgurante et de la révolution intellectuelle américaines des années folles. Parmi les plus emblématiques, le Flat Iron Building est inauguré en 1902, puis le Chrysler Building en 1930 et l’Empire State Building en 1931 qui, du haut de ses 443 mètres, s’impose comme le plus grand monument au monde de l’époque. La construction de hautes tours a notamment été rendue possible par la mise en place d’un squelette de poutrelles en fer, en lieu et place de la maçonnerie traditionnelle davantage adaptée aux bâtisses de moindre taille. D’autres innovations techniques ont également permis de construire en hauteur à moindre coût, ce qui s’est avéré économiquement profitable pour les constructeurs immobiliers. L’invention de l’ascenseur hydraulique en 1864 a aussi facilité l’attractivité des immeubles avec beaucoup d’étages.

La construction de gratte-ciels s’intensifie à New-York dans les années 60 et 70, poussée notamment par la concurrence entretenue avec Chicago. L’édification de nouveaux gratte-ciels dans le downtown avec par exemple le World Financial Center et ses deux tours jumelles dans la pointe Sud de Manhattan, achève de confirmer la prépondérance new-yorkaise sur le continent américain sur les plans économique et culturel tout au long du XXe siècle. Encore aujourd’hui, de nombreux chantiers de gratte-ciels se poursuivent à New-York, à l’instar du One World Trade Center, actuelle plus haute tour de New-York (541 mètres) ou des nouvelles « tours allumettes », tel le 432 Park Avenue (tour résidentielle).

D’un point de vue général, les villes de Paris et New-York partagent à l’heure actuelle de nombreuses similitudes. Ces deux métropoles globales bénéficient notamment d’une très forte intégration dans les réseaux de la mondialisation, les rendant immensément puissantes et attractives sur la scène internationale, à en croire les résultats du global power city index de la fondation Mori au Japon publiés en 2013. Ainsi, New-York et Paris seraient respectivement les 2e et 4e villes les mieux connectées au monde, grâce à leurs réseaux de transports et de communications (Paris souhaite notamment renforcer sa force dans ce domaine en aménageant le Grand Paris). Également, New-York se hisse à la première place en termes d’image, d’attractivité, de puissance et d’opportunités, tandis que Paris obtient également de très bons classements dans ces domaines (entre la 3e et la 5e place). La métropolisation de ces villes, à savoir la concentration du pouvoir, peut notamment s’expliquer par leur accès direct à un réseau maritime ou fluvial (l’océan Atlantique pour New-York et la Seine pour Paris), mais aussi par le processus historique de création et de développement de ces villes : Paris, la capitale, a hébergé le pouvoir politique du pays pendant des siècles, tandis que New-York constituait la première terre d’accueil des migrants européens après leur passage par Ellis Island.

Néanmoins, de nombreuses divergences apparaissent également entre ces deux « villes-monde », notamment d’un point de vue architectural et urbanistique. Là où Paris se compose majoritairement d’immeubles haussmanniens – conséquence d’une volonté des dirigeants de moderniser la capitale tout en respectant son patrimoine historique – le paysage urbain de New-York est, quant à lui, davantage construit en vertical, en atteste la Skyline, symbole du modernisme et du rêve américain. New-York ayant vu le jour bien plus récemment que Paris, la présence de gratte-ciels lui a permis en un sens de se créer un style urbanistique original, sans pour autant dénaturer une quelconque architecture qui aurait déjà été établie.

Pour autant, la construction de gratte-ciels ne peut pas se résumer à une simple recherche esthétique pour renforcer le soft power new-yorkais. L’engouement pour les gratte-ciels à New-York et aux Etats-Unis dès le début du XXe siècle reflète l’évolution de la société américaine de l’époque. En effet, la mutation d’une grande partie de la classe ouvrière en cols blancs et la place toujours plus importante des entreprises de service dans l’économie new-yorkaise conduisent à la prolifération de gratte-ciels, servant de centres décisionnels des grandes entreprises. Ces tours permettent ainsi de concentrer de nombreux bureaux en très peu d’espace, afin de densifier les lieux économiques stratégiques. La Skyline new-yorkaise, désignant cette nouvelle chaîne de tour au cœur de la ville, reflète alors la compétitivité des entreprises. Le géographe Le Goix définit cet espace urbain comme une « cité du contrôle », composé de CBDs, de bureaux et d’espaces contrôlés et sécurisés.

Abriter des gratte-ciels sur son territoire constitue en effet un enjeu stratégique majeur pour de nombreuses villes contemporaines dans le monde, notamment aux Etats-Unis, mais aussi en Chine, à Taïwan ou aux Emirats Arabes Unis. De tout temps, la course à la hauteur obsède les hommes, non seulement dans un souci de prestige, mais aussi afin de se rapprocher des cieux et donc de Dieu, comme le montre la construction de cathédrales. De nos jours, la conquête du ciel continue et se rapproche de son dessein avec l’édification de tours toujours plus hautes. D’un point de vue pratique, les gratte-ciels répondent au problème du manque d’espace urbain et à l’inflation foncière engendrée dans les villes à forte densité. Cet argument ne peut néanmoins pas nous satisfaire lorsque l’on a conscience du fait que New-York est moins dense que Paris, et ce malgré ses nombreuses tours. New-York est en effet beaucoup plus étalée, notamment parce qu’occuper le centre ne constitue pas une priorité pour les populations, qui ont tendance à s’installer en banlieue et à prendre leur voiture tous les matins pour se rendre au travail dans le centre (migrations pendulaires).

Les gratte-ciels présentent en effet également un enjeu de pouvoir majeur. Leur architecture doit notamment servir de démonstration de richesse et de capacité d’investissement, mais aussi de maîtrise technologique et de dynamisme économique et industriel de la part de leurs constructeurs. L’objectif pour l’entreprise est d’envoyer une image positive d’elle-même, de la ville ou du pays, afin d’attirer les visiteurs et les investisseurs étrangers. Ainsi, à New-York, la Skyline reflète la réussite économique de la ville, boostant l’attractivité de cette dernière et contribuant à la hisser au top des classements internationaux. Cette chaîne de tours mondialement connue, véritable outil de construction identitaire, constitue à ce jour l’une des caractéristiques majeures de New-York attirant chaque année des millions de touristes. Les gratte-ciels peuvent aussi permettre aux entreprises en leur possession de se distinguer de leurs concurrents et de se construire une image de marque. En outre, de nombreuses œuvres cinématographiques, comme King-Kong paru en 1933, ont indirectement mis à l’honneur certains gratte-ciels (ici, l’Empire State Building) et contribué à leur forger une solide réputation.

Malgré les avantages énumérés plus haut apportés par les gratte-ciels, de nombreuses capitales et grandes villes européennes refusent d’en construire sur leur sol. C’est le cas notamment de Paris qui, à cause de sa très forte densité de population, ne dispose plus de l’espace suffisant pour accueillir de gigantesques tours. La seule solution consisterait à détruire certains immeubles ou monuments pour libérer de la place, une action qui rencontrerait naturellement un fort mouvement de protestation des habitants concernés et des défenseurs de l’architecture parisienne. Au contraire de New-York, Paris s’est construite à une époque à laquelle les avancées techniques ne permettaient pas de construire de grandes tours, au risque qu’elles s’effondrent. Également, le besoin d’optimisation d’espace se faisait moins ressentir à l’Antiquité et au Moyen-Age dans la capitale : elle accueillait moins d’habitants et pouvait toujours s’agrandir en cas de besoin. Aujourd’hui à New-York, les locaux et appartements dans les gratte-ciels ont l’avantage de coûter moins cher en raison de leur offre importante dû au gain d’espace. A noter aussi que certains sols parisiens trop friables ne pourraient pas supporter les fondations de colosses de verre ou de béton.

Paris ne souhaite pas non plus de « Bruxellisation » de son territoire, c’est-à-dire de transformation brutale de son patrimoine urbain par la dissémination de grandes tours un peu partout, afin de préserver son paysage et son patrimoine culturel et historique. Ce terme fait référence à l’expérience vécue à Bruxelles où, dans les années 60, le manque de restrictions concernant l’uniformisation de l’architecture a conduit à l’édification de bâtiments modernes, voire de tours, à faible valeur esthétique au milieu d’habitations plus traditionnelles. A une époque où le tourisme se développe à grande échelle grâce à la moyennisation de la société française depuis plusieurs décennies et de la hausse des standards de vie des habitants dans de nombreux pays du monde (par exemple la Chine), il convient pour Paris de rester culturellement attractive. Rien qu’en 2019, Paris et la région Ile-de-France ont accueilli 50,6 millions de visiteurs, principalement venus pour visiter des musées et des monuments (69%), se promener en ville (67%) et faire du shopping (39%), générant 21,9 milliards d’euros de recettes. Paris est la 6e ville la plus touristique du monde grâce à son importante offre culturelle, mais aussi grâce à l’atmosphère qu’elle souhaite véhiculer : celle d’une ville romantique chargée d’histoire. Construire des gratte-ciels en plein centre-ville dénaturerait les lieux, en plus de transmettre une image de modernisme conformiste contraire aux attentes des touristes.

Néanmoins, il serait faux d’affirmer que la capitale a refusé toute construction de gratte-ciels : le quartier de la Défense, en périphérie de Paris, en est le contre-exemple parfait. Chaque matin, l’équivalent de la ville de Reims débarque à la Défense, actuellement le plus grand centre d’affaires d’Europe en termes de superficie, pour y effectuer sa journée de travail. La Défense héberge pas moins de 500 entreprises, dont les sièges sociaux de très grandes comme Total, et 61 tours de plus de 100 mètres de hauteur, ce qui fait de ce centre d’affaires le 4e le plus compétitif du monde derrière ceux de Londres, New-York et Tokyo. Au fur et à mesure du développement du quartier dans la seconde moitié du XXe siècle, les plafonds des hauteurs des bâtiments sont réhaussés par l’EPAD (établissement public visant à aménager la Défense), suscitant la colère d’une partie de l’opinion publique qui juge les tours trop hautes et trop visibles depuis Paris intra-muros. De nombreux projets ont notamment été avortés pour des raisons financières mais également politiques, l’opinion française se montrant souvent défavorable à l’érection d’immeubles de grande hauteur. Finalement, le quartier de la Défense reflète la puissance économique de Paris – développée plus haut – et de la France en général, sans pour autant dénaturer le patrimoine historique de la capitale en s’implantant en plein cœur de la ville.

En fin de compte, les villes de New-York et Paris ont suivi des trajectoires très différentes. Si la première fait des gratte-ciels et de la modernité en général le fer de lance de son développement économique et de son pouvoir d’attraction, la seconde mise davantage sur son héritage historique et son architecture authentique pour séduire autant les touristes que les investisseurs. Un compromis semble cependant avoir été trouvé par la capitale ces dernières décennies entre préservation de son patrimoine millénaire et nécessité de compétitivité des entreprises nationales contemporaines, avec l’élaboration du quartier d’affaires de la Défense. Dans un contexte de réchauffement de la planète, construire en hauteur peut en outre éviter l’étalement urbain et permettre une moindre utilisation des transports (proximité des activités) et donc émettre moins de CO2.

Mener cette recherche m’a permis de mieux comprendre les enjeux contemporains liés à la construction de gratte-ciels. Loin de répondre seulement à une logique de réduction des coûts dans un contexte de forte densité urbaine, les gratte-ciels servent aussi et surtout à impressionner celui qui pourrait potentiellement constituer le client de l’entreprise ou de la ville/du pays. C’est pour cette raison que les architectes redoublent d’imagination pour offrir à notre vue des tours toujours plus hautes, mais aussi plus originales. Il n’est plus rare d’observer de nos jours des gratte-ciels torsadés, construits en bois, en forme de U, d’ADN ou de pointe de stylo plume… La Dynamic Tower de Dubaï, une fois achevée, pourra même tourner sur elle-même ! Cette démarche m’a également appris l’importance du contexte historique dans les choix des politiques publiques en matière d’urbanisme. New-York doit notamment sa forte concentration de gratte-ciels sur son sol en raison de sa création tardive : la construction de tels édifices, loin d’altérer l’essence de la ville, est venue accompagner son évolution économique et démographique vers la voie de la modernité.

Bibliographie :

  • Firley Eric, Honnorat Philippe, et Taudière Isabelle. La tour et la ville : manuel de la grande hauteur. Marseille : Parenthèses. 2011.
  • Flowers, Benjamin Sitton. Skyscraper the politics and power of building New York City in the twentieth century. Philadelphia : University of Pennsylvania Press. 2009.
  • Bourdeau-Lepage, Lise. « Introduction. Grand Paris : projet pour une métropole globale », Revue d’économie régionale et urbaine (ADICUEER (Association)). 2013, août no 3. p. 403‑436.
  • Turquier, Barbara. « L’édification du gratte-ciel, motif du cinéma d’avant-garde américain », Transatlantica. 2011, vol.2.
  • Didelon, C. « Une course vers le ciel. Mondialisation et diffusion spatio-temporelle des gratte-ciel », Mappemonde (2000-2003). 2010, vol.3 no 99. p. 1‑17.
  • Ahlfeldt, Gabriel M. et Jason Barr. « The economics of skyscrapers: A synthesis », Journal of urban economics. 2022, vol.129. p. 103-419.
  • Barr, Jason. « Skyscrapers And Skylines: New York And Chicago, 1885-2007 », Journal of regional science. 2013, vol.53 no 3. p. 369‑391.

1987 : Quand la déconnexion avec les réalités économiques atteint son paroxysme

Lundi 19 octobre 1987 : l’indice Dow Jones perd 22,6 % de sa valeur, soit la pire séance jamais enregistrée pour Wall Street. Surnommé « the black Monday », ce krach n’a paradoxalement pas eu de répercussions immédiatement néfastes sur l’économie réelle, contrairement au krach de 1929. Cette crise a été causée par des phénomènes macroéconomiques, tels que les variations de taux de change avec le dollar mais également par des nouvelles innovations qui sont mises en application sur les marchés financiers tels que les algorithmes de trading. Dans ce reportage, nous allons nous pencher précisément sur les facteurs de cette crise, mais également analyser la réponse de la FED.

Une conjoncture précédant la crise marquée par des variations importantes du dollar

Une politique désinflationniste initiée par Paul Volcker :

Il convient de rappeler le contexte de cette crise. Dans les années 1970, l’économie américaine est marquée par la stagflation, c’est-à-dire une forte inflation combinée à une faible croissance. La fin de la convertibilité or-dollar, décidée par Richard Nixon le 15 août 1971, a entrainé la mise en place d’un système de changes flottants, faisant évoluer la valeur des monnaies selon l’offre et la demande. Ce système s’est révélé pervers pour les Etats-Unis puisque le dollar a été confronté à plusieurs dévaluations, générant de l’inflation. Cette inflation a également été causée par les chocs pétroliers de 1973 et 1979, faisant passer de 1,3 à plus de 30 dollars le prix du baril entre le début et la fin des années 1970, ce qui a lourdement impacté la production des entreprises du secteur secondaire. Si l’on donne des chiffres précis, le taux d’inflation en 1974 était aux alentours de 10 % et le taux de croissance était de -2 %, soit à un niveau négatif. En août 1979, Paul Volcker est nommé par Jimmy Carter président de la FED. Il mène alors une politique de lutte contre l’inflation, afin de redonner de la valeur au dollar. Pour cela, il fait passer les taux au jour le jour de 11 % à plus de 20 %, c’est-à-dire que le prix de l’argent prêté par la Banque centrale américaine aux établissements de second rang pendant 24 heures étaient de plus de 20 %, ce qui limitait forcément la création monétaire en dollars, entrainait sa rareté et par conséquent augmentait sa valeur. La création monétaire prévue pour le rachat de devises étrangères devenait par conséquent plus limitée.

Une désinflation excessive :

Sur un plan purement monétaire, cette politique, s’est révélée efficace : en 1980, le taux d’inflation était d’environ 14 %, il n’était plus que de 3 % en 1983. Cette appréciation fulgurante du dollar au détriment des autres monnaies qui se voyaient alors dévaluées a alors débouché sur un accord monétaire entre les principaux pays du G7 (Etats-Unis, Royaume-Uni, France, Japon et RFA) le 22 septembre 1985, les Accords du Plaza. Plusieurs milliards de dollars sont injectés sur le marché monétaire, ce qui fait baisser mécaniquement sa valeur. Ainsi, à la fin de l’année 1986, le dollar avait effacé tous ses gains et avait retrouvé son niveau de 1979. Les accords du Plaza, censés limiter l’appréciation du dollar, ont eu des effets excessifs, dans le sens qu’ils ont créé un cercle vicieux inflationniste pour le dollar. Pour contrer cette nouvelle dépréciation du dollar, les pays du G5, accompagnés du Canada optent pour la stratégie inverse de celle conclue au Plaza, en signant les Accords du Louvre le 21 et 22 février 1987, correspondant à une politique de renforcement de la valeur du dollar. Cependant, ces accords ne parviennent pas à enrayer la dépréciation de la monnaie américaine. L’échec de cet accord, a alors des conséquences sur les rendements du marché obligataire américain. En effet, la hausse de l’inflation, entraine une diminution des taux d’intérêts réels, qui rappelons-le se calcule approximativement par le taux d’intérêt nominal soustrait du taux d’inflation. Par conséquent, durant les mois précédent le krach, les taux d’intérêts nominaux ont augmenté considérablement, le bond du trésor américain sur 10 ans atteint 9,5 %. La dépréciation du dollar a des effets bénéfiques sur la croissance et permet de dynamiser les exportations. En effet, si la valeur du dollar diminue par rapport au franc par exemple, il faudra moins de francs pour obtenir un bien en dollars, ce qui les produits américains plus compétitifs. Cependant, cette hausse de la compétitivité des produits américains ne permet pas de compenser les pertes causées par la dévaluation du dollar, ce qui se traduit par une hausse du déficit commercial. L’annonce des chiffres du déficit commercial américain le 16 octobre est d’ailleurs considérée comme l’un des principaux éléments déclencheurs du krach.

Une crise endogène

Une crise favorisée par la dérégulation :

Par la suite, il est nécessaire de comprendre le contexte de l’époque. Depuis l’arrivée au pouvoir de Ronald Reagan en 1981, les Etats-Unis connaissent une période de libéralisation, dans le sens d’un recul voire d’une absence d’intervention de l’état sur les marchés financiers. Cette politique favorise alors le développement de produits financiers ou de nouvelles opérations. Par la suite, des opérations font leur apparition grâce à l’informatisation de la finance, marquée par les débuts des programmes de trading. Des algorithmes avaient été créés et programmaient des ordres de vente et d’achat automatique. Les programmes fonctionnaient alors avec des stop loss, c’est-à-dire des ordres de vente automatique afin de protéger le capital. Cependant, à cette époque, étant donné que les programmes étaient encore peu développés et similaires, leur fonctionnement avait alors tendance à intensifier les fluctuations des cours de bourse, notamment baissières. L’autre apparition importante était celle de la portfolio insurance, dont l’objectif était de protéger le capital des investisseurs. L’idée est d’organiser une fusion entre un portefeuille d’actions et un contrat de vente, une option put. En cas de croissance du marché les gains générés étaient moins importants que la hausse des cours, du fait de la perte de la prime dans le cadre de l’option. Pour en connaître plus sur le système des options, je vous invite à regarder la vidéo consacrée à ce sujet. L’avantage était que si les gains en cas de hausse du marché étaient moins importants, les pertes en cas de baisse étaient amoindries par la prime de l’option. Il s’agissait en fait d’un arbitrage visant à répartir les risques.

Un stop-loss ayant favorisé une crise uniquement financière :

Le stop-loss était marqué par des inconvénients pour les investisseurs. Le premier était qu’à cette époque, le marché de ce type de produits était oligopolistique, ce qui mettait les établissements bancaires dans une position de Price Maker et non de Price Taker comme sur un marché concurrentiel. En effet, sur un marché concurrentiel, caractérisé par une atomicité de l’offre et de la demande, les acteurs, nombreux et étant des atomes, ne pouvaient pas avoir d’influence sur le marché et par conséquent, infléchir les prix à la hausse ou à la baisse. Par conséquent, à cette époque, les établissements bancaires fixaient en quelque sorte à leur guise les conditions du marché, comme le montant de la prime ou les conditions d’échéance. Ainsi, en cas de baisse massive des cours, l’investisseur par ces conditions de marché peu avantageuses, n’a pas son capital réellement protégé et c’est ce qui s’est produit durant le krach d’octobre 1987. Les réponses institutionnelles ont été immédiates. La FED, la banque centrale américaine, joue son rôle de prêteur en dernier ressort et inonde le marché de liquidités. Mais la particularité de ce krach est que les conséquences immédiates sur l’économie réelle sont quasiment nulles. En effet, le taux de croissance en 1987 était de 3,5 % et a même connu une accélération l’année suivante en grimpant en 1988 à 4,2 %. Après le krach, les autorités ont décidé de réguler le fonctionnement des programmes de trading, avec l’instauration de coupe-circuit, en cas de baisse brutale des cours. Cependant, à plus long-terme, à l’aube des années 1990, face à l’inflation engendrée par la politique de la FED, cette dernière a alors été contrainte de relever ses taux, ce qui a ralenti la croissance de l’économie américaine. De 3,5 % en 1989, elle s’élevait à 4,2 % l’année précédente.

Cet épisode de 1987 révèle les effets néfastes qu’engendre la dérégulation et l’absence d’intervention de l’état sur les marchés. Cette libéralisation, qui a débuté sous Nixon avec la fin des taux de change fixe, a engendré un bouleversement du marché monétaire mondial et le dollar a connu successivement des phases de dévaluation et de renforcement, qui a impacté également les autres monnaies ainsi que le pouvoir d’achat des ménages. Puis, avec l’arrivée au pouvoir de Reagan, les Etats-Unis connaissent durant les années 1980, une période de dérégulation financière et d’euphorie sur les marchés. Les autorités publiques, refusant de reconnaitre le risque de formation d’une bulle spéculative, laisse cette dernière éclater. Paradoxalement, le marché était tellement déconnecté avec les réalités économiques, que l’impact sur l’économie réelle sera minime, mais cette chance ne sourit pas toujours, comme l’ont révélé les épisodes de 1873 et de 1929 ou plus récemment de 2007 et de 2011.

https://www.edubourse.com/guide-bourse/krach-1987.php

https://www.lefigaro.fr/flash-eco/2012/10/19/97002-20121019FILWWW00596-le-krach-de-1987-c-etait-il-y-a-25-ans.php

https://www.lesechos.fr/2017/10/krach-du-19-octobre-1987-le-jour-ou-wall-street-sest-effondre-184501

http://www.fb-bourse.com/krach-boursier-1987/

https://fr.statista.com/statistiques/564926/prix-annuel-du-petrole-de-l-opep-1960/

https://www.francetvinfo.fr/replay-radio/histoires-d-info/quand-la-fed-remontait-ses-taux-a-20_1791297.html

https://fr.wikipedia.org/wiki/Krach_d%27octobre_1987

https://fr.tradingeconomics.com/united-states/gdp-growth-annual

https://fr.tradingeconomics.com/united-states/inflation-cpi

https://fr.wikipedia.org/wiki/Récession_du_début_des_années_1990

Aux origines du krach de 1873

9 mai 1873 : l’euphorie sur les marchés boursiers touche à sa fin. La bulle immobilière qui s’était formée depuis les années 1860 éclate. La bourse de Vienne, berceau de la crise perd ce jour-là 30 % de sa valeur. Ce krach plonge alors le monde occidental dans une phase récessive. Les historiens s’accordent à dire que cette période débute en mai 1873 et se termine en 1896, et considèrent cet intervalle de temps comme la première « Grande Dépression ». Durant cette période, la France connaitra également un autre krach en 1882, considéré même comme plus violent que celui de 1873. Le krach de Vienne ou plus largement l’insouciance et la frivolité de cette période ont d’ailleurs été source d’inspiration et de dénonciation chez les intellectuels, à l’image de Johann Strauss avec son opérette en trois actes « La Chauve-Souris » paru en 1874, ou encore Emile Zola avec son roman « La Curée » en 1871. A travers cet article, nous allons nous pencher sur l’origine et la propagation de ces crises de la fin XIXème siècle, mais également nous intéresser aux conséquences sur l’économie réelle.

Une crise provoquée par différents mécanismes

Un krach favorisé par une politique industrielle libérale :

La Révolution industrielle, qui commence à l’aube du XIXème siècle a engendré une expansion économique et une urbanisation qui s’accélèrent au cours du milieu du XIXème siècle. Cette urbanisation est d’abord dopée par des innovations telles que le procédé Bessemer, conçu en 1855 par l’industriel britannique Henry Bessemer. Cette technique a permis une réduction importante du coût de fabrication de l’acier, tout en garantissant une résistance bien meilleure que celle du fer. Ce procédé a alors permis la multiplication des réseaux de chemins de fer mais également le développement urbain puisque l’acier était employé pour les façades des immeubles qui sortent de terre. Ces aménagements du territoire favorisent le dynamisme des échanges et l’émergence de nouveaux centres mondiaux dans une économie marquée par les balbutiements de la financiarisation. A Paris, cette urbanisation galopante a débuté sous le Second Empire avec les réformes du préfet de la Seine, le Baron Georges Eugène Haussmann. Il fait construire des immeubles modernes, dans un style que l’on qualifiera par la suite d’hausmmanien. Ces immeubles d’un nouveau genre, bénéficient d’un phénomène de mode et sont utilisés pour réaliser des plus-values spéculatives. Le secteur de l’immobilier attire alors des investissements, financés en grande partie par des banques et des fonds d’investissement, comme les frères Pereire qui sont par exemple à l’origine de l’aménagement du quartier Monceau dans le dix-septième arrondissement de Paris. En Allemagne, cette période d’expansion urbaine qui s’accompagne d’une croissance économique forte de plus de 5 % par an est qualifiée de « Gründerzeit ». L’emballement des investisseurs est également intensifié par les dividendes à deux chiffres que proposent les banques, notamment la Deutsche Bank en Allemagne. La banque joue alors un rôle double dans cette crise. D’une part en finançant à outrance les projets immobiliers dans les grandes capitales européennes de l’époque, elle participe à l’alimentation de la bulle spéculative immobilière et d’autre part, avec des dividendes très attractifs, incitant les investisseurs à acheter des actions de ces banques uniquement pour son rendement et non en fonction d’une véritable solidité financière, ce qui alimente également une bulle dans le secteur bancaire. En Allemagne et en Autriche, cette euphorie est plus intense qu’en France. En effet, en 1873, la France ne s’est pas encore vraiment remise de la défaite de 1870 face à la Prusse. Le 4 décembre 1871, le parlement allemand, le Reichstag, vote la loi monétaire obligeant la France à verser 5000 milliards de francs, soit l’équivalent de cinq milliards de francs. Cette injection de liquidités vers l’Allemagne va se révéler profitable dans l’immédiat et va permettre de financer de vastes projets d’urbanisation et de construction de réseaux ferroviaires. Mais ces investissements à outrance, vont entrainer l’alimentation de bulle spéculative dans ces secteurs, l’utilisation de ces réparations financières va se retourner contre son bénéficiaire. La loi monétaire a donc eu un rôle non-négligeable dans l’alimentation de la bulle. La prospérité à court-terme et la bulle spéculative qui caractérisent l’économie allemande a également des répercussions similaires dans d’autres pays. En effet, cette période est marquée par l’essor des théories libérales d’économistes comme Adam Smith ou David Riccardo, estimant que le libre-échange est un jeu « gagnant-gagnant ». Les économies deviennent de plus en plus ouvertes et de ce fait de plus en plus interdépendantes. Ainsi, l’Autriche et l’Europe d’une manière générale profitent en quelque sorte de la prospérité de l’Allemagne et de l’optimisme de ses investisseurs. L’alimentation de la bulle immobilière prend une ampleur telle que durant l’année qui avait précédé le krach, les prix de l’immobilier dans les capitales européennes avaient plus que doublé. Par ailleurs, la spéculation intervient également dans le secteur ferroviaire, qui profite également d’innovations telles que le procédé Bessemer. Aux Etats-Unis, le krach de mai 1873 entraîne la quasi-faillite de la Northern Pacific Railway. La situation financière de l’entreprise s’était d’ailleurs aggravée avec la faillite de son créancier, la banque Jay Cook le 18 septembre 1873. Pour survivre à la crise, la Northern Pacific avait été contrainte d’opter pour un plan d’austérité, dans une Amérique en pleine récession. Dans cette situation particulière, la compagnie était confrontée à d’importants retards de pose de rails. Ces poses de rails, qui passaient dans des territoires indiens avaient entrainé de violents combats entre l’armée américaine qui escortait la compagnie et les amérindiens, ces derniers voyant ici une atteinte à la souveraineté de leur territoire.

Des signaux annonciateurs  :

D’une manière générale, il avait été déjà constaté un essoufflement de la frénésie des investisseurs dans le secteur ferroviaire, au début des années 1870, la croissance de la production commençait déjà un ralentissement. Cette crise est donc liée à un trop-plein d’investissement engendrant une surproduction. Ce surplus d’offre est également visible dans le secteur primaire. A cette époque, certains pays développent à grand pas leur agriculture et bénéficie d’un avantage comparatif du fait de leur main-d’œuvre peu coûteuse. C’est le cas de l’Argentine, du Canada, de l’Argentine ou de la Russie. Ce surplus d’offre a alors entrainé une baisse des prix des matières agricole sur le marché, ce qui a impacté une part non-négligeable de la production en Europe de l’Ouest. A cette époque, le secteur primaire représentait encore une part importante de la richesse créée dans les pays les plus développés. A titre d’exemple, 50 % de la population française vivait de l’agriculture en 1870. L’ensemble de ces faits a permis l’alimentation et l’éclatement de la bulle boursière et immobilière. Si la crise boursière a lieu en mai 1873 en Europe, elle éclate seulement en septembre de la même année aux Etats-Unis. Le krach entraine la fermeture de Wall Street du 20 au 30 septembre 1873. Les conséquences socio-économiques sont considérables dans l’économie réelle. Le krach de 1873 entraine une paupérisation de toutes les classes sociales, en particulier le monde ouvrier, confronté à une augmentation importante du taux de chômage. Cette apparition du chômage de masse peut s’expliquer par les plans d’austérité voire les faillites d’entreprises du secteur industriel, entrainant dans les deux cas des licenciements massifs voire des baisses de salaire. A cette époque, les états n’intervenaient pas sur le marché du travail, ce marché était par conséquent purement concurrentiel. Or, sur un marché concurrentiel l’offre est faite par les travailleurs et la demande par les entreprises. Et si la demande se contracte, on assiste à une offre supérieure à la demande, ce qui provoque un volume d’offre non-satisfaite, donc du chômage et une pression baissière des prix du marché, soit une baisse des salaires.

Une situation particulièrement tendue en France

Une récession prolongée en France :

Mais la récession en France s’est prolongée par le krach de janvier 1882. Considéré comme le krach le plus violent du XIXème siècle en France, l’élément déclencheur de cette crise est la faillite de l’Union Générale, une banque en pleine expansion à cette époque. Cette crise est corrélée avec une asymétrie de l’information puisque les investisseurs ne disposaient d’informations fiables au sujet d’opérations financières ou de données relatives à la santé financière de l’Union Générale. Initialement, l’Union Générale avait vu le jour en 1875 mais c’est à partir de l’arrivée en 1878 d’Eugène Bontoux, ancien banquier chez Rothschild, que la banque connaît un développement remarquable. Eugène Bontoux organise des opérations d’augmentation du capital de la banque, le faisant passer de 25 millions à son arrivée en 1878 à 100 millions de francs en 1881. La banque finance alors des projets d’infrastructure ferroviaire ou minière en France mais également en Autriche, dans les Balkans ou au Moyen-Orient, que la presse se charge de relayer. Cette bonne publicité, faites par des journaux financiers tels que « La Finance » ou « Le Clairon » suscite alors un certain engouement autour de l’Union Générale. Le prix de l’action est multiplié par six entre 1878 et la veille du krach, passant de 500 à 3000 francs. Cependant, la gestion de l’Union Générale était caractérisée par certaines irrégularités. Le bilan de certaines années pouvait être falsifié, les publications de résultats annuels pouvaient être des estimations optimistes et pouvaient être par conséquent déconnectés de la réalité. Les opérations d’émissions de nouvelles actions passaient par des pratiques visant à gonfler artificiellement le cours. En effet, certains anciens actionnaires pouvaient bénéficier d’achat d’actions à tarif préférentiel, à un prix trois ou quatre fois inférieur à celui du cours. D’une manière concrète, un bon nombre d’actions qui valaient par exemple 2000 francs n’ont été acheté que pour seulement 500 francs. Le problème est que le marché n’étant pas au courant de cette pratique, celui-ci a alors intériorisé l’idée que toutes les actions ont été achetées au prix fort, et que la banque est donc jugée par les investisseurs comme solide. En janvier 1882, le marché se rend compte de cette surévaluation. Entre le début et la fin du mois, le cours passe de 3000 à 500 francs et la banque, en défaut de paiement, est contrainte de faire faillite. Cette faillite entraine une crise systémique dans le secteur bancaire, d’abord parce que l’Union Général était un acteur important et d’autre part car le secteur bancaire va subir les conséquences de la méfiance des investisseurs. En effet, à cette époque la plupart banques ne faisaient pas de stricte séparation entre ses services de dépôt et d’investissement. Cette porosité a entrainé dans l’essor des financements non monétaires. En effet, étant donné que les banques ont un pouvoir limité de création monétaire ex-nihilo, c’est-à-dire à partir de rien, les banques ont alors financé un bon nombre d’investissements par financement non-monétaire, c’est-à-dire en prenant sur l’épargne de particuliers. A l’issue du krach, les particuliers se rendant comptant de la fébrilité du système bancaire avaient alors demander à ce que leur épargne soit retirée des banques. Ce mouvement de panique des investisseurs a entrainé la faillite de nombreuses établissements bancaires.

Des conséquences socio-politiques notables en France :

Dans cette situation, les banques n’ont pas pu rembourser l’intégralité des dépôts des particuliers et ont été contraintes d’arrêter net leurs investissements ferroviaires, miniers ou urbains. Cela a donc entrainé une baisse de la valeur de l’épargne de la population qui a alors dû moins consommer, et en parallèle les entreprises financées par les banques ont vu leur approvisionnement de liquidités s’arrêter net. Les entreprises ont dû licencier massivement, ce qui a créé du chômage, encore moins de consommation, il s’agit d’un cercle vicieux. Ce contexte économique tendu a alors été facteur d’instabilité politique en France. Le nouveau régime de la IIIème République doit faire face aux mouvements socialistes, constitués essentiellement d’anciens communards mais également d’anarchistes. L’une des têtes de cette contestation grandissante dans les années 1870 et 1880 est Louis Michel. Ancienne figure de la Commune, elle est condamnée par la suite à l’exil en Nouvelle-Calédonie. De retour en France métropolitaine en 1880, elle devient le porte-parole du mouvement anarchiste de l’époque. Les actions qu’elle mène dans les années 1880 sont inspirées des méthodes violentes et révolutionnaires de la Commune. Le 9 mars 1883, elle organise une manifestation pour les « sans-travail » avec Emile Pouget, créateur du journal anarchiste le Père Peinard. Cependant, cette manifestation tourne en émeute et se solde par des pillages de boulangerie et une intervention des forces de l’ordre, afin de mettre fin aux troubles. En parallèle, certains anarchistes se tournent vers des actions encore plus violentes, comme en témoigne la série d’attentats anarchistes du début des années 1890. Au printemps 1892, François Konigstein, surnommé « Ravachol » organise une série d’attentats à la bombe. Le 9 décembre 1893, Auguste Vaillant lance dans la chambre des députés une bombe chargée de clous. L’anarchisme s’en prend même aux plus hautes figures de l’état. Le 24 juin 1894, le président de la République Saadi Carnot est poignardé par l’anarchiste italien Sante Geronimo Caserio. Ce dernier meurt de ses blessures quelques jours plus tard. Ce climat délétère est fortement corrélé avec la situation économique de la période en France, marquée par la paupérisation des classes populaires. Le milieu ouvrier ne croit plus à la capacité de la République à améliorer leur sort. La IIIème République s’était surtout appuyée sur les milieux intellectuels et libéraux, mais pas sur la classe ouvrière. Sur le plan politique, la récession favorise la montée de Jules Guesdes, initialement anarchiste mais qui devient par la suite collectiviste. Il prend alors la tête du Parti ouvrier en 1879 qui devient le Parti ouvrier de France en 1882 et montre son opposition farouche à l’économie de marché et au capitalisme financier.

https://www.lemonde.fr/la-crise-financiere/article/2008/10/10/les-krachs-boursiers-une-vieille-histoire_1105364_1101386.html

https://www.cairn.info/revue-economique-2010-3-page-421.htm#

https://fr.wikipedia.org/wiki/Union_générale

https://lexpansion.lexpress.fr/actualite-economique/comment-le-credit-lyonnais-devint-sage_1329993.html

https://fr.wikipedia.org/wiki/Krach_boursier_de_1882#cite_note-5

https://www.lemonde.fr/economie/article/2013/06/14/le-krach-de-1873-et-la-grande-depression_3430247_3234.html

https://www.edubourse.com/guide-bourse/krach-vienne-1873.php

http://www.fb-bourse.com/le-krach-boursier-de-1873/

Cyberattaques : vers une numérisation des conflits actuels ?

Le nombre de cyberattaques criminelles a explosé dans le monde ces dernières décennies. Rien qu’en France, d’après l’ANSSI (Agence nationale de la sécurité des systèmes d’information), elles ont été multipliées par quatre en 2020 par rapport à 2019. Celles-ci se traduisent par des conséquences souvent dramatiques pour les victimes, comme la paralysie des systèmes, le vol ou la perte de données sensibles ou l’exposition au chantage. Pour les spécialistes, s’il est compliqué de définir précisément en quoi consiste une cyberguerre, ils s’accordent à dire que ces nouvelles méthodes conflictuelles remontent à la création d’Internet, au début des années 1990. A cette époque, Internet est vite repris par les gouvernements et donc par des militaires, soucieux de faire évoluer leur arsenal de guerre au gré des innovations technologiques. Aujourd’hui, il n’existe aucun classement mondial des meilleurs pays en matière d’hacking, notamment parce que de nombreuses activités malveillantes s’effectuent dans l’ombre ; néanmoins, pour ne citer que quelques noms, la Russie se distingue par sa culture du hacking et par la protection gouvernementale dont bénéficient ses hackeurs, de même que la Chine, Israël, les Etats-Unis et la Corée du Nord. Dans cet essai, j’expliquerai en quoi consistent les cyberattaques et je montrerai de quels avantages économiques, diplomatiques et juridiques elles bénéficient – comparativement aux moyens plus traditionnels utilisés par les belligérants d’antan – justifiant le nombre grandissant de leurs lancements ces dernières années. Je déterminerai également quels objectifs stratégiques recherchent les groupes cybercriminels, qu’ils soient privés ou étatiques, notamment par l’intermédiaire de l’analyse de cyberattaques récentes lancées depuis des pays comme la Chine ou la Russie.

Fonctionnement et portée des cyberattaques

La cyberattaque peut se définir comme tout type d’action offensive à l’encontre d’une infrastructure informatique, s’appuyant sur diverses méthodes pour voler, modifier ou détruire des données ou des systèmes informatiques. Les profils des acteurs de la cybercriminalité sont assez variés : selon le Verizon’s Data Breach Investigations Report, la majorité des attaques sont initiées principalement par des inconnus ou des groupes criminels organisés, mais aussi par des initiés, des partenaires d’entreprises et des groupes affiliés.

De nombreuses méthodes d’hacking existent à ce jour. Parmi les principales : l’attaque par déni de service, qui permet de mettre un système informatique hors service en le submergeant d’informations extérieures ; le « phishing » consistant à envoyer des mails qui semblent venir de sources fiables pour subtiliser les données personnelles des utilisateurs ; le vol de mots de passe ; les attaques par écoute illicite, qui s’apparentent à de l’espionnage ; enfin, l’attaque par des logiciels malveillants (ou « malware »), qui s’effectue lorsqu’un logiciel malveillant est installé dans un système informatique sans accord au préalable et qu’il infecte des applications, dont certains comme le ransomware qui bloquent l’accès aux données de la victime et menacent de les supprimer ou de les publier à moins qu’une rançon ne leur soit versée.

Selon Baptiste Robert, expert français en cyberdéfense, les entreprises comme les acteurs étatiques doivent se protéger contre 4 grandes menaces d’hacking : la dégradation de leur image de marque, l’espionnage (subtilisation de données confidentielles), la cybercriminalité (demande de rançon) et enfin, le plus dangereux : le sabotage. Si couronné de succès, le sabotage peut entraîner le disfonctionnement de l’entièreté du système informatique de l’organisme ciblé, ce qui se révèle d’autant plus grave à une époque où de plus en plus de secteurs sont gérés par l’informatique.

N’importe quelle entreprise peut constituer une cible pour les cybercriminels ; néanmoins, certains secteurs de l’économie sont plus à risque que d’autres, notamment les entreprises étroitement impliquées dans le quotidien des individus, en possession de données sensibles et d’informations personnelles. Par exemple, des hôpitaux sont régulièrement victimes de cyberattaques, les hackeurs ayant bien conscience de la dépendance du système hospitalier vis-à-vis de l’informatique et de leur base de données. Plus généralement, les secteurs les plus à risque sont les banques et institutions financières (numéros de comptes et de cartes bancaires, données des clients), les institutions de santé (numéros de sécurité sociale des clients, données de recherche médicale), les sociétés (contrats, propriété intellectuelle, concepts de produits) et l’enseignement supérieur (recherches académiques, données financières).

Contrairement aux groupes criminels, qui demandent généralement de l’argent, certains acteurs malveillants lancent des cyberattaques avec pour seul objectif de tout détruire : ce sont des « wipers ». Il est particulièrement difficile de négocier avec ces hackeurs, étant donné que l’argent ne les intéresse pas. De nombreux wipers ont sévit à l’occasion de la guerre en Ukraine, afin de fragiliser le système informatique russe. Leur mot d’ordre : « La cyberguerre durera jusque le dernier char russe quitte l’Ukraine ». D’après Laurent Celerier, vice-président exécutif dans le département Technology & Marketing chez Orange Cyberdefense, les infrastructures ukrainiennes auraient été en réalité, de leur côté, hackées depuis des années. L’avènement de la guerre aurait donc généré l’activation des virus informatiques disséminés dans ces organismes, après avoir passé des années à « dormir ».

Les cyberattaques interétatiques, quant à elles, visent souvent à nuire à un pays dans le cadre de tensions diplomatiques. Par exemple, en 2021, la Chine est accusée d’avoir attaqué plus de 60 000 systèmes informatiques en Europe, et notamment celui du parlement norvégien, rapporte le ministère norvégien des Affaires étrangères, ce qui a valu la convocation à Oslo d’un responsable diplomatique chinois le 19 juillet. Cette attaque pourrait donner suite à la brouille diplomatique survenue entre la Chine et la Norvège lorsqu’en 2010, un comité indépendant du pouvoir norvégien avait attribué le Prix Nobel de la paix au dissident emprisonné chinois Liu Xiaobo. Depuis, la Chine adopterait une politique agressive et revancharde à l’encontre du pays scandinave.

Cyber malveillance : atouts & utilisations

Tous les Etats développés du monde possèdent à ce jour une branche du secteur militaire consacrée à la recherche en matière de cyberattaque et de cyberdéfense, le but étant de pouvoir protéger le pays en cas d’attaque tout en pouvant menacer la sécurité des autres en toute impunité. Le lancement de cyberattaques n’est en effet pas bien cher, contrairement au déploiement d’une force militaire armée sur le terrain. Les potentiels dégâts subis à la suite du lancement d’une cyberattaque sont également bien moindres : exit les investissements en matériel militaire et en capital humain, il convient aujourd’hui simplement de se doter d’un personnel formé et d’ordinateurs suffisamment puissants.

Les bénéfices tirés par la cybercriminalité ne font qu’augmenter ces dernières années, comme le rapporte une récente étude d’IBM Security. Dans son rapport annuel de 2021 intitulé « Cost of a Data Breach », l’entreprise établit qu’en 2021, une violation de données coûte en moyenne 4,24 millions de dollars, soit 10% de plus qu’en 2020. IBM justifie cette hausse par le contexte sanitaire imposé par la crise liée au Covid-19, qui a contraint les entreprises à revoir leur mode de fonctionnement. Les entreprises ont dû accélérer leur transition numérique au détriment de la sécurité de leurs données, créant des failles que les hackeurs ont pu exploiter. Le World Economic Forum’s 2020 Global Risk Report confirme la tendance en hausse du nombre de cyberattaques en estimant qu’en 2020, ce type d’attaques constituait la 5e principale menace des acteurs publics et privés, et ajoute que d’ici 2025, leur nombre devrait doubler. Toujours d’ici 2025, la cybercriminalité devrait coûter environ 10,5 milliards de dollars par an pour ses victimes, contre 3 milliards en 2015. En réaction à cette intensification du nombre de cyberattaques, le budget des entreprises privées et des gouvernements augmente avec le temps, atteignant le milliard de dollars entre 2017 et 2021 dans le monde.

La cybercriminalité est donc de plus en plus employée grâce aux différents avantages qu’elle confère à son utilisateur. L’identification des initiateurs de cyberattaques se révèle être une tâche difficile pour les victimes, au cas où personne ne la revendique. Si certains experts peuvent tenter de déterminer la provenance des attaques en comparant du code, cette méthode ne s’avère jamais fiable à 100%, notamment parce que les vrais auteurs des attaques ont tendance à laisser des leurres dans ces codes pour faire croire qu’un autre pays en est à l’origine. Il est arrivé parfois que des Etats révèlent publiquement avoir été victimes de cyberattaques et émettent des accusations à l’encontre d’autres Etats afin de les mettre sous pression. Face à cela, les Etats accusés n’ont généralement qu’à se dédouaner pour éviter d’être sanctionnés pour leurs agissements, faute de preuves évidentes.

C’est notamment ce qui s’est produit en 2021, lorsque le 19 juillet, les États-Unis, les Européens et leurs alliés ont accusé la Chine d’être responsable d’un piratage des serveurs de Microsoft en début d’année, comme l’énonce Pierre Coudurier dans un article publié dans Marianne le 22 juillet dernier. Pour Antoine Bondaz, chercheur à la Fondation pour la recherche stratégique (FRS), « Cela fait certes longtemps qu’il y a des suspicions à l’égard de la Chine, mais la réelle nouveauté consiste à la mentionner de manière publique et conjointe ». Face aux accusations d’actions « cybermalveillantes » par à la fois l’Union Européenne, le Royaume-Uni, l’Australie, le Canada et la Nouvelle-Zélande, Pékin a nié toute responsabilité. Notamment, selon le Ministère américain de la Justice, des hackers, basés sur l’île méridionale de Hainan « ont cherché à masquer le rôle du gouvernement chinois en créant une société écran, Hainan Xiandun Technology Development Co », depuis dissoute.

Valérie Niquet, responsable du pôle Asie à la FRS, craint quant à elle la montée en puissance de la Chine dans de nombreux domaines – notamment celui de l’informatique – et ajoute qu’« il ne faut pas exclure qu’à l’avenir, Pékin essaie d’imputer les attaques qui viennent de son sol à d’autres États ». Pour Antoine Bondaz, les Chinois pratiquent d’ores et déjà cette stratégie de fausses accusations, notamment lorsque leur gouvernement accuse les Etats-Unis d’être « les champions du monde des cyberattaques malveillantes », une déclaration qui, tout en diabolisant son rival économique, permettrait à Pékin de détourner l’attention sur autrui. Également, ces fausses accusations à l’encontre des Etats-Unis s’intègreraient dans la volonté chinoise de fragiliser autant que possible les relations diplomatiques entre Européens et Américains, ce à quoi Biden a répondu par communiqué que « cette stratégie ne marcherait pas ».

Également, la cyberguerre jouit de l’avantage indéniable d’échapper à toutes les règlementations encadrant les conflits plus « traditionnels ». Le Droit International Humanitaire (DIH), aussi appelé « droit de la guerre » restreint les moyens et les méthodes de guerre et notamment les armes utilisées afin de limiter les conséquences désastreuses des conflits armés sur les populations civiles. Ainsi, il est interdit par le droit international d’utiliser des bombes à sous-munitions, des mines anti-personnelles, des armes chimiques et nucléaires et des robots tueurs (désolé Robocop). Les hackeurs, en revanche, bénéficient de tous les outils qu’ils veulent pour déstabiliser le système informatique de leur adversaire, et ce, sans risquer d’écoper de la moindre sanction, la Charte des Nations Unies ne semblant pas être, de prime abord, capable de répondre aux enjeux juridiques posés par l’émergence de la cybercriminalité. En l’absence de code précis sur l’espace numérique au niveau international, les cyberattaques peuvent être interprétées – ou non – comme des actes de guerre. Jamais aucune instance internationale n’a été saisie non plus à ce sujet. Néanmoins, il ne serait pas surprenant de voir émerger dans les prochaines années les premières lois sur le numérique, lorsque l’on voit la recrudescence de cyberattaques dans le monde et que l’on sait que la loi a souvent tendance à se dessiner en réaction à ce qui se fait, comme cela s’est produit dans le cadre de l’ubérisation d’une partie de l’économie, créant des emplois précaires qu’il fallait protéger juridiquement.

Les enjeux actuels de la cyberguerre

Depuis maintenant des années, le gouvernement semi-autoritaire chinois est accusé de promouvoir des campagnes d’hacking contre différents acteurs perçus comme opposés politiquement au régime. Le Citizen Lab de l’Université de Toronto, au Canada, qui enquête sur les activités de surveillance chinois, a en effet constaté l’activité dès 2008 de hackeurs chinois, qu’ils surnomment « Poison carp », responsables de vols de données, comme le déclare un membre anonyme : « À l’époque, Pékin avait mis en place une campagne massive de surveillance contre le dalaï-lama et les Tibétains en exil. Des ONG ont aussi été victimes de campagnes de récupérations de données ». Puis, en 2019, la minorité musulmane des Ouighours, placée en détention massive depuis 2014, fut la cible de nouvelles cyberattaques chinoises, comme le rapporte Zero Day, une équipe d’experts en sécurité informatique employée par Google. Le but suspecté du gouvernement : embaucher des hackeurs pour surveiller cette communauté ainsi que tous les membres qui y sont liés de près ou de loin. Le gouvernement de Xi Jinping reproche en effet aux Ouighours de délibérément rejeter les pratiques assimilationnistes chinoises ainsi que la gestion laïque et autoritaire de l’administration communiste, que ça soit par des insurrections islamistes ou par du militantisme pacifique, par le biais d’un réseau de défense des droits de l’homme.

Plus récemment, les Ukrainiens ont lancé de nombreuses cyberattaques pour répondre à l’invasion de la Russie, comme le décrit Martin Untersinger dans un article publié dans Le Monde. En effet, depuis le 24 février dernier, date à laquelle Poutine a initié son offensive militaire en Ukraine, des milliers de civils ukrainiens ont rejoint divers groupes en lignes et se sont organisés afin de pouvoir lancer des cyberattaques contre les infrastructures numériques russes. D’après Bob Diachenko, consultant ukrainien en cybersécurité, « Tous les gens que je connais sont engagés, à différents niveaux. Personne ne reste à l’écart. C’est tellement simple maintenant, que n’importe qui peut utiliser un programme informatique pour attaquer des sites russes. » Toutes ces attaques, que l’on appelle « par déni de service », sont organisées par le ministère de la transition numérique ukrainien, qui a appelé ses citoyens à rejoindre l’IT Army of Ukraine. A ce jour, 310 000 internautes ont rejoint le groupe Telegram créé pour l’occasion servant à communiquer une liste de sites à attaquer. Les cyberattaques, dites « basiques », consistent en la connexion de nombreux utilisateurs simultanément sur des sites russes pour les rendre hors service. De nombreuses banques, entreprises, services de livraison et médias russes ont ainsi été victimes de ces attaques, impactant notablement la pérennité de leur économie, au même titre que les sanctions financières imposées par l’Union Européenne depuis le début de l’invasion. Certains groupes se réclamant de la mouvance Anonymous auraient même réussi à pirater une chaîne de télévision russe pour diffuser un message de paix.

En parallèle, des entreprises comme la Cyber Unit Technology se sont engagées dans le conflit en rémunérant les hackeurs pour chaque faille qu’ils détecteraient dans les infrastructures numériques russes, afin de pouvoir les exploiter lors de cyberattaques. Les développeurs de la région de Lviv ont, quant à eux, développé un jeu en ligne qui lance des attaques contre les sites russes à chaque fois qu’un utilisateur se connecte dessus. La guerre en Ukraine montre ainsi une nouvelle force des cyberattaques : le fait qu’elles puissent être lancées par n’importe qui, quel que soit son niveau de compétences techniques, par l’intermédiaire de seulement quelques clics depuis son ordinateur. Certaines attaques, plus sophistiquées et orchestrées dans l’ombre par le gouvernement ukrainien, ont consisté, comme l’explique Diachenko, à « rentrer dans des comptes courriels, récupérer des données sensibles de sites militaires ou gouvernementaux ». Il semblerait que toutes ces attaques aient notablement impacté le fonctionnement de nombreux sites russes car, comme le rapporte l’observatoire de la connectivité à Internet Netblocks, l’accès aux sites du Kremlin, du Parlement russe ou du ministère de la défense était par moments très difficile. En réaction à ces attaques, le ministère russe a officiellement proposé aux banques, qui font partie des organismes visés par les volontaires ukrainiens, une aide financière.

Néanmoins, il semblerait que ces cyberattaques massives, certes nocives pour les infrastructures numériques russes, ne changent en réalité stratégiquement pas grand-chose au conflit. « Je ne pense pas que ces attaques soient efficaces d’un point de vue stratégique », concède le directeur de la Cyber Threat Intelligence Bob Diachenko, qui préfère voir en elles « une sorte de cri de colère de la société ukrainienne ». En effet, à ce jour, rares sont les conflits armés s’étant résolus autrement que sur le plan militaire. A l’instar des sanctions économiques infligées par l’Occident, comme l’exclusion de certaines banques russes du système SWIFT, l’interdiction de tout financement public ou investissement en Russie et l’interdiction des importations de charbon en provenance de Russie, les raids lancés par les internautes ukrainiens visent avant tout à affaiblir l’organisation de l’économie russe, ceci afin de fragiliser leur armée et de permettre une victoire militaire de l’Ukraine et de ses alliés sur le long terme

__________________________________________________________________

Grâce au développement rapide des nouvelles technologies et des perspectives offertes par les cyberattaques, leur nombre explose dans le monde ces dernières décennies. C’est pourquoi, afin de contrer les menaces invisibles sur le cyberespace, toujours plus d’entreprises renforcent leurs investissements en cyberdéfense et font appel aux services d’« hackeurs éthiques » qui utilisent leurs compétences en hacking pour tester leurs sécurités et les prévenir d’éventuelles failles. Dans un contexte de numérisation grandissante de nos sociétés, certains pays comme la Russie ou la Chine n’hésitent pas à attaquer les infrastructures numériques de leurs rivaux, qu’ils savent indispensables pour le fonctionnement de leur économie et paradoxalement encore mal préparées technologiquement et numériquement. Reste que la guerre ne pourra jamais se tenir exclusivement sur Internet, car tant que les peuples auront les ressources et la motivation pour se battre, les tanks et les armes à feu demeureront toujours plus redoutables que n’importe quel virus informatique pour anéantir physiquement ses adversaires.

Bibliographie :

  • Whyte, Christopher., Understanding cyber warfare: politics, policy and strategy. London New York (N.Y.): Routledge. 2019.
  • Akoto, Evelyne, « Les cyberattaques étatiques constituent-elles des actes d’agression en vertu du droit international public ? », in Ottawa law review. 2015, vol.46 no 1.
  • Eddé, Rhéa, « Les entreprises à l’épreuve des cyberattaques », in Flux (Centre national de la recherche scientifique (France). Groupement de recherche 903 Réseaux). 2020, vol.121 no 3. p. 90‑101.
  • Untersinger, Martin, « Guerre en Ukraine : les cyberattaques contre la Russie, le « cri de colère » d’une armée de volontaires » in Le Monde, March 25, 2022.
  • Coudurier, Pierre, « La Chine dans le viseur des Occidentaux pour une cyberattaque, une première » in Marianne, July 22, 2021.
  • Sausalito, Calif, “Cybercrime To Cost The World $10.5 Trillion Annually By 2025” in Cybercrime Magazine, November 13, 2020.

Défiance politique & déclin relatif de nos partis traditionnels

Les partis politiques sont des institutions centrales de la vie politique. Ils peuvent se définir comme des organisations durables, implantées sur tout le territoire et ayant pour objectifs finaux la conquête et l’exercice du pouvoir grâce au soutien du peuple. Aujourd’hui, les partis semblent dans une situation paradoxale : alors que ces structures ont longtemps été jugées nécessaires pour désigner des candidats et offrir des choix clairs aux électeurs, de nombreux sondages montrent une méfiance grandissante des citoyens envers elles. Dès lors, les partis politiques seraient-ils devenus moins indispensables ? 

La moindre importance des partis politiques est d’abord liée au déclin des idéologies et des appartenances. La chute du Mur de Berlin en 1989 est venue mettre un terme au grand affrontement idéologique du 20e siècle opposant les sociétés capitalistes libérales de l’Ouest et le monde communiste de l’Est, qui a longtemps structuré la géopolitique mondiale mais aussi certains paysages politiques nationaux. Dans le même temps, les transformations de l’économie et de la société dans les Etats occidentaux, comme la hausse générale des niveaux de vie, le déclin relatif de l’industrie et les délocalisations, ont modifié et complexifié les frontières entre classes sociales, notamment en affaiblissant la classe ouvrière – et donc certaines affiliations partisanes qui, autrefois, allaient de soi. 

Plus généralement, de moins en moins de citoyens se reconnaissent dans le clivage droite/gauche traditionnel. Certains politiques brouillent même volontairement les pistes, en faisant de la « triangulation », ce qui consiste à prendre des idées de son adversaire voire à présenter, in fine, son idéologie comme « au-dessus » de la gauche et la droite.

La montée de l’individualisme et de l’hédonisme vient aussi mettre à mal la place des partis politiques dans la société. Les engagements des citoyens sont plus limités (parfois à des causes précises) et temporaires ; ils ne se retrouvent pas dans des organisations hiérarchisées auxquelles on adhérait pour toute leur vie comme autrefois, au service d’une véritable vision du monde. 

En conséquence, les effectifs des partis ont beaucoup diminué et le jeu politique semble devenu, pour beaucoup, une affaire qui ne les concerne pas, réservée à des professionnels qui cherchent avant tout à faire carrière (voire à s’enrichir plus ou moins honnêtement). Les sondages témoignent de ce rejet des partis : selon le 10e baromètre annuel de la confiance du Centre d’étude de la vie politique (Cevipof), seuls 9% des Français déclaraient avoir confiance dans les partis en décembre 2018. 

De nombreux partis traditionnels européens sont entrés en crise. En atteste l’effondrement, en Italie, du Parti Communiste, du Parti Socialiste et de la Démocratie Chrétienne, au profit, plus récemment, de l’émergence de partis « populistes » de gauche comme de droite qui ont accédé ensemble au pouvoir (Ligue et Mouvement 3 Etoiles), sans compter les périodes de gouvernements « techniciens » et « trans-partisans », dirigés par des experts apolitiques, tels M. Monti ou, actuellement, M. Draghi.

La victoire d’Emmanuel Macron aux élections présidentielles de 2017 illustre aussi ce point : pour la première fois, un tout nouveau parti (La République en Marche), ne se revendiquant ni de gauche, ni de droite, ayant pour unique but de soutenir un candidat aux présidentielles, a remporté la majorité absolue aux élections législatives qui ont suivi. Dans le prolongement de ce constat, et à l’exemple d’E. Macron en 2017 stigmatisant les partis, figures du « monde d’avant », certains candidats aux élections de 2022 ont quitté leur parti en espérant gagner ainsi en visibilité et en popularité.

Les médias comme la télévision mais aussi maintenant, les réseaux sociaux, favorisent la personnalisation de la politique, comme le font dans certains cas les institutions, à l’image de la Vème République en France, depuis l’instauration de l’élection du Président de la République au suffrage universel. De même, aux Etats-Unis, le système présidentiel a empêché l’émergence de partis puissants. 

Il arrive également que de nouvelles thématiques et de nouveaux courants de pensée créent des divisions au sein des camps, voire des partis, traditionnels. Ainsi, le souverainisme et la construction européenne ont divisé europhiles et eurosceptiques à l’intérieur de la droite (le RPR à l’époque du referendum sur le traité de Maastricht) et de la gauche (LFI/parti socialiste). L’écologie suscite de nouvelles oppositions, par exemple à gauche entre ceux qui défendent la décroissance et ceux qui restent attachés à la défense du pouvoir d’achat. 

Des élus ont conduit des politiques parfois en désaccord avec leur parti d’origine. Donald Trump, au cours des primaires qu’il a remportées, puis après son élection à la tête des Etats-Unis en décembre 2016, a imposé son style et ses idées, parfois très éloignés du conservatisme traditionnel, aux Républicains américains. Au Royaume-Uni, Boris Johnson a gagné les législatives après de fortes tensions au sein de son propre parti, en promettant de mettre en place le Brexit et d’augmenter les investissements dans les régions défavorisées, traditionnellement favorables au Labour Party. Même en Allemagne, où les partis sont restés incontournables, notamment du fait de la représentation proportionnelle (les partis désignent les candidats), la chancelière Angela Merkel, s’appuyant sur sa popularité, s’est plusieurs fois écartée des positions habituelles de son parti (sur la sortie du nucléaire et sur l’accueil des réfugiés syriens, par exemple). 

Pour autant, le jeu politique continue largement à s’organiser autour des partis. Si nombre d’entre eux sont en crise, l’organisation des acteurs du jeu politique sous la forme de partis reste souvent indispensable, notamment pour viser les différents lieux de pouvoir (Parlement, collectivités locales, tête de l’Etat). Les nouveaux courants deviennent des partis (écologistes, populistes) ou investissent d’anciennes structures partisanes, comme le « trumpisme » s’emparant du parti républicain, pour concourir aux élections, s’implanter et durer. Notons les difficultés de La République en Marche et du « macronisme » sans Macron à convaincre les électeurs aux élections locales, faute d’un parti solide.

Des facteurs anciens, comme les systèmes électoraux, en particulier le scrutin uninominal à un tour, peuvent contribuer à la préservation du rôle des partis, comme aux Etats-Unis ou au Royaume-Uni, en particulier dans la désignation des candidats.

Certains partis ont su se renouveler pour s’adapter aux évolutions sociales : plus grande facilité d’adhésion et émergence de partis « en ligne » (le parti 3 Etoiles italien et La France Insoumise). Les relations y sont en principe plus horizontales et les militants y jouent un rôle plus actif, notamment à l’occasion de l’organisation de primaires quand elles sont « fermées » (réservées aux adhérents) pour désigner des candidats qui peuvent renforcer leur légitimité face à des candidats « hors parti ».

Les recompositions de la société et du monde du travail ont mis à mal les anciens systèmes de parti, comme celui de la « quadrille bipolaire » en France avec le Parti Communiste et le Parti Socialiste, à gauche, les libéraux et les gaullistes, à droite. Cependant, les partis actuels ne sont pas dénués d’assises sociologiques, en dépit de l’individualisation des modes de vie. Toujours en France, le Rassemblement National regroupe une partie importante des classes populaires, tandis que LREM vise les classes moyennes supérieures, la gauche rassemble plutôt les jeunes diplômés et les fonctionnaires tandis que la droite a la plus grande partie de ses soutiens chez les retraités et les classes possédantes. Ce socle électoral leur confère une certaine stabilité. Certains nouveaux partis (souverainistes, populistes, de gauche radicale et écologistes) semblent ainsi destinés à durer.

Les repères idéologiques ont changé plus que disparu. Ils s’organisent autour de valeurs et d’idées qui définissent de nouveaux clivages forts et structurants, probablement durables, mobilisant des militants parfois très engagés. Ces combats idéologiques s’articulent de nos jours davantage autour de la préservation de l’environnement, du féminisme, des identités, de l’insécurité ou de l’immigration…

Il arrive que des mouvements sociaux nés en-dehors des partis se transforment en partis, ou que leurs acteurs s’engagent dans des partis qu’ils contribuent à transformer et à mettre au service de nouveaux combats. Ainsi, les partis de gauche mettent aujourd’hui moins en avant les classes populaires et la défense du pouvoir d’achat au profit de thématiques nouvelles comme le féminisme et l’antiracisme.

En définitive, si les partis politiques traversent une phase de crise, il s’avère aussi que leur rôle reste consubstantiel d’un cadre politique démocratique, mais cela rend d’autant plus nécessaire leur renouvellement. 

La discrimination positive réduit-elle correctement les inégalités ?

Après la mort de George Floyd, un homme noir tué par deux policiers blancs lors de son interpellation le 25 mai 2020, l’ampleur du mouvement antiraciste Black Lives Matter a en grande partie convaincu la Banque d’Amérique d’investir un milliard de dollars pour « combattre les inégalités économiques et raciales ».  Cet événement ranime le débat qui fracture les Etats-Unis depuis plusieurs années : celui de la discrimination positive. Cette politique très controversée consiste à favoriser certains groupes de personnes jugées victimes de discriminations systématiques, en vue de rétablir l’égalité des chances. La discrimination positive entend surtout lutter contre les inégalités raciales, fortement ancrées dans la société américaine depuis des siècles. Si son application permettrait d’améliorer les perspectives socio-professionnelles des minorités, elle créerait cependant des contradictions devant la loi, de même qu’un sentiment d’injustice chez les groupes n’en profitant pas. Dès lors, nous pouvons questionner la légitimité de la discrimination positive aux Etats-Unis.

Tout d’abord, l’égalité des droits reste souvent théorique et recouvre des inégalités dans les faits. Certes, la discrimination basée sur la race, la couleur de peau, le sexe, la religion, les origines, la grossesse ou encore l’orientation sexuelle est légalement interdite aux Etats-Unis. Néanmoins, les comportements discriminatoires ont loin d’avoir disparu dans la pratique. Les inégalités économiques, culturelles et sociales pénalisent ainsi des groupes bien identifiés, tout en revêtant un caractère durable et systémique.

Aux Etats-Unis, les populations noires font partie des plus touchées par les inégalités : elles seraient en effet victimes de discriminations à cause du racisme parfois inconscient qui habite certaines instances et personnes américaines. Les noirs sont victimes de discrimination lorsqu’ils sont intentionnellement – ou non – traités différemment des autres : par exemple, si les lois anti-ségrégation interdisent de leur fermer l’accès à certains commerces, ils peuvent être en pratique traités moins bien que les autres clients. Différentes méthodes, comme le « testing », mettent en évidence le fait que certaines inégalités sont dues à des jugements négatifs, c’est-à-dire à du racisme, contre lesquels la lutte s’avère longue et ardue. Le testing est une expérimentation sociale qui permet de déceler de potentiels comportements discriminatoires. Cette méthode consiste à comparer l’attitude d’un individu à l’égard de deux types de personnes de même profil, mais avec une variable précise différente (la race, si l’on veut étudier les discriminations fondées sur elle). Le testing a notamment permis déceler les discriminations à l’embauche.

Ce racisme ancré dans la société américaine trouverait son origine dans la pratique de l’esclavage jusqu’à la seconde moitié du XIXème siècle (banni depuis par le 18e amendement), un système dans lequel le blanc dominait et exploitait le noir, qu’il considérait comme inférieur et parfois plus proche de l’animal que de l’homme. Plus tard, le principe égalitaire de la république américaine n’a pas fait disparaître la notion de race aux Etats-Unis, au sein d’une structure très hiérarchisée : ce critère définissait le degré de respect mérité. C’est pourquoi certains noirs tentaient de se faire passer pour des blancs (phénomène de « passing ») pour jouir de leurs privilèges.

De nos jours, la discrimination positive est censée compenser les préjudices subis par le passé et de restaurer un statu-quo entre les races, en redistribuant les ressources, en fonction de ce que les individus auraient pu acquérir sans ces entraves. Il pourrait donc sembler logique que les noirs reçoivent des aides de l’Etat proportionnelles à leurs désavantages et, d’une certaine manière, à l’ampleur de leurs souffrances pendant les années d’esclavage. Les blancs seraient les débiteurs et les noirs, les créditeurs, en quelque sorte.

En parallèle, d’après la théorie utilitariste développée par les philosophes et économistes britanniques du 19e siècle Bentham et Stuart Mill, le rôle principal de l’Etat consiste à maximiser le bien-être de ses citoyens tout en diminuant leur souffrance le plus possible. Pour les utilitaristes également, tous les individus sont égaux. En ce sens, réduire les inégalités peut contribuer à maximiser l’utilité, en permettant à tout le monde de vivre décemment et de pouvoir évoluer dans la société sans rencontrer d’obstacles dont ils ne sont pas responsables. Par exemple, il serait plus utile de donner 1 000 euros à un ménage modeste, qui pourrait les dépenser pour se procurer des biens dont il a vraiment besoin (comme des biens de première nécessité), qu’à une famille déjà fortunée. De plus, les inégalités sont souvent perçues comme néfastes pour la société, car elles génèrent du mécontentement, de la défiance et de la jalousie chez les classes populaires vis-à-vis des élites. Réduire les inégalités raciales atténuerait donc cette colère et stabiliserait la situation sociale du pays.

La lutte contre les inégalités est ainsi une préoccupation centrale aux Etats-Unis, de même que dans la plupart des pays développées occidentaux. En ce sens, la distribution des différentes ressources (matérielles, culturelles, symboliques, institutionnelles…) est régulée par l’Etat, la seule instance légitimement habilitée à intervenir pour lutter contre les discriminations. Par exemple, dans le domaine de l’emploi, la discrimination positive devrait permettre de faire respecter « le principe de la juste égalité des chances » selon lequel les individus avec les mêmes talents et aptitudes devraient tous avoir accès aux mêmes récompenses professionnelles. L’Etat s’assure qu’aucune catégorie de la population ne soit discriminée à cause de ses caractères innés et inaliénables : sans ce principe, les choix des employeurs affecteraient négativement les minorités en interagissant moins avec elles, ce qui les ferait moins travailler et les priverait d’opportunités pour le reste de leur vie.

La discrimination positive, c’est-à-dire l’octroi de places et droits spécifiques, permet donc de remédier à ces inégalités de fait, que les lois contre la ségrégation se sont révélées impuissantes à faire reculer suffisamment. Elle permet également de remettre en cause certaines représentations, en promouvant des élites issues des minorités. Avec la mise en place de quotas dans les universités, les minorités ont la chance de pouvoir étudier, cela contribuant à réduire les inégalités. Si davantage de noirs occupent des postes élevés, comme docteur ou avocat, cela peut modifier les représentations et la conscience raciale américaine, facilitant l’accès des noirs à des emplois et des fonctions politiques. Ce changement dans les mentalités pourrait à terme faire disparaître les préjugés et la nécessité des mesures de discrimination positive, une fois atteints les objectifs qu’elle poursuivait : l’égalité réelle des chances.

Néanmoins, la discrimination positive reste largement contestée, soit par question de principe, soit à cause des effets pervers que sa mise en place peut engendrer et qui ont parfois suscité de fortes oppositions. Par referendum, les habitants de Californie ont par exemple voté à 57% en 2020 contre le retour de la discrimination positive dans leur Etat – plus précisément contre la proposition de revenir sur l’interdiction d’une discrimination positive basée sur la race, qui avait été établie en 1996 (une telle interdiction existant dans 9 autres Etats). Ce scrutin illustre bien le rejet d’une bonne partie des Américains de ce genre de politique ; mais quelles en sont les raisons ?

De nombreuses inégalités imputées à certaines apparences, comme l’origine, la couleur de peau ou la religion, peuvent en réalité s’expliquer par d’autres facteurs. En ce cas, les injustices peuvent être partialement corrigées par la discrimination positive, mais cela en créera d’autres. Ainsi, les blancs « pauvres » se sentent désavantagés par rapport aux noirs, alors que les difficultés des populations noires sont en grande partie dus à leur statut social et leur lieu d’habitation, au même titre que ces blancs. Des individus aux positions économiques et sociales similaires au sein de la société ne bénéficient donc pas tous d’une aide systématique de la part de l’Etat, selon qu’ils soient noirs ou blancs, ce qui crée des inégalités raciales inversées. 

Les préjugés et des différences de perception en fonction de l’origine ethnique devraient sans doute être identifiés précisément et combattus en tant que tels, dans le souci de garantir une égalité de traitement à tous. Cependant, répartir des places pour les emplois selon le critère d’origine ethnique renforce en réalité les divisions entre les races, au lieu d’effacer cette grille de lecture et d’arriver à une société égalitaire. L’objectif serait d’arriver à terme à une « société déracisée » dans laquelle la race ne jouerait plus aucun rôle dans l’allocation des ressources et des récompenses.

Comment déterminer qui a le droit de bénéficier de la discrimination positive et dans quelle mesure ? Certains individus, exclus de ces aides, revendiquent leur appartenance à une minorité qui aurait été discriminée par le passé, comme les asiatiques ou les Juifs. Au contraire, les individus aujourd’hui éligibles à ces aides ne sont pas toujours des victimes. De plus, toutes les anciennes victimes n’ont pas souffert à un degré similaire.

Certaines minorités réussissent mieux que d’autres. Ainsi, aux Etats-Unis, le revenu médian des asiatiques est devenu supérieur à celui des blancs ; le revenu des femmes asiatiques s’avère même plus élevé que celui des hommes blancs. Ce constat met à mal l’idée de « privilège blanc » et indique que l’origine ou la race ne constituent pas nécessairement les principales causes des inégalités. Elles pourraient aussi être expliquées culturellement : beaucoup d’asiatiques réussissent professionnellement car leur famille les aurait éduqués en leur transmettant les valeurs du travail et de la discipline nécessaires pour s’assimiler, faire de longues études et décrocher des diplômes. Les cas de mères célibataires sont beaucoup plus fréquents chez les Noirs, par exemple, ce qui ne facilite pas la réussite scolaire des enfants.

Faut-il dès lors pénaliser les asiatiques pour leur réussite ? Une partie de leur communauté implantée aux Etats-Unis s’indigne et s’élève contre l’injustice, selon eux, des règles de discrimination positive. En conséquence, les procès se multiplient contre les universités qui la pratiquent, et certains représentants de la communauté asiatique viennent de saisir la Cour suprême pour qu’elle examine ce type de dispositions au regard du 14ème amendement de la Constitution qui garantit l’égalité des citoyens devant la loi.  

La discrimination positive peut parfois être justifiée en théorie ; mais pour autant, est-elle aussi justifiée en pratique, lorsqu’elle génère des effets pervers, comme dans le cas des rentes de situation ? De même, est-ce moralement louable de porter atteinte à l’efficacité et au mérite ? Les professions nécessitent des aptitudes et des qualifications propres pour être correctement exercées. Dès lors, il semble très dangereux d’instaurer des quotas et de décerner des diplômes de chirurgien ou juge, des métiers impliquant de grandes responsabilités, sur la base essentielle des attributs physiques des individus. Instaurer des quotas raciaux dans les universités, les entreprises et l’administration fera également diminuer le niveau de qualification général des individus, puisque la compétence ne demeurera plus le premier critère de sélection. A terme, cela pourrait avoir un impact négatif sur l’état du pays et de l’économie, qui deviendraient moins efficace et productif. Ce système ne semble pas non plus très juste pour les individus jugés « privilégiés » mais qui ne se font pas recruter au profit de personnes issues de minorités et, dans certains cas, moins qualifiées.

La discrimination positive pose également un problème d’un point de vue moral. Sa mise en place implique en effet d’avoir une vision binaire, voire manichéenne de la société américaine. D’un côté, il y aurait les minorités opprimées, comme les noirs, victimes de leur passé et qu’il faut absolument aider et protéger, tandis que de l’autre, se trouveraient les populations blanches, majoritaires, coupables et qu’il faudrait presque punir en conséquence (on en arrive à des séances d’auto-critique). La dimension morale indissociable de la politique de discrimination positive tente de distinguer ce qui est bien de ce qui est mal, or ces concepts sont souvent subjectifs. De plus, les groupes raciaux ne forment pas des unités sujettes à des jugements moraux et à des responsabilités. Pourquoi un individu devrait-il payer aujourd’hui le tribut lié aux méfaits que l’on impute à son ancêtre ?

Il conviendrait donc peut-être de s’attaquer plutôt aux causes réelles de ces inégalités, comme l’état déplorable du système éducatif et les grandes disparités selon les quartiers et les territoires aux Etats-Unis, ou l’insuffisance des politiques familiales. Plutôt que d’attendre que les inégalités se reproduisent et de prendre des mesures compensatoires en conséquence, il pourrait être judicieux d’agir en amont afin de les prévenir. En France par exemple, les ZEP (Zones d’Education Prioritaire) sont des territoires économiquement et socialement défavorisés dans lesquels l’Etat investit afin de lutter contre l’échec scolaire. A cet égard, se focaliser sur la couleur de la peau pourrait apparaître comme une solution simpliste et inadaptée. Introduire des quotas de noirs pour compenser leur faible nombre rétablirait une égalité apparente dans certains secteurs, comme dans les universités, les médias ou la politique, sans remédier pour autant aux difficultés de la majorité des noirs. De fait, la discrimination positive est pratiquée depuis une cinquantaine d’années et n’a abouti malheureusement qu’à des résultats limités.

La discrimination positive doit profiter aux populations jugées « défavorisées » par leur héritage historique et culturel et par la perception négative à leur égard chez les Américains « favorisés ». Si cet objectif peut paraître justifié, il n’en reste pas moins qu’en voulant supprimer des inégalités, la discrimination positive risque d’en créer de nouvelles. Il convient donc de l’appliquer avec circonspection, dans des cas où l’identité constitue en elle-même un facteur d’injustice évident, et de privilégier d’autres méthodes, comme la détection et la répression des pratiques discriminatoires ou encore la mise en place de CV anonymisés basés sur des critères de sélection les plus objectifs possibles, afin de ne pas induire de biais raciaux dans les choix des recruteurs, par exemple.

Evolution de la calligraphie occidentale au Moyen-Age

L’art calligraphique existe depuis que les hommes pratiquent l’écriture. D’abord un moyen de garder une trace des transactions commerciales de la vie courante, l’écriture s’est ensuite élargie à de nombreux autres usages, notamment dans les plus hautes sphères des sociétés (parmi les élites dirigeantes et les ordres religieux) dans les premiers temps. Etymologiquement, le mot calligraphie vient du grec kalos, signifiant « beau » ; il peut donc être défini comme « l’art de la belle écriture ». A l’instar de l’écriture, dont elle tire ses origines, la calligraphie est universelle, mais diffère selon les cultures. Si la calligraphie persane, ou « orientale », se base sur l’alphabet arabe, la calligraphie occidentale, elle, repose sur l’embellissement des caractères latins. Encore de nos jours, l’art calligraphique occidental est omniprésent dans nos sociétés : chaque marque, chaque produit, en cherchant à se distinguer de ses concurrents, adopte son propre son style calligraphique pour attirer l’œil du consommateur et s’assurer d’être facilement reconnaissable par tous – même par ceux qui ne parlent pas forcément la langue ou n’utilisent pas le même alphabet.

Les premières traces de calligraphie occidentale remontent à l’époque romaine, à la fin du VIIe siècle avant J.-C, à une période où les Romains s’inspiraient de l’écriture des Grecs et l’adaptaient à la phonétique latine. Plusieurs écritures calligraphiques romaines en sont ainsi issues, comme la Capitale Romaine, la Quadrata, la Rustica et la Cursive. L’écriture romaine est par conséquent à l’origine de toutes les calligraphies latines.
La calligraphie occidentale s’est ensuite essentiellement développée grâce aux moines chrétiens durant le Moyen-Age. A une époque où l’imprimerie n’existait pas encore, la seule solution pour diffuser le savoir biblique et les textes religieux consistait à recopier les ouvrages, un à un, page après page : ce sont ce qu’on appelle les manuscrits (du latin manus, « les mains » et scribere, « écrire »).

Cette tâche occupait une grande partie du temps des moines copistes. Le film « Le nom de la Rose » réalisé par Jean-Jacques Annaud et sorti sur grand écran en 1986, est un drame médiéval mettant en scène le travail manuscrit réalisé par les moines copistes dans une abbaye bénédictine du nord de l’Italie, sous fond de morts mystérieuses et inexpliquées. Plusieurs scènes du film exposent le scriptorium, la salle dédiée à la copie des manuscrits, et les bibliothèques. Dans cette salle, plusieurs moines s’attèlent à la charge de recopier les manuscrits, installés à leurs bureaux, munis de leur plume, de leur parchemin vierge et de leur encrier, le tout dans un silence pour ainsi dire religieux.
Recopier un texte en un nombre donné d’exemplaires ne suffit néanmoins pas pour parler de « calligraphie ». Les manuscrits médiévaux se distinguent en effet également par la diversité, la créativité des caractères et par les formes artistiques que prennent certains d’entre eux. En ce sens, les enluminures étaient essentielles pour décorer les manuscrits et leur apporter une touche moins « austère ».
De nos jours, le terme d’enluminure renvoie essentiellement à l’ensemble des éléments décoratifs et des représentations imagées exécutés dans un manuscrit pour l’embellir. Au XIIIe siècle, l’enluminure est aussi très associée à l’usage de la dorure. L’enluminure de l’époque était donc une illustration ou une lettre imagée dessinée sur un fond doré – la lettrine – le tout servant à embellir les manuscrits. Par exemple, certaines enluminures, parfois presque comiques, pouvaient consister en différents personnages, animaux ou plantes, enchevêtrés les uns les autres de manière à former des lettres.

Les enluminures ornaient principalement les premières lettres de certaines phrases (on ne verrait jamais, par exemple, une lettre enluminée au beau milieu de l’une d’entre elles). Elles servaient essentiellement à mettre en valeur les lettres majuscules en début de chapitre ou de paragraphe, à les rendre plus importantes et plus esthétiques aux yeux des lecteurs, notamment afin de les aider à mieux saisir la structure du texte.
Il existe différents types d’enluminures, en fonction de leur plus ou moins grande insertion dans le texte lui-même. Certaines enluminures se détachent totalement du texte, lorsqu’il s’agit par exemple d’une illustration en bas de page. D’autres, au contraire, sont des lettres majuscules ornées de motifs, de dessins et de dorures.

Miniature du Roman de Mélusine par les Maîtres de Guillebert de Mets, 1410
Homéliaire dit de Saint-Barthélémy (vers 1250-1300), détail d’une lettrine D comportant un autoportrait de l’enlumineuse, Guda.

Parmi les différents types d’enluminures que l’on retrouve au Moyen-Age, nous pouvons recenser les scènes figurées, les compositions décoratives, les lettrines et enfin les signes divers (qui ne peuvent pas être considérés comme des enluminures à proprement parler mais qui possèdent tout de même pour certains une valeur esthétique). Toutes ces enluminures n’étaient pas réalisées par les moines copistes, mais par d’autres moines appelés les « pictor ».
La copie des manuscrits permettait également, selon les moines chrétiens, de purifier leur âme : bien plus qu’un simple travail de répétition, cette activité très chronophage constituait pour eux une forme de prière, entre une ascèse et une louange. Cette pratique religieuse censée élever l’âme nécessitait également une extrême concentration de la part des moines copistes, ainsi qu’une très grande précision des gestes, la moindre erreur pouvant être fatale et gâcher un travail de longue haleine. La copie de manuscrits exigeait donc des moines une hygiène de vie exemplaire et surtout une très grande patience, ce que leur apprenait leur vie quotidienne en marge de la société consacrée à honorer le Seigneur. Somptueusement reliés, ces livres coûtaient si cher qu’ils restaient l’apanage de collectionneurs fortunés, clercs ou laïcs.

La calligraphie monastique a également suivi les tendances cursives traversant au fil du Moyen-Age les sociétés européennes. Ainsi, en l’an de grâce 780, la minuscule caroline voit le jour dans l’école palatine tenue par Alcuin, sous l’impulsion de Charlemagne. Ce nouveau style d’écriture se diffuse ensuite depuis l’abbaye Saint-Martin de Tours, avant de se répandre dans tout l’Empire par l’intermédiaire des codices (l’ancêtre du livre moderne), les capitulaires et divers textes religieux. La minuscule caroline se caractérise par les formes rondes et régulières de ses caractères, son homogénéité et son effort de lisibilité. Pour la première fois, un espace sépare les mots parcequavantfranchementoncomprenaitrien, et il devient enfin possible de différencier le V du U ! La caroline s’inspire de l’écriture onciale et semi-onciale, tout en incluant des éléments de l’écriture insulaire utilisée en Grande-Bretagne et en Irlande, et se diffuse en Europe à partir du IXe siècle.
Ses particularités la rendent plus aisée à lire que sa prédécesseur, la minuscule mérovingienne, que le paléographe Bernard Bischoff qualifie de semi-cursive en raison de son écriture ferme et régulière. Issue des écritures romaines et utilisée en France sous la dynastie des mérovingiens, elle se distinguait par sa cursive étroite, verticale et resserrée, ses nombreuses ligatures, ses mots peu voire pas espacés et son latin parfois incorrect, conduisant trop suivant à des contresens. En raison de la disparition des institutions romaines en Gaule, l’écriture mérovingienne se scinda en de nombreuses variantes qui évoluèrent de manière inégale dans le royaume franc aux VIIe et VIIIe siècles. Ceci motiva Charlemagne à lancer ses grandes réformes de l’écriture pour tenter d’uniformiser les écritures régionales en Europe (tout en la rendant plus lisible), ce qui amena à la création et la diffusion de la minuscule caroline.
Enfin, à partir du XIe siècle se développe l’écriture gothique depuis les scriptoriums des abbayes du Nord de la France, de la Flandre et de l’Angleterre, avant de gagner fortement en popularité en Allemagne le siècle suivant. L’écriture gothique est une déformation de la minuscule caroline : les caractères arrondis laissent place à des lettres anguleuses aux arrondis brisés, qui ne sont pas sans rappeler les arcs brisés des cathédrales de l’époque. Il est possible, selon le médecin et homme politique français Emile Javal, que cette évolution graphique résulte de l’introduction et de la généralisation de la plume d’oie dans les scriptoriums, dont la pointe carrée formait naturellement ces lettres anguleuses.

Écriture mérovingienne dans le Lectionnaire de Luxeuil. Paris, Bibliothèque nationale de France, Manuscrits, Latin 9427, Folio 144 (Date : vers 700)
Une page du manuscrit de Freising, un des premiers parchemins en langue slave écrit en minuscules carolines
Psautier du XIVe siècle (Vulgate Ps 93:16-21), exemple-type de textus prescissus dérivé de la textura

L’invention de l’imprimerie par Gutenberg en 1450 à Mayence marque la fin d’une époque et le début d’une nouvelle. La calligraphie manuscrite occidentale cesse brutalement au profit de la presse, bien plus rapide et moins coûteuse à produire. Toutefois, jusqu’à la fin du XIXe siècle, tous les actes publics et privés, les édits royaux et les traités continuent de s’écrire à la main : chaque souverain se charge de trouver un maître écrivain expert en calligraphie pour rédiger ces dossiers, notamment parce qu’une belle calligraphie reflèterait le prestige, au même titre que d’autres arts. L’émergence de l’informatique et du traitement de texte semble signer l’arrêt de mort de la calligraphie, et son enseignement disparaît peu à peu des écoles au milieu du XXe siècle. L’héritage de la calligraphie occidentale largement développée au Moyen-Age reste néanmoins encore visible dans notre société contemporaine. La typographie et les polices d’écriture informatiques en sont en effet directement issues, or toutes les publicités, les étiquettes et les marques les utilisent pour promouvoir leurs produits (par exemple, la police d’écriture du quotidien Le Monde s’inspire de l’écriture gothique). Enfin, le monde des arts s’approprie progressivement la calligraphie, par exemple avec l’émergence ces dernières décennies des graffitis dans l’espace public. Quels que soient l’époque, l’aire géographique ou le domaine étudié, la calligraphie a donc toujours eu pour but de mettre en valeur le message de fond par la recherche de nouvelles techniques d’écriture esthétiques.


Devrions-nous juger les espèces sur leurs origines ?

Aujourd’hui, l’introduction d’espèces animales et végétales dans de nouveaux milieux soulève de nombreux débats. Si cette question peut sembler au premier abord purement scientifique, biologistes et écologistes sont pourtant loin d’être les seuls acteurs à s’y intéresser. De nombreux avis, analyses et témoignages contemporains nous éclairent en effet sur les différents enjeux de la question et sur le lien existant entre les décisions scientifiques et la société. Les origines des espèces ainsi que le potentiel effet négatif de l’introduction de l’une d’elles sur un territoire nouveau rappellent inévitablement des thématiques sociétales, plus ou moins anciennes, liées aux flux de populations, comme la colonisation ou, aujourd’hui, l’immigration. L’idéologie voire la politique s’immiscent donc dans la sphère scientifique et embrasent les passions.  D’un côté, les défenseurs du « laissez-faire » de la nature soutiennent le déplacement et mélange des espèces comme le fonctionnement naturel des écosystèmes, l’introduction de nouvelles espèces, souvent opérée sans action humaine, n’entraînant que rarement la disparition d’une autre. De l’autre, certains biologistes et écologistes dénoncent les dégâts provoqués par les espèces non-indigènes sur leurs nouveaux écosystèmes, entraînant parfois un appauvrissement de la biodiversité. Dès lors, les origines des espèces jouent-elles un rôle prépondérant sur leur habitat ? Est-ce un critère pertinent pour établir une distinction entre elles ? J’exposerai dans cet article les différents arguments utilisés par les deux camps, tant pour supporter leur point de vue que pour décrédibiliser leurs adversaires, notamment en remettant en cause leur expertise ou en les affublant de l’étiquette d’idéologues partisans. 

Les débats autour de la question de l’introduction d’espèces étrangères se portent notamment sur les conséquences quantitatives de cette action sur les écosystèmes. En effet, de nombreuses études menées n’aboutissent pas aux mêmes résultats – les auteurs étayant sans doute leurs opinions par les données qui leur conviennent le mieux – ce qui fait régner un climat d’incertitude sur la question. Dans son article « Don’t judge species on their origins » publié en 2011 dans la revue Nature, le collectif Davis et al. avance ainsi que, même si l’introduction de nouvelles espèces par les hommes a pu entraîner parfois des extinctions et des problèmes écologiques et sanitaires divers – comme le paludisme aviaire à Hawaï après l’introduction d’oiseaux européens sur l’île par des colons au début du XXe siècle – « de nombreuses affirmations alimentant la perception des gens selon lesquelles les espèces introduites constituent une menace apocalyptique pour la biodiversité ne sont pas étayées par des données ». Sur cette base, les auteurs contredisent les résultats de l’enquête de 1998 concluant que les espèces invasives constituent la 2e plus forte menace pour les espèces natives (derrière la destruction de leur habitat) et appuient leur point de vue en évoquant d’autres études, plus récentes, suggérant que la plupart des espèces ne sont en réalité généralement pas menacées par l’introduction de nouvelles sur leur territoire. Mieux encore, davantage d’espèces pourraient évoluer et s’adapter dans le milieu naturel concerné grâce à ce mélange. Néanmoins, les auteurs ne délivrent guère de précisions sur ces preuves scientifiques dans ce document.

En réponse à cet article, le collectif Simberlay et al. dénonce son manque de rigueur scientifique et reproche à leurs auteurs de « minimiser l’impact grave des espèces non indigènes qui peuvent ne pas se manifester avant plusieurs décennies – comme cela s’est produit avec le poivrier brésilien en Floride ». Les auteurs ne se montrent toutefois pas réticents à l’introduction sur de nouveaux territoires de certaines espèces animales et végétales, mais seulement de celles considérées comme dangereuses pour les autres espèces, les écosystèmes et les habitats par la Convention sur la Diversité Biologique. Russell JC, quant à lui, dénonce « la montée du déni des espèces envahissantes » dans son article du même nom. Selon l’auteur, un consensus scientifique autour de l’impact globalement négatif des espèces envahissantes existerait bel et bien, mais celui-ci serait de plus en plus mis à l’épreuve par des sceptiques et des adeptes du « déni de la science ». En effet, « des articles d’opinion de revues scientifiques et des livres écrits par des écologistes ont également tenté de recadrer, de minimiser ou même de nier le rôle des EEE (Espèces Exotiques Envahissantes) dans le changement global ». Les faits scientifiques, autrefois considérés comme indiscutables, sont désormais rejetés par les opposants du conservatisme biologique qui tenteraient « de fabriquer de l’incertitude dans le consensus scientifique sur un sujet par ailleurs incontesté […] exploitant le fait que toute connaissance scientifique contient un élément d’incertitude ». Notamment, la création de contenus voulant passer pour scientifique aux conclusions contraires au consensus jusqu’alors établi serait souvent le fait de lobbys, chargés de défendre les intérêts économiques, sanitaires ou environnementaux d’un groupe en particulier (par exemple, le lobby du tabac voulant limiter la généralisation de lois ou de taxes contre la cigarette). 

Afin de décrédibiliser les thèses de leurs adversaires, chaque parti tente de rendre compte au grand public de la partialité et de la politisation de ceux-ci, tout en se présentant eux-mêmes comme le plus neutre et objectif possible, conformément à ce que l’on pourrait attendre d’un vrai scientifique, intéressé davantage par les faits que par leurs interprétations. Ainsi, les opposants à la régulation des espèces condamnent les discours de leurs adversaires qui seraient, selon eux, davantage militants que rationnels. L’écologiste français Jacques Tassin illustre ce point lorsqu’il écrit que le public assistant à ses conférences s’outrage régulièrement que l’on ne puisse ni empêcher la progression des espèces invasives, ni corriger les erreurs commises, et ajoute que nombre d’entre eux entretiennent « la croyance que chaque espèce envahissante introduite quelque part prend nécessairement la place d’une autre espèce ». Cette peur du remplacement justifierait donc le discours anti espèces invasives de certains, comme le développent Mastnak T, Elyachar J et Boellstorff T. dans leur article « Botanical Decolonization: Rethinking Native Plants » : « Beaucoup de débats contemporains autour des espèces indigènes déforment les problèmes qui se posent. Ces fausses déclarations sont particulièrement importantes lorsque la défense des plantes indigènes est placée dans le même horizon conceptuel que le sentiment anti-immigration ». Loin de proposer un point de vue objectif, les opposants aux espèces invasives se trouvent comparés à des nativistes réactionnaires transposant leur vision de la société humaine à la nature, ce qui ne devrait logiquement pas être. Par conséquent, les auteurs expliquent que les décisions prises par les « biologistes de l’invasion » et les « écologistes de la restauration » seraient arbitraires et influencées par leur orientation politique, ceci constituant la preuve irréfutable que l’écologie, comme toutes les sciences, serait « structurée par les valeurs, la politique et le pouvoir ». Se basant sur le phénomène de colonialisme, certains auteurs dressent un parallèle entre les plantes et les immigrés : par exemple, par le passé, le fait que les Amérindiens ne furent pas supposés avoir domestiqué et transformé leurs écosystèmes aurait pu justifier la dépossession de leurs terres et leur extermination par les colons pour s’approprier le tant convoité Far West. A rebours de cette vision dépréciative, certains auteurs mettent de nombreux problèmes écologiques actuels sur le compte du colonialisme, dans une vision, finalement elle-aussi, nativiste de la nature – même si, politiquement, les opposants à l’immigration et les contempteurs du colonialisme appartiennent le plus souvent à des bords opposés.

De leur côté, les biologistes conservateurs fustigent ces parallèles et ces condamnations. Par ailleurs, ils dénoncent les accusations idéologiques de leurs détracteurs, qui, eux aussi, dressent un parallèle entre la science de la nature et la société et sont nécessairement prisonniers d’une subjectivité qu’ils voient partout à l’œuvre. Selon Russell JC, « le désaccord sur les impacts des EEE peut découler à la fois de l’interprétation des preuves et de valeurs motivantes sous-jacentes ». Parmi ces valeurs motivantes, certaines pourraient être d’ordre idéologique : l’auteur avance en effet qu’il existerait un lien fort entre anti-nativistes et libre-échangistes au plan économique, favorables au « laissez-faire ». Tandis que l’urgence consisterait à réguler l’entrée d’espèces potentiellement dangereuses sur de nouveaux territoires, les pro-espèces invasives, « par principe », laisseraient le processus se dérouler normalement, au nom de la relativité de la notion d’ « espèces originelles » : le cycle de la vie ne serait, selon eux, qu’un éternel remplacement, qu’un éternel renouvellement. Pour autant, comme on le voit, ces auteurs quittent eux aussi le terrain scientifique pour dénoncer les aprioris idéologiques de leurs adversaires.

La question de l’ « origine des espèces » continue d’alimenter les débats passionnés, même s’ils ne portent plus sur les mêmes sujets qu’à l’époque de la publication des travaux de Darwin, la théorie de l’évolution n’étant plus guère contestée. Plutôt que de se consacrer exclusivement à l’étude des faits scientifiques, les différents acteurs ne peuvent s’empêcher de comparer l’introduction d’espèces invasives à des thématiques sociétales qui nécessitent pourtant des outils de réflexion et de régulation bien différents. Les sciences naturelles se veulent les plus objectives et rigoureuses possibles ; il n’en reste pas moins que les scientifiques demeurent des citoyens influencés par l’état actuel de leur société et que leurs travaux peuvent avoir des effets idéologiques, comme à l’époque de Darwin, quand se réclamaient de lui aussi bien Marx, rapprochant espèces et classes sociales, que des défenseurs d’un marché sans entrave conduisant à la sélection des meilleurs et l’élimination des plus faibles.