Archives de la catégorie: Systémie

[Systémie] Les Gafa ont opéré un coup d’État numérique



Dessin de Robert Beatty paru dans The New York Times, États-Unis.

Il y a vingt ans de cela, le gouvernement américain a ouvert grand les portes de la démocratie à de jeunes entreprises du web, allant jusqu’à y allumer une petite flambée en signe de bienvenue. Dans les années qui ont suivi, une société de la surveillance s’y est développée, une vision qui répondait aux besoins distincts mais mutuels des agences de renseignements et des acteurs privés du web, les unes comme les autres caressant le rêve d’une veille informationnelle généralisée.

Vingt ans plus tard, les flammes se sont propagées hors de l’écran, menaçant de réduire en cendres, le 6 janvier dernier, le siège même de la démocratie.

J’ai passé très exactement quarante-deux ans de ma vie à étudier la montée en puissance du numérique, c’est-à-dire le moteur économique de notre transition vers une civilisation de l’information. Ces vingt dernières années, j’ai pu observer les répercussions de ce drôle de mariage entre l’économie et la politique, j’ai vu de jeunes entreprises se métamorphoser en empires de la surveillance reposant sur des dispositifs internationaux d’analyse, de ciblage et de prédiction de nos comportements, que j’ai englobés sous le nom de “capitalisme de surveillance”.

Afin d’optimiser les profits qu’ils en tirent, ces nouveaux empires se sont servis de leurs outils de surveillance pour fomenter un coup d’État épistémologique totalement contraire à la démocratie qui se caractérise par une concentration sans précédent de données nous concernant, laquelle leur confère un pouvoir pour lequel ils n’ont à rendre aucun compte.

Le contrôle non légitime de l’information 

Dans une civilisation de l’information, les sociétés se définissent par la question de la connaissance – comment se répartit-elle, quelle est l’autorité qui régit cette répartition, quel pouvoir protège cette autorité. Qui a la connaissance ? Qui décide qui l’a ? Et qui décide qui décide qui l’a ?

Ce sont les acteurs du capitalisme de surveillance qui détiennent aujourd’hui la réponse à chacune de ces questions, alors qu’ils n’ont jamais été portés au pouvoir. C’est l’essence même de ce coup d’État épistémologique. Ils revendiquent l’autorité de décider qui possède la connaissance en faisant valoir des droits de propriété sur nos informations personnelles et défendent cette autorité grâce à leur maîtrise de réseaux et d’infrastructures d’information devenus incontournables.

La tentative de coup d’État politique de Donald Trump s’inscrit dans le sillage de ce coup d’État qui ne dit pas son nom, fomenté depuis vingt ans par des réseaux “antisociaux” que nous avions pris un temps pour des outils de libération.

Le jour de son investiture, Joe Biden a déclaré que “la démocratie [avait] triomphé” et a promis de redonner sa juste place à la vérité dans la société démocratique. Mais aussi longtemps que nous n’aurons pas déjoué l’autre coup d’État, celui du capitalisme de surveillance, la démocratie et la vérité se trouveront toujours sous une épée de Damoclès.

La vie privée, une matière première gratuite

Le putsch épistémologique se décompose en quatre étapes.

La première est la mainmise sur les droits épistémologiques, dont découlera tout le reste. Le capitalisme de surveillance part d’un constat : une entreprise peut accaparer la vie des gens et la considérer comme une matière première gratuite dont elle extraira des données comportementales qu’elle déclarera ensuite comme sa propriété.

La deuxième étape est un creusement de l’écart épistémologique, c’est-à-dire la différence entre ce que je peux savoir et ce que l’on peut savoir de moi.

La troisième étape, celle que nous sommes en train de vivre, voit les prémices d’un chaos épistémologique provoqué par la montée en puissance des algorithmes, la dissémination d’informations mensongères et le microciblage, lesquels s’inscrivent généralement dans des stratégies de désinformation à des fins commerciales. Ses effets se font sentir dans le monde réel, où elle fractionne notre réalité collective, empoisonne le débat public, paralyse la démocratie et se solde parfois par des violences ou par des morts.

Dans la quatrième étape, la domination épistémologique est institutionnalisée et la gouvernance démocratique reléguée derrière la cybergouvernance du capitalisme de surveillance. La machine sait et le système décide, piloté et protégé par l’autorité illégitime et le pouvoir antidémocratique du capitalisme de surveillance. Chaque étape prend pour point d’appui la précédente. Le chaos épistémologique ouvre la voie à une domination épistémologique en affaiblissant la société démocratique – ce qui a sauté aux yeux lors de l’invasion du Capitole.

Définir l’ordre social de ce siècle

Nous sommes au siècle du numérique et assistons aux débuts de la civilisation de l’information. Une époque que l’on pourrait comparer aux balbutiements de l’ère industrielle, quand les patrons avaient le pouvoir et que leurs droits de propriété l’emportaient sur toute autre considération.

L’insoutenable vérité sur la situation actuelle, c’est que les États-Unis et la plupart des autres démocraties libérales ont abandonné la propriété et l’exploitation des données numériques aux acteurs du capitalisme de surveillance, qui, mus par des intérêts politico-économiques, concurrencent désormais la démocratie sur la question des droits et des principes fondamentaux qui définiront l’ordre social de ce siècle.

Cette année de pandémie et d’autocratie trumpienne a démultiplié les effets de ce putsch épistémologique, mettant au jour, bien avant le 6 janvier, le pouvoir dévastateur des réseaux “antisociaux”. La conscience grandissante de cet autre coup d’État et de la menace qu’il fait planer sur les sociétés démocratiques nous ouvrira-t-elle les yeux sur une vérité dérangeante qui se dessine depuis vingt ans ?

Car, entre la démocratie et la société de la surveillance, il faut choisir. On ne peut pas avoir les deux. Une société de la surveillance démocratique est une impossibilité existentielle et politique. Ne nous y trompons pas : c’est bien pour l’âme de notre civilisation de l’information que nous nous battons.

La tragédie nationale du 11 Septembre a totalement changé l’ordre des priorités à Washington : exit les débats autour des lois fédérales sur la confidentialité des données, place à la lubie de la veille informationnelle généralisée, qui se traduit par un intérêt décuplé pour les dernières solutions de surveillance de la Silicon Valley. 

Main basse sur les données

En 2013, le directeur de la technologie à la CIA avait exposé la mission de l’agence, à savoir “tout récupérer et tout conserver sans limite de temps”, remerciant au passage les géants du web – dont Google, Facebook, YouTube, Twitter – ainsi que Fitbit [fabricant de montres connectées] et les opérateurs télécoms de la rendre possible.

Les racines révolutionnaires du capitalisme de surveillance naissent de cette doctrine politique implicite de l’exception numérique en matière de surveillance qui lui permet de contourner le contrôle démocratique et autorise, in fine, les nouveaux géants du web à voler la vie des internautes et à la transformer en données propriétaires.

C’est ainsi que de jeunes entrepreneurs sans aucun mandat démocratique ont fait main basse sur une manne de données et sur le pouvoir qui va avec, sans avoir à rendre de comptes. Les fondateurs de Google, Larry Page et Sergey Brin, exerçaient un contrôle absolu sur la production, l’organisation et la présentation de l’information mondiale.

Chez Facebook, Mark Zuckerberg avait la haute main sur ce qui allait devenir l’un des principaux moyens de communication et de production de contenus d’actualités du globe. Le nombre d’utilisateurs a augmenté à travers le monde sans que la plupart n’aient conscience de ce qui venait de se produire.

La surveillance comme principe de gouvernance

C’est grâce à ce statut d’exception que les États-Unis et beaucoup d’autres démocraties libérales ont pu ériger la surveillance, plutôt que la démocratie, en principe directeur de leur ordre social. Ce faisant, ces gouvernements démocratiques ont sérieusement plombé leur cote de confiance auprès de l’opinion, accroissant ainsi le besoin de surveillance.

Pour bien comprendre la dimension économique du chaos épistémologique ambiant, il convient de rappeler que le capitalisme de surveillance ne se préoccupe pas des faits. Toutes les données sont jugées équivalentes, alors que toutes ne se valent pas. On les exploite à la manière des Cyclopes, qui avalent tout ce qui bouge en ne faisant aucun cas du sens, des faits ou de la vérité.

Dans le cas de Facebook, le tri des données est effectué soit pour réduire le risque d’un départ de l’utilisateur, soit pour éviter des sanctions politiques. Dans un cas comme dans l’autre, l’objectif reste d’augmenter le flux de données, et non de le réduire. L’impératif extractiviste se conjugue ici à une indifférence totale pour donner naissance à un système qui augmente l’activité globale sur le réseau en continu sans se soucier de la nature de ces interactions.

Si je me focalise ainsi sur Facebook, ce n’est pas parce que ce serait le seul responsable de ce chaos épistémologique, mais parce qu’il s’agit du plus vaste réseau social, et que, à ce titre, il est celui dont les activités ont le plus de répercussions.

Le modèle économique du capitalisme de surveillance a engendré des Cyclopes extractivistes et fait de Facebook un géant de la publicité et un fossoyeur de la vérité. Entre-temps, les États-Unis ont hérité d’un président amoral en la personne de Donald Trump, qui revendiquait le droit de mentir à tout bout de champ. Conjugué à une politique d’apaisement, ce modèle économique dévastateur a aggravé considérablement la situation.

Des études internes présentées en 2016 et 2017 ont ainsi démontré un lien de cause à effet entre les méthodes de ciblage algorithmique de Facebook et le chaos épistémologique ambiant. Une chercheuse révèle que les algorithmes sont responsables de la propagation virale des contenus clivants qui ont contribué à faire monter des groupes d’extrême droite en Allemagne : les outils de recommandation étaient responsables de 64 % des ralliements à des groupes extrémistes, un phénomène qui n’est pas propre à l’Allemagne.

En mars 2018, l’affaire Cambridge Analytica a présenté Facebook sous un jour nouveau et ouvert une fenêtre à un vrai changement. Le grand public a commencé à comprendre que la publicité politique sur Facebook se servait des différents outils du réseau social pour microcibler les internautes, les manipuler et semer le chaos épistémologique. Quelques réglages avaient suffi pour que la machine poursuive des objectifs non plus commerciaux mais politiques.

Le groupe a consenti quelques efforts timides, promettant davantage de transparence, un dispositif de vérification externe de l’information plus performant et des mesures de limitation des “comportements trompeurs organisés”, ce qui n’a pas empêché Mark Zuckerberg de laisser à Donald Trump un accès illimité à la Toile de l’information mondiale.

Une liste blanche regroupe ainsi plus de 100 000 responsables politiques et candidats dont les comptes sont exemptés de fact-checking, malgré des études internes montrant que les internautes ont tendance à prendre pour argent comptant les fausses informations relayées par les politiques. En septembre 2019, le groupe a fait savoir que la publicité politique ne serait soumise à aucune vérification des informations publiées.

On voudrait nous faire croire que les répercussions négatives de ce chaos épistémologique sont le prix à payer pour jouir de notre sacro-saint droit à la liberté d’expression. Mais c’est faux. De la même manière que les taux alarmants de dioxyde de carbone dans l’atmosphère sont la conséquence de notre consommation de combustibles fossiles, le chaos épistémologique est la conséquence des opérations commerciales du capitalisme de surveillance, rendu possible par un rêve vieux de vingt ans, celui d’une veille informationnelle généralisée, qui a tourné au cauchemar.

Une épidémie de fausses informations

C’était avant qu’une pandémie ne frappe l’Amérique et que l’incendie qui consumait le réseau “antisocial” ne gagne le reste de la société. Dès février 2020, l’Organisation mondiale de la santé (OMS) faisait état d’une “infodémie” sur le Covid-19, caractérisée par le colportage de rumeurs et d’idées reçues sur les réseaux sociaux.

En mars, des chercheurs du centre de recherche sur le cancer M. D. Anderson de l’université du Texas constataient que la désinformation sur le coronavirus “se propageait à une vitesse alarmante sur les réseaux sociaux”, faisant peser une menace sur la sécurité publique.

Fin mars [2020], le Washington Post rapportait que près de 50 % des contenus publiés sur les fils d’actualité Facebook étaient liés au Covid-19 et qu’une toute petite poignée d’utilisateurs influents déterminait les lectures et les fils d’actualité de la majorité des autres.

Une étude publiée en avril par l’institut Reuters confirmait que, sur l’échantillon examiné, les grands responsables politiques, les célébrités et les autres figures de la vie publique étaient responsables de 20 % des informations erronées publiées sur les réseaux sociaux et de 69 % des interactions.

La puissance incontrôlée des algorithmes

Une étude [de l’ONG] Avaaz publiée en août a mis en évidence 82 sites web diffusant de fausses informations sur le Covid, totalisant près d’un demi-milliard de vues sur Facebook en avril. Les contenus des dix sites les plus consultés représentaient près de 300 millions de vues sur le réseau social, contre 70 millions seulement pour les dix principales agences de santé.

Les timides efforts de modération des contenus entrepris par Facebook ne faisaient pas le poids face à ses propres algorithmes, conçus pour semer le chaos épistémologique.

Tel est le monde dans lequel un mystérieux germe mortel s’est propagé. Nous sommes allés sur Facebook en quête d’informations, et tout ce que nous y avons trouvé, ce sont des stratégies mortifères visant à semer un chaos épistémologique pour faire de l’argent.

En 1966, Peter Berger et Thomas Luckmann ont écrit un petit ouvrage qui a fait date, La Construction sociale de la réalité, dont l’observation centrale est que nous fabriquons de toutes pièces, de manière active et constante, la vie de tous les jours que nous prenons pour la réalité. Le miracle permanent qu’est l’ordre social repose sur la connaissance du sens commun, à savoir la connaissance que je partage avec d’autres en temps normal, la routine allant de soi du quotidien.

Songez à la route : il n’y a pas assez de policiers dans le monde pour veiller à ce que chaque voiture s’arrête à chaque feu rouge. Or, on ne voit pas de négociations ni d’altercations à tous les carrefours. C’est parce que, dans les sociétés bien ordonnées, tout un chacun sait que les feux rouges ont le pouvoir de nous faire nous arrêter et les feux verts celui de nous faire passer.

Le sens commun, ça veut dire que nous agissons tous en fonction de ce que nous savons tous, tout en faisant confiance aux autres pour faire de même. Nous ne nous contentons pas d’obéir à des lois ; nous créons cet ordre ensemble. Notre rétribution étant de vivre dans un monde où nous arrivons généralement à bon port sains et saufs parce que nous faisons confiance au sens commun des autres. Aucune société n’est viable autrement.

Un terrorisme épistémologique

“Toutes les sociétés sont des constructions face au chaos”, écrivent Berger et Luckmann. Parce que les normes sont des synthèses de notre sens commun, leur violation constitue l’essence même du terrorisme – qui est terrifiant parce qu’il désavoue les certitudes sociales les plus ancrées. La légitimité et la continuité de nos institutions sont essentielles parce qu’elles nous mettent à l’abri du chaos en officialisant notre sens commun.

La mort des rois et la transmission pacifique du pouvoir sont, en démocratie, des périodes charnières qui accentuent la vulnérabilité de la société. Les normes et les lois qui régissent ces tournants sont traitées à juste titre avec une grande gravité.

Cherchant à dénoncer une fraude électorale, Donald Trump et ses alliés ont lancé une campagne de désinformation qui s’est finalement soldée par des violences. Elle visait ici directement le point de vulnérabilité institutionnelle maximale de la démocratie américaine et de ses normes les plus élémentaires.

À ce titre, c’était une forme de terrorisme épistémologique, l’expression paroxystique du chaos épistémologique. En mettant délibérément sa machine économique à disposition de cette cause, Mark Zuckerberg s’est rendu complice de cette attaque.

La société se renouvelle à mesure que le sens commun évolue. Il faut pour ce faire des espaces de débat public qui soient dignes de confiance, transparents et respectueux, surtout sur les sujets sensibles. Au lieu de quoi, nous avons affaire à l’inverse.

Les dirigeants des réseaux sociaux défendent leurs machines à semer le chaos en brandissant une version déformée du premier amendement. Or, le réseau social n’est pas un espace public mais un espace privé, régi par des machines et des impératifs économiques et incapable (et ne se préoccupant pas non plus) de distinguer le mensonge de la vérité ou le renouveau de la destruction.

Pas de vision politique cohérente

Cette vulnérabilité à la destruction du sens commun s’explique par le jeune âge d’une civilisation de l’information qui n’a pas encore trouvé sa place dans la démocratie. À moins de mettre un terme à ce modèle économique fondé sur la surveillance et de retirer le permis de voler qui légitime des activités antisociales, l’autre coup d’État continuera d’attiser les crises et d’en produire de nouvelles.

Mais alors, que faire ? À ce jour, ni les États-Unis ni les autres démocraties libérales ne sont parvenus à dessiner une vision politique cohérente d’un siècle numérique qui défendrait les valeurs, les principes et la gouvernance démocratiques. Pendant que les Chinois concevaient et déployaient des technologies numériques dans le but d’asseoir leur régime autoritaire, l’Ouest restait dans l’ambivalence et le compromis.

Ces atermoiements ont laissé un vide à l’emplacement de la démocratie, avec à la clé vingt années de dérive vers des outils privés qui surveillent et influencent nos comportements en dehors du cadre établi par la gouvernance démocratique. Ce qui ouvre la voie à la dernière étape du putsch épistémologique.

Le résultat, c’est que nos démocraties abordent cette troisième décennie démunies, sans les chartes des droits, cadres juridiques et structures institutionnelles nécessaires pour garantir un avenir numérique compatible avec les aspirations d’une société démocratique.

Poser les bases d’un siècle numérique démocratique

Nous en sommes encore aux balbutiements de la civilisation de l’information. Cette troisième décennie est l’occasion de poser les fondements d’un siècle numérique démocratique. La démocratie subit un siège auquel elle est seule capable de mettre un terme. Si nous voulons déjouer le coup d’État épistémologique, cela doit passer par la démocratie. Je propose d’axer ces premiers pas sur trois principes.

Premier principe : l’État de droit démocratique. Le numérique doit vivre sous le toit de la démocratie, non pas comme un pyromane, mais comme un membre à part entière de la famille, sujet à ses lois et à ses valeurs et s’y adossant pour se développer. La démocratie, ce géant endormi, s’agite enfin avec des initiatives juridiques et législatives en cours aux États-Unis et en Europe. Aux États-Unis, cinq projets de lois d’envergure, quinze projets de lois connexes et une proposition législative importante, chacun ayant des effets concrets sur le capitalisme de surveillance, ont été déposés au Congrès entre 2019 et mi-2020.

En octobre dernier, le ministère de la Justice, rejoint par onze États, a lancé des poursuites fédérales contre Google pour abus de position dominante. En décembre, la Federal Trade Commission a intenté un procès historique à Facebook pour ses pratiques anticoncurrentielles, rejointe par quarante-huit procureurs généraux, eux-mêmes imités peu après par trente-huit autres procureurs qui accusent Google d’user de moyens anticoncurrentiels pour évincer les rivaux de son moteur de recherche et [pousser les internautes à] privilégier ses services.

Reste que, pour ce qui est de déjouer le putsch épistémologique, la lutte antitrust montre ses limites. De fait, affaiblir Facebook ou n’importe quel autre géant du web ne nous prémunirait pas contre les dangers évidents du capitalisme de surveillance. Il faut aller plus loin.

Deuxième principe : la nouvelle donne appelle de nouvelles lois. De nouveaux droits apparaissent en réaction aux changements de nos modes de vie. Sur la question du droit à la vie privée, par exemple, le combat de l’avocat Louis Brandeis [au début du XXe siècle] s’expliquait par l’essor de la photographie et le risque de vol d’informations ou d’immixtion dans la vie privée qu’elle représentait.

Un droit inaliénable à la vie privée

Une civilisation de l’information démocratique ne peut pas progresser sans de nouvelles chartes des droits épistémologiques qui prémuniraient les citoyens contre les ingérences et les vols à grande échelle perpétrés par les acteurs du capitalisme de surveillance.

Pendant presque toute l’époque moderne, le droit à la vie privée était considéré comme élémentaire, rivé à nous comme notre ombre. Nous décidons chacun si et comment nos informations personnelles sont partagées, avec qui et à quelles fins.

En 1967, l’avocat William Douglas se faisait l’interprète des rédacteurs de la Déclaration des droits en expliquant que “la personne doit avoir la liberté de choisir elle-même le moment et les circonstances de la divulgation de ses secrets à autrui et de déterminer l’étendue de cette divulgation”. Cette “liberté de choisir”, c’est le droit épistémologique élémentaire de nous connaître nous-mêmes, dont découle toute notion de vie privée.

Par exemple, en tant que détentrice naturelle de tels droits, je ne donne pas au logiciel de reconnaissance faciale d’Amazon le droit de déceler et d’exploiter la peur [qui se lit sur mon visage] à des fins de ciblage et de prédiction comportementale, tout ça pour satisfaire les objectifs commerciaux d’entreprises tierces. Ce n’est pas simplement que mes émotions ne sont pas à vendre mais qu’elles sont invendables parce qu’inaliénables. Je ne donne pas ma peur à Amazon, mais Amazon me la prend quand même – une donnée de plus parmi les milliards d’autres qui alimentent les machines chaque jour.

Si nos droits épistémologiques élémentaires ne sont pas gravés dans la loi, c’est parce qu’ils n’avaient jamais fait l’objet jusque-là de menaces systématiques. Seulement voilà, les acteurs du capitalisme de surveillance ont fait valoir leur droit à tout savoir de nos vies.

Nous sommes donc à l’aube d’une nouvelle ère, fondée sur le statut d’exception implicite dont bénéficie le capitalisme de surveillance. Aujourd’hui, pour exister, le droit de savoir et de décider qui connaît notre vie doit être inscrit dans la loi et protégé par des institutions démocratiques.

Proscrire l’usage commercial des données

Troisième principe : à menace inédite, réponse inédite. De la même manière qu’une nouvelle situation fait apparaître la nécessité de nouveaux droits, les répercussions de ce coup d’État épistémologique appellent des solutions ad hoc.

Face à la nouvelle donne que nous impose le capitalisme de surveillance, la plupart des débats juridiques et réglementaires se focalisent sur les problèmes qui interviennent en aval, les données – leur confidentialité, leur accessibilité, leur transparence et leur cessibilité – et les stratagèmes permettant d’obtenir notre consentement moyennant une rétribution (dérisoire) en échange de nos données.

C’est en aval également qu’interviennent les débats sur la modération des contenus et les filter bubbles[le filtrage personnalisé, qui maintient l’internaute dans une “bulle” d’information], qui voient législateurs et internautes se courroucer devant des patrons réfractaires. C’est dans le périmètre de ces problèmes secondaires que ces sociétés veulent nous cantonner, focalisés sur les petites lignes des contrats de propriété au point d’oublier l’essence même du problème, à savoir que leurs revendications de propriété sont illégitimes.

Reste à savoir quelles solutions inédites permettraient de s’attaquer aux effets inédits de ce coup d’État épistémologique. Il convient en premier lieu de remonter en amont, à la source, et de mettre un terme à la collecte de données à des fins de surveillance commerciale. C’est en amont que le permis de voler fait des miracles, usant de diverses stratégies de surveillance pour changer le plomb de nos existences en or, c’est-à-dire en bases de données propriétaires.

Nous avons besoin de cadres juridiques qui mettent fin à l’extraction massive de données personnelles et la déclarent illégale. Des lois proscrivant ces pratiques permettraient de couper les chaînes d’approvisionnement illégitimes du capitalisme de surveillance. Ni les algorithmes qui recommandent, microciblent et manipulent ni les millions de prédictions comportementales débitées à la seconde ne peuvent exister sans les milliards de données qui abreuvent quotidiennement ces machines.

Préserver l’intérêt général

Ensuite, nous avons besoin de lois qui arriment la collecte de données aux droits fondamentaux et l’utilisation de ces données à l’intérêt général : elles doivent répondre aux besoins réels des personnes et des populations.

Enfin, nous suspendons les incitations financières qui encouragent le capitalisme de surveillance. Nous pouvons également interdire les pratiques commerciales tributaires d’une collecte massive de données. Les sociétés démocratiques ont bien proscrit la traite des êtres humains, alors qu’elle faisait vivre des économies entières.

Ces principes guident d’ores et déjà l’action démocratique. La Federal Trade Commission a lancé une enquête sur les réseaux sociaux et les sites de streaming vidéo moins d’une semaine après avoir déposé sa plainte contre Facebook, déclarant qu’elle avait bien l’intention de “soulever le capot” sur ses activités internes “et d’étudier ses moteurs en détail”.

Si elles sont adoptées, les propositions de lois novatrices élaborées en Europe et en Grande-Bretagne commenceront à institutionnaliser ces trois principes. Un cadre européen permettrait d’asseoir l’autorité de la démocratie sur les boîtes noires des activités internes des principales plateformes. Les droits fondamentaux et l’État de droit ne s’évaporeraient plus à la cyberfrontière, le législateur insistant sur la nécessité d’un “cyberenvironnement sûr, prévisible et digne de confiance”.

En Grande-Bretagne, le projet de loi Online Harms instituerait un devoir de protection qui tiendrait les groupes du web responsables des préjudices causés et prévoirait de nouvelles instances de contrôle assorties de pouvoirs coercitifs.

Deux citations généralement attribuées à Louis Brandeis figurent dans l’impressionnant rapport du Congrès sur la lutte antitrust :

Nous devons faire un choix. Nous pouvons avoir la démocratie ou nous pouvons avoir la richesse concentrée dans les mains de quelques-uns, mais nous ne pouvons pas avoir lesdeux.”

Cette déclaration, si pertinente à l’époque du juriste, reste un commentaire piquant sur le capitalisme à l’ancienne, mais elle n’est plus adaptée au nouveau capitalisme qui nous connaît. À moins que la démocratie n’annule le permis de voler et ne conteste le modèle économique et le fonctionnement du capitalisme de surveillance, le coup d’État épistémologique à l’œuvre fragilisera la démocratie et finira par la transformer.

Nous avons un choix à faire. Nous pouvons avoir la démocratie ou nous pouvons avoir une société de la surveillance, mais nous ne pouvons pas avoir les deux. Nous avons une civilisation de l’information démocratique à bâtir, et il n’y a pas de temps à perdre.

Shoshana Zuboff


Avec 1 600 journalistes, 35 bureaux à l’étranger, 130 prix Pulitzer et quelque 5 millions d’abonnés au total, The New York Times est de loin le premier quotidien du pays, dans lequel on peut lire “all the news that’s fit to print” (“toute l’information digne d’être publiée”).
C’est le journal de référence des États-Unis, dans la mesure où les télévisions ne considèrent qu’un sujet mérite une couverture nationale que si The New York Times l’a traité. Son édition dominicale (1,1 million d’exemplaires) est distribuée dans l’ensemble du pays – on y trouve notamment The New York Times Book Review, un supplément livres qui fait autorité, et l’inégalé New York Times Magazine. La famille Ochs-Sulzberger, qui, en 1896, a pris le contrôle de ce journal créé en 1851, est toujours à la tête du quotidien de centre gauche.
Quant à l’édition web, qui revendique plus de 3,7 millions d’abonnés en octobre 2019, elle propose tout ce que l’on peut attendre d’un service en ligne, avec en plus des dizaines de rubriques spécifiques. Les archives regroupent des articles parus depuis 1851, consultables en ligne à partir de 1981.

[Systémie] Richard Horton, « Le Covid-19 n’est pas une pandémie.

The Lancet, 26 septembre 2020.
Traduction française Jacques Hardeau, février 2021.

Mis en ligne sur le site Et vous n’avez encore rien vu le 9 février 2021

Alors que le monde approche le million de décès dus au Covid-19, nous devons nous rendre compte que nous avons adopté une approche beaucoup trop étroite pour gérer cette épidémie due à un nouveau coronavirus. Nous avons considéré que la cause de cette crise était une maladie infectieuse. Toutes nos interventions se sont focalisées sur la réduction des lignes de transmission virale, en vue de contrôler la propagation de l’agent pathogène. La « science » qui a guidé les gouvernements a été principalement conduite par des modélisateurs en épidémiologie et des spécialistes de maladies infectieuses qui, de manière tout à fait compréhensible, ont envisagé l’urgence sanitaire actuelle dans les termes séculaires de la peste. Mais ce que nous avons appris jusqu’à présent nous indique que l’histoire de Covid-19 n’est pas si simple.

Deux catégories de maladies interagissent au sein de populations spécifiques : l’infection par le coronavirus 2 du syndrome respiratoire aigu sévère (Sras-CoV-2) et une série de maladies non transmissibles (MNT). Ces maladies se concentrent au sein de groupes sociaux selon des formes d’inégalités profondément ancrées dans nos sociétés. L’accumulation de ces maladies sur fond de disparités sociales et économiques exacerbe les effets néfastes de chaque maladie distincte. Le Covid-19 n’est pas une pandémie ; il s’agit d’une syndémie. La nature syndémique de la menace à laquelle nous sommes confrontés signifie qu’une approche plus nuancée est nécessaire si nous voulons protéger la santé de nos communautés.

*

La notion de syndémie a été initialement élaborée par Merrill Singer, une anthropologue médicale américaine, dans les années 1990. Dans un article paru dans The Lancet en 2017, avec Emily Mendenhall et ses collègues, Singer a fait valoir qu’une approche syndémique permet de mettre en évidence les interactions biologiques et sociales qui sont importantes pour le pronostic, le traitement et la politique de santé. Pour limiter les dommages causés par le Sras-CoV-2, il faudra accorder une attention bien plus grande aux maladies non transmissibles et aux inégalités socio-économiques que ce qui a été fait jusqu’à présent. Une syndémie ne se réduit pas seulement aux comorbidités. Les syndémies se caractérisent par un ensemble d’interactions biologiques et sociales entre des états et des conditions, interactions qui augmentent la susceptibilité d’une personne à nuire ou à aggraver son état de santé. Dans le cas du Covid-19, l’offensive contre des maladies non transmissibles sera une condition préalable à un confinement réussi. Comme l’a montré notre récente publication « Compte à rebours 2030 des MNT » [NCD Countdown 2030], bien que la mortalité prématurée due aux maladies non transmissibles soit en baisse, le rythme du changement est trop lent.

Le nombre total de personnes vivant avec des maladies chroniques est en augmentation. S’attaquer au Covid-19 signifie lutter contre l’hypertension, l’obésité, le diabète, les maladies cardiovasculaires et respiratoires chroniques, et le cancer. Accorder une plus grande attention aux maladies non transmissibles n’est pas un programme réservé aux seules nations riches. Les maladies non transmissibles sont une cause négligée de mauvaise santé dans les pays pauvres également. Dans leur compte rendu de la commission Lancet, publié la semaine dernière, Gene Bukhman et Ana Mocumbi ont décrit une entité qu’ils ont appelée « MNTL des pauvres », ajoutant les diverses lésions à une série d’affections liées aux maladies non transmissibles, telles que les morsures de serpent, l’épilepsie, les maladies rénales et la drépanocytose. Pour le milliard de personnes les plus pauvres du monde actuel, les MNTL représentent plus d’un tiers de la charge de morbidité. La commission a décrit comment la disponibilité de traitements abordables et rentables au cours de la prochaine décennie pourrait éviter près de 5 millions de décès parmi les personnes les plus pauvres du monde. Et ce, sans tenir compte des risques réduits de décès dus au Covid-19.

*

Considérer le Covid-19 comme une syndémie a pour conséquence la plus importante de souligner ses origines sociales. La vulnérabilité des citoyens âgés, des communautés noires, asiatiques et ethniques minoritaires, et des travailleurs clés qui sont généralement mal payés et bénéficient de moins de protection sociale, met en évidence une vérité jusqu’à présent à peine reconnue, à savoir que quelle que soit l’efficacité d’un traitement ou d’un vaccin protecteur, la recherche d’une solution purement biomédicale au Covid-19 échouera. À moins que les gouvernements ne conçoivent des politiques et des programmes visant à inverser les profondes disparités, nos sociétés ne seront jamais vraiment en sécurité avec le Covid-19.

Comme Singer et ses collègues l’ont écrit en 2017 :

« Une approche syndémique donne une orientation très différente à la médecine clinique et à la santé publique en montrant comment une approche intégrée afin de comprendre et de traiter les maladies peut être bien plus efficace que le simple contrôle d’une maladie épidémique ou le traitement de patients individuels. »

Je voudrais ajouter un autre avantage. Nos sociétés ont besoin d’espoir. La crise économique qui s’avance vers nous ne sera pas résolue par un médicament ou un vaccin. Il ne faut rien de moins qu’une relance nationale. Envisager le Covid-19 comme une syndémie invite à une vision plus large, qui englobe l’éducation, l’emploi, le logement, l’alimentation et l’environnement. Considérer le Covid-19 uniquement comme une pandémie exclut une telle perspective plus large, mais nécessaire.

Richard Horton,
rédacteur en chef de The Lancet.



alain@barras.fr et l’aide d’E.D.J



[Systémie] 2/3 Notre-Dame de Paris : plaidoyer pour une intervention lente et raisonnée


Clermont-Ferrand, charpente dotée de grands arcs diaphragmes en briques réalisée par Viollet-le-Duc. Seule la croupe date du début du XVIᵉ siècle ; la restauration de la fin du XXᵉ siècle a contribué au remplacement d’environ 50% des bois anciens. B. Phalip, Author provided

« Pour ceux qui savent que Quasimodo a existé, Notre-Dame est aujourd’hui déserte, inanimée, morte. On sent qu’il y a quelque chose de disparu. Ce corps immense est vide ; c’est un squelette ; l’esprit l’a quitté, on en voit la place et voilà tout. C’est comme un crâne où il y a encore des trous pour les yeux, mais plus de regard. » (Victor Hugo, Notre-Dame de Paris, livre IV, chap. 3)

La douloureuse perte par incendie de la charpente (XIIe-XIXe siècles) de Notre-Dame de Paris ne peut faire oublier ni les « restaurations » aventureuses et interventionnistes d’autres charpentes médiévales, telles que celle de la cathédrale de Bourges (2009-2014), ni les négligences ou le manque de moyens pour mettre hors d’eau celles de monuments équivalents comme à la collégiale d’Eu en Normandie.

Tous les spécialistes des charpentes médiévales sont à même de produire d’autres exemples, tant les études d’archéologie du bâti ne sont pas encore totalement entrées dans les mœurs, afin de conduire à un entretien respectueux, comme à des interventions (minimalistes ?) tenant notamment compte des avis d’archéologues lorsqu’ils sont sollicités : tels Patrick Hoffsummer (Liège), Jean‑Yves Hunot (CNRS Tours) ou encore Frédéric Epaud (Archéologie, Maine-et-Loire).

Reims, la ville et la cathédrale en 1916. Base Mérimée, inventaire et monuments historiques.

Réduire la fatalité

Le premier constat est rude, mais il peut avoir des vertus, afin de ne pas ajouter l’erreur ou encore l’oubli, à l’accident toujours possible. La fatalité doit être réduite par la conscience, la prévention et l’étude. Eugène Viollet-le-Duc, Henri Deneux ou Friedrich Ostendorf furent parmi les meilleurs connaisseurs de la charpenterie en France et en Allemagne entre la fin du XIXe siècle et le début du XXe siècle.

Par leurs études, ils contribuèrent à des relevés architecturaux non remplacés, comme à la réalisation de maquettes conservées. Le risque existait car bien des charpentes de cathédrales ou d’abbatiales avaient brûlé dans le courant du XIXe siècle, ou nécessitaient d’être reconstruites : Chartres, Rouen, Saint-Denis, Clermont-Ferrand. Ces sinistres conduisirent à débattre de l’usage de nouveaux matériaux comme la fonte, le fer ou la brique afin de bâtir de grands arcs, comme des structures assemblées et boulonnées résistantes au feu. Il s’agissait de faire entrer la modernité dans la préservation du monument.

Mais, encore faut-il s’entendre sur ce que l’on nomme et présente comme des « nécessités » absolues d’intervention dans la précipitation. Ce sont des accidents, des négligences, mais aussi des conflits qui meurtrissent les cathédrales. Ainsi, quasiment dès leur érection, dans de nombreux cas, les incendies affectent partiellement ou totalement les édifices une à plusieurs fois par siècle : Saint-Benoît-sur-Loire en 974, 1002, 1005 et 1026. Cela est d’ailleurs bienvenu lorsque les chapitres des cathédrales préparent fort à propos une reconstruction.

Reims, la cathédrale, reconstruction de la charpente en éléments de béton préfabriqués après 1918. La couverture provisoire est visible. Base Mérimée, inventaire et monuments historiques.

Il en est ainsi de grands chantiers romans (abbatiale de Vézelay), mais aussi gothiques souvent justifiés par des incendies : cathédrales de Chartres, Reims, Rouen, ou de Canterbury. En 1870, c’est la charpente de la cathédrale de Strasbourg qui disparaît lors du conflit franco-prussien. Plus tard, c’est l’abbatiale (Saint-Rémi) et la cathédrale (Notre-Dame) de Reims dont les charpentes médiévales brûlent lors du premier conflit mondial. Henri Deneux en avait réalisé des maquettes. Il en est de même à Noyon, Soissons ou Vauclerc (Aisne), détruites lors de ce conflit. Des accidents anciens ou plus récents encore s’y ajoutent pour les cathédrales de Metz (1877) ou de Nantes (1972).

D’inestimables édifices civils, religieux ou sites, enfin, ont été perdus lors du second conflit mondial, partout en Europe. La France n’est pas seule concernée : (cathédrales de Saint-Malo, Rouen ou de Nevers en France ; Cologne, Dresde, Monte-Cassino, Rotterdam, Tournai, Varsovie…).

Quelques chantiers exemplaires

Face à ces pertes, risques et « nécessités » quelques chantiers, souvent exemplaires dans leurs pratiques d’entretien et de restauration, sont susceptibles de montrer des voies possibles grâce à des collaborations volontaires, des prudences dans l’intervention, comme dans les matériaux et pratiques, mais aussi de patientes recherches.

En ce domaine, le temps long est gage d’assurance, tandis que l’intervention trop immédiate signifie la précipitation et les choix techniques inappropriés. Il s’agit donc bien, à Paris, de résister à l’émotion qui submerge et exige la restauration aux effets immédiats, visibles à court terme, tandis que la sagesse suggère au contraire la réflexion et réclame l’étude, avant intervention.

De telles études et interventions réfléchies existent en France et en Europe, qui supposent de belles études d’archéologie du bâti, d’exemplaires recherches historiques et surtout une grande patience fondée sur de solides expériences. Ce sont, entre autres exemples, les cathédrales de Tournai en Belgique, de Lyon et d’Auxerre en France, de Strasbourg et de Fribourg-en-Brisgau de part et d’autre du Rhin.

Chacune de ces cathédrales a pu subir autant de vicissitudes que Notre-Dame de Paris et pourtant chacune inscrit son entretien, ses actions dans le temps long. Tournai est un immense chantier qui réunit tous les intelligences et savoir-faire du pays en une lente Brabançonne (hymne belge) résolue. Des messes y sont dites pour la Nation et son roi. Bien sûr, tout est discuté, soumis à la critique (couverture de plomb en remplacement de celle en ardoise) et débattu, mais ces choix se font toujours en étant accompagnés d’études exhaustives (notamment par l’archéologue du bâti Laurent Delehouzée), d’interventions sérieuses et justifiées.

Soissons, les grandes arcades de la nef en 1918. Base Mérimée, inventaire et monuments historiques, Author provided

Tous les niveaux institutionnels y sont parties prenantes ce qui explique à la fois la lenteur du chantier et la force du sens donné à l’entreprise. Les chantiers de Lyon et d’Auxerre sont plus modestes dans leurs moyens, tout en étant accompagnés de belles études archéologiques : Centre d’études médiévales d’Auxerre, Christian Sapin et son équipe ; Ghislaine Macabéo et Nicolas Reveyron du laboratoire ArAr. Enfin, Strasbourg et Fribourg-en-Brisgau expérimentent des interventions raisonnées où le remplacement des pierres est limité.

L’utilisation des biocides (produits dits phytosanitaires) est interdite et les échanges scientifiques sont nombreux entre les deux villes afin de préconiser des techniques de nettoyage par cataplasmes (procédé Tollis) et non les gommages très abrasifs pour la pierre.

Chaque restauration est brutale pour un édifice vieux de sept à huit siècles ; l’entretien seul est plus respectueux. Les institutions françaises vont devoir maintenant choisir entre un parti « brutaliste » dénoncé naguère par l’architecte des Monuments historiques Achille Carlier et une vision à long terme préconisant les meilleures chaux de restauration sans additifs, le respect du biofilm, l’abandon des biocides dans le traitement de la pierre historique, la systématisation des études d’archéologie du bâti aux relevés exhaustifs, la surveillance des travaux, la maîtrise des impacts, comme la transparence des débats. La Nation peut être associée ; c’est un exercice long et difficile, inhabituel, mais c’est aussi le gage d’une association étroite entre une action collective aux résultats satisfaisants (garder l’ancien et respecter les parties restaurées par Viollet-le-Duc). Le mot patrimoine est inutile qui est brandi à tort et à travers alors que le monument se doit d’être respecté.




[Systémie] 1/3 : Conserver, protéger et entretenir pour moins restaurer les monuments et les sites


Autant le mot de conservation est méconnu, autant celui de restauration est perçu comme une évidence positive pour le monument.

Les classements au titre du Patrimoine mondial de l’Unesco, des Monuments Historiques en France, ou de leurs équivalents en Europe (English Heritage Buildings, Baudenkmal, Monumenti nazionali italiani, Patrimonio Cultural de España, biens classés deBelgique/Kulturdenkmal ou Beschermd erfgoed…), montrent combien la « protection » est intégrée par les publics, comme les institutions de chaque pays.

Filets de protection à Notre-Dame de Paris. Bruno Phalip, Author provided

De même, face à l’urgence de mise en sécurité, les mesures prises sont pour l’essentiel acceptées, en dépit d’impatiences. Qu’il s’agisse du chœur échafaudé de la cathédrale de Tournai en Belgique ou des parties hautes de Notre-Dame de Paris, le fonctionnement des institutions n’est pas remis en cause.

Débats et institutions

Après de vifs débats, en dépit parfois de volontés contradictoires, les réponses données sont peu critiquées au-delà des cercles de spécialistes. Les institutions patrimoniales du Ministère de la Culture, la Commission nationale du patrimoine et de l’architecture, les Monuments Historiques, le Laboratoire de Recherche des Monuments Historiques et les Directions Régionales des Affaires Culturelles, répondent avec pertinence, en apportant des solutions qui tendent au respect des lois (1887, 1909, 1913 et modifications postérieures), des règlements adaptés (paysages, sites, monuments, lieux de culte, mobilier, archéologie…), comme des protocoles (financement, moyens, méthodes, déontologie…).

A Tournai (Belgique), la résille d’échafaudage jouant avec les vitraux. Bruno Phalip, Author provided

Ces choix prévalent pour Notre-Dame en dépit d’un parti interventionniste appelant à l’acceptation d’une « signature architecturale » (toit en verre, flèche en acier, matériaux contemporains et formes novatrices, etc.) présentée comme un gage de modernité devant emporter la décision.

La flèche construite à Notre-Dame par Viollet-le-Duc au XIXe siècle, avant les lois républicaines sur les Monuments historiques, s’est imposée à tous comme une œuvre à part entière. Cependant, une cathédrale n’est pas un musée (pyramide de Ming Pei au Musée du Louvre) ; aussi la raison l’a emporté.

La protection et les règles de la restauration ont ainsi prévalu dans le respect des institutions et lois. Cependant, si la nécessité et la modernité des mesures de restauration (techniques de pointe, matériels et ingénierie, outils numériques, analyses, temps de la recherche des scientifiques associé au temps court du chantier…) sont des évidences à Notre-Dame, elles ne masquent pas les besoins liés à la conservation de milliers d’autres monuments.

Ceux-là ne bénéficient ni de l’émotion, ni des moyens ou des projets, désormais associés au 15 avril 2019. L’incendie récent de l’église de Romilly-la-Puthenaye (Eure) montre les limites de la médiatisation, du mécénat (grilles de Versailles) comme de l’intérêt porté à des édifices aussi importants aux communautés humaines que le plus grand d’entre eux.

Quand la « reconstruction » supplante la « restauration »

Ce faisant, dans le langage courant, pour Notre-Dame, comme pour l’église de Romilly-la-Puthenaye, le mot restauration n’est quasiment plus employé, au profit de reconstruction, ce qui trahit un affaiblissement du sens premier. La restauration – en dépit de limites perçues à Chartres ou au palais des ducs de Bretagne à Nantes – implique des règles débattues, la reconstruction peut s’en affranchir, y compris pour des édifices protégés. Nous devons y prendre garde.

La reconstruction de la tour nord de l’abbatiale de Saint-Denis, les projets de reconstruction des Tuileries ou du château de Saint-Cloud témoignent de ce glissement sémantique et sont habités des mêmes frénésies visant à corriger l’histoire en ayant pour seul avenir un passé érigé au rang du mythe (château de Berlin, Berliner Schloss des Hohenzollern).

Forêt-Fouesnant (Finistère) ; pinacle et statue après traitement par biocide (lichen) et nettoyage ; les surfaces sont altérées. Bruno Phalip, Author provided

Avant de restaurer, l’entretien patient, respectueux des marques du vieillissement qui affectent le monument, doit être privilégié en vue de sa conservation. Transformés, mais en état ou ruinés, les sites peuvent faire l’objet d’aménagements, de consolidations ou d’interventions encadrées par les préconisations des chartes internationales de la conservation : Athènes en 1931, Venise en 1964, Nara en 1994 ou Cracovie en 2000. Les acteurs de la restauration s’y réfèrent avec la volonté affichée d’en respecter les préconisations (La Chaise-Dieu, Chartres).

Toutefois, en France, comme en Europe, le volontarisme règne, accompagné de fortes interventions à la cathédrale du Puy-en-Velay, Notre-Dame-du-Port à Clermont-Ferrand, Sainte-Gertrude de Nivelles en Belgique ou la cathédrale Saint-Georges de Limburg an der Lahn en Allemagne. De beaux exemples existent, faisant l’objet d’attentions jalouses, comme la cathédrale de Tournai en Belgique bien documentée et choyée depuis plus de vingt ans, Notre-Dame de Paris depuis deux ans maintenant, ou Angkor Vat au Cambodge depuis trois décennies.

Restaurer n’est sans doute pas toujours préserver

Il faut pourtant en convenir, un siècle et demi de restaurations ne préservent pas les monuments. L’usage inadapté de matériaux et produits contribue à l’accélération des processus d’altération, en se mariant mal avec des pierres, vieilles de deux millénaires pour un monument antique ou parfois d’un millénaire pour le Moyen Âge : cryogénie par microabrasion, hydrogommage avec poudre abrasive, poudres d’alumine ou fine de verre.

L’interaction entre matériaux anciens et neufs est – la plupart du temps – néfaste, ne tenant pas compte de l’équilibre qui s’établit entre le monument vieux de plusieurs siècles, son environnement (climat, paysage, faune et flore) et des chantiers actuels aux techniques industrielles (meuleuses, marteaux pneumatiques, perceuses…).

L’emploi de matériaux denses ou étanches (ciments, produits hydrofuges…) n’autorise plus une « respiration » équilibrée du mur sur le long terme (mortier de chaux, maçonneries ventilées…), mais aussi les nettoyages abrasifs répétés, les traitements polluants (sites, eaux du sous-sol) par biocides (biofilm, végétaux), ou les sols rendus étanches (bitumes…) sont néfastes.

La biodiversité est jugée facteur d’altération pour le monument ; ce n’est pas seulement les cyanobactéries, lichens et mousses qui peuplent les parements depuis le temps de la construction. Les insectes et rongeurs, les oiseaux eux-mêmes sont considérés comme nuisibles, à propos desquels des solutions sont utilisées : des filets visibles en Allemagne à Nuremberg ou encore en Angleterre à Exeter.

Tichodrome échelette d’un site archéologique ; les oiseaux sont également considérés comme nuisibles (bec et serres, déjections). Bruno Phalip, Author provided

Plusieurs problèmes se posent en plus de la question esthétique ; ces filets abîmés et mal fixés impliquent des frottements du fait de l’action du vent ; ce sont aussi les systèmes électro-répulsifs accrochés aux sculptures et architectures (cathédrale d’Auxerre) avec des fixations métalliques et des colles s’ajoutant aux pics anti-pigeons.

Les marques du vieillissement et la biodiversité sont ainsi bannies au profit de monuments blanchis, aux environnements adaptés à l’économie du tourisme, qui contreviennent aux protocoles prudents préconisant de discrètes interventions. Le plus grand adversaire du monument n’est pas le temps, mais bien l’action humaine de notre époque. La modernité montre ainsi ses limites, dans l’absence de mesure, prudence et affectation des recherches en vue du respect de la biosphère intimement liée au monument depuis des siècles.

Biofilm de lichens et de mousses ; tous sont associés à l’altération de la pierre des monuments. Bruno Phalip, Author provided

L’avenir ? Ne plus utiliser de biocides, produits consolidants ou hydrofuges ; éviter les nettoyages systématiques. De ce point de vue, les mortiers biologiques et la biominéralisation constituent des indices encourageants (bio-calcins d’Argenton-Château et de Thouars ; LRMH), tout comme le soft caping (couverture végétale) préconisé par les équipes du English Heritage et répandu en Grande-Bretagne. L’immédiateté de mauvaises solutions est à bannir en recherchant d’autres moyens que ceux habituellement préconisés qui aboutissent à une minéralisation outrancière du monument dont les surfaces sont altérées par abrasion et uniformisées.


Pour aller plus loin :

« Restaurer un édifice médiéval, problèmes de méthode. À propos de quelques sites dans le centre de la France et dans le royaume khmer entre le XIe et le XIIIe siècle », in Anne Baud et Gérard Charpentier, Chantiers et matériaux de construction de l’Antiquité à la Révolution industrielle en Orient et en Occident, MOM éditions, 2020, p.245-254

Bruno Phalip et Fabienne Chevallier, Pour une histoire de la restauration, XIXe-début XXe siècles, Presses universitaires Blaise Pascal, Clermont-Ferrand, 2021 (en cours de publication).




[Systémie] Comment faire renaître la forêt ?

Le sapin de Douglas arrive à maturité en quelques décennies. Aujourd’hui, c’est le roi du rendement. 
Le sapin de Douglas arrive à maturité en quelques décennies. Aujourd’hui, c’est le roi du rendement. 
Olivier Metzger pour Télérama

En France, les forêts sont plus nombreuses qu’autrefois, mais elles sont aussi plus fragiles. Diversification des essences, gestion raisonnée… Il est urgent d’agir. Reportage parmi les épicéas et les sapins de Douglas, dans le Limousin.

Du haut du mont Bessou, point culminant de la Corrèze, 976 mètres d’altitude, les collines, à perte de vue, sont mangées de sombres forêts de résineux qui laissent encore voir quelques pâturages, mais aussi les traces récentes de coupes rases. Ici, voilà moins d’un siècle, régnait la lande de genêt et de bruyère, parcourue de maigres troupeaux de moutons. Puis la guerre, l’exode rural, la déprise agricole sont passés par là, et le Fonds forestier national, un système d’aide au reboisement qui perdura de 1946 à 2000, a transformé le paysage. Au profit de l’épicéa, mais aussi du sapin blanc, du pin sylvestre, du mélèze, et bien sûr du roi des rendements : l’arbre miracle, vigoureux, droit, imputrescible, le fameux sapin de Douglas de la côte ouest des États-Unis… Autant d’essences censées apporter un petit revenu aux propriétaires de ces terres pauvres et à leurs descendants. En matière de forêt, surtout si elle est plantée ex nihilo, le retour sur investissement — de 1 à 3 % par an — demande plusieurs décennies, des soins, et quelque science. Et plus encore lorsque le climat se fâche.

Le marquage ou « martelage » : une activité nécessaire pour désigner les arbres à couper. Ici, dans la forêt de Celle, en Corrèze. 
Le marquage ou « martelage » : une activité nécessaire pour désigner les arbres à couper. Ici, dans la forêt de Celle, en Corrèze. 
Olivier Metzger pour Télérama

“Les effets du changement climatique sont monstrueux !” Lionel Say, directeur de la CFBL

« Les effets du changement climatique sont monstrueux ! lâche Lionel Say, directeur de la coopérative. Trop d’eau l’hiver, pas assez l’été, des canicules de plus en plus longues en France et en Europe. » Il le sait d’autant plus que la CFBL réunit quatorze mille propriétaires et 140 000 hectares de forêt entre Limousin, Auvergne et Bourgogne. « Premier touché, l’épicéa, particulièrement sensible à la sécheresse et à un petit insecte, le scolyte, qui, profitant de la faiblesse de son hôte, le tue en quelques mois. Le sapin de Vancouver, le sapin pectiné, le hêtre ne vont pas mieux. » Sur cette parcelle en cours de marquage, les gestionnaires ont encore de la chance : elle accueille plusieurs essences. Dans les plantations mono-spécifiques — comme en basse altitude dans l’est de la France, où l’épicéa domine —, si une maladie, un ravageur arrivent, tout le peuplement y passe. Un désastre économique, écologique et paysager qui se traduit par des coupes rases. Menées brutalement sur des dizaines d’hectares, celles-ci ont un effet dévastateur sur l’érosion des sols, le régime des eaux, et la repousse future des jeunes plants soumis au plein soleil et aux intempéries.

En vert, la zone de répartition du hêtre aujourd’hui et à l’horizon 2100.  En rose : disparition en cours. Source ONF. 
En vert, la zone de répartition du hêtre aujourd’hui et à l’horizon 2100.
En rose : disparition en cours. Source ONF. 
Télérama

« Il faut réinventer le métier ! La phase de diagnostic intégrant le changement climatique devient essentielle », souligne Lionel Say, qui avoue faire désormais parfois le contraire de ce qu’il a appris dans les années 1980 à l’école forestière. Tout va tellement vite… Alors il tâtonne. Sur certaines coupes, il s’inspire des méthodes de la permaculture, en protégeant les sols avec des branches pour qu’ils restent frais, et reboise avec des essences potentiellement plus résistantes : du douglas, du cèdre de l’Atlas ou du sapin de Nordmann venu du Caucase, un habitué des coups de chaud…

“Le bouleversement climatique nous a pris par surprise, même si nous n’étions pas totalement innocents non plus.” Sylvestre Coudert, patron du groupe Forestry

Un peu plus bas, au lieu-dit Le Loubeix (le bois aux loups), sur la commune de Saint-Pardoux-le-Vieux, Sylvestre Coudert, expert forestier, patron du groupe Forestry, possède quelques dizaines d’hectares d’une forêt plantée par son grand-père, Yves Coudert : un pionnier. Lui a importé du mélèze et le fameux douglas — Sylvestre devait s’appeler Douglas, mais l’état civil a refusé. Aujourd’hui, les arbres ont poussé, mais montrent des signes alarmants. « Le bouleversement climatique nous a pris par surprise, même si nous n’étions pas totalement innocents non plus. La crise que connaît la forêt tient aussi à cet enthousiasme productiviste de la deuxième moitié du XXe siècle qui, dans les campagnes, a accouché de cette agriculture industrielle dopée à la chimie et, en ville, à ces cités devenues invivables. En forêt, la monoculture, qui participait de la même foi, montre aujourd’hui ses limites. »Sylvestre Coudert travaille sur ses terres à la transformation progressive de ces plantations en ligne en futaies irrégulières, avec des arbres de tous les âges et le maximum d’essences. « Cette biodiversité reconquise devrait offrir plus de résistance aux aléas du climat et aux maladies, mais plus d’aménités aussi pour le paysage, les promeneurs et la faune sauvage. On aurait vu un loup par ici. Bonne nouvelle… »

Avec ce type de gestion, fini les coupes rases. On ne prélève que les malades ou les beaux bois exploitables, pour permettre une régénération naturelle avec des sujets qui ont germé in situ, a priori mieux adaptés au site. Les feuillus ont toute leur place dans ce dispositif. Par ici, le chêne ne vient pas trop mal, même si on n’atteint jamais les beaux fûts des forêts de plaine. Le hêtre, comme sur une bonne moitié sud et ouest du pays, accuse le coup des sécheresses successives. Quant au châtaignier, victime de la maladie de l’encre, et le frêne, touché par la chalarose, leur avenir paraît incertain. Sylvestre Coudert croit au potentiel d’autres essences comme l’aulne — « un très bon substitut du merisier, totalement ignoré » — ou le bouleau — « un beau bois clair et léger travaillé dans les pays du Nord, méprisé chez nous ».

“On débite des ados dont on ne peut rien faire d’autre que de l’agglo, des palettes ou du bardage !” Sylvain Angérand, ingénieur forestier

L’expert forestier pointe là l’autre faiblesse du secteur : le manque de souplesse de la filière bois française. Autrefois, existait dans nos massifs forestiers un tissu de petites scieries artisanales adaptées à la ressource locale, mais où les conditions de travail étaient dures. Pour des raisons de sécurité et d’obsolescence des outils, elles ont pratiquement toutes fermé. De grosses unités spécialisées ont pris la place, équipées de « canters », des lignes de sciage importées de Scandinavie, calibrées pour des grumes de 40 à 50 centimètres de diamètre. Or, en Suède ou en Finlande, la pousse est lente, et les fameux pins du Nord (des épicéas) atteignent ces tailles au bout de quatre-vingts à cent ans. Sous nos cieux plus tempérés, quarante à cinquante ans suffisent pour le même résultat. Mais la densité du bois n’est pas la même, ni sa résistance. « On débite des ados dont on ne peut rien faire d’autre que de l’agglo, des palettes ou du bardage ! » s’emporte Sylvain Angérand, ingénieur forestier, responsable de l’association écologiste Canopée, qui milite pour qu’on laisse vieillir nos arbres : « 80 % de la forêt française a moins de cent ans, car on l’exploite trop vite. Et mal. » Comment ne pas lui donner raison devant ces énormes troncs de douglas d’un bon mètre de diamètre qui pourrissent lentement sur le site de la CFBL, à Ussel, et seront bientôt broyées pour alimenter la chaudière à biomasse de l’hôpital ? Lionel Say avoue que ces gros bois trouvent difficilement preneur, car il existe peu de scieries capables de les débiter. Pour le feuillu, c’est parfois pire : malgré un système qui favorise les acheteurs français ou européens mis en place par l’ONF, beaucoup de grumes de chêne ou de hêtre partent en Chine où la demande est plus forte et où les prix sont à la hausse.

Jeunes conifères dans la forêt de Laveix, à Saint-Étienne-la-Geneste, en Corrèze. 
Jeunes conifères dans la forêt de Laveix, à Saint-Étienne-la-Geneste, en Corrèze. 
Olivier Metzger pour Télérama

« Nous ne sommes pas contre les coupes, précise Sylvain Angerand, de l’association CanopéeNous sommes contre les coupes rases et les pratiques de ces “usines à bois” calquées sur le modèle artificiel de la forêt landaise qu’on abat et replante tous les quarante ans comme de vulgaires champs de maïs. Il faudrait que tous ces professionnels — les coopératives qui décident pour trois millions de petits propriétaires, les gros investisseurs comme les banques et les compagnies d’assurances qui possèdent des centaines de milliers d’hectares, et l’Office national des forêts, qui gère les 4 millions d’hectares de la forêt publique, soit le quart de la surface boisée — se rappellent le vieil adage du forestier : “Imiter la nature pour hâter son œuvre”, et non pas tout chambouler avec des engins lourds et replanter derrière. » Car la forêt est un milieu naturel d’une grande générosité. Elle capte le CO2, fixe le carbone dans le bois et les sols, libère de l’oxygène. Elle apporte de la fraîcheur, participe au régime des pluies, filtre l’eau, empêche l’érosion et les glissements de terrain. Elle abrite une riche biodiversité indispensable aux équilibres de la vie. Elle donne du calme, du plaisir, du rêve, des baies et des champignons à ceux qui s’y promènent… « Et elle fournit un matériau absolument génial qui s’appelle le bois. Encore faut-il le cueillir à point, et l’utiliser à bon escient. »

Spécialiste des bâtiments en bois, Mathias Romvos, architecte de l’agence Graam, plaide avec conviction pour « le seul matériau de construction plein de vertus qui pousse tout seul. Naturel, renouvelable, biodégradable, recyclable, et il stocke le carbone, contrairement au béton, dont la production nécessite une consommation énergétique quatre fois plus importante, quand celle de l’acier en dépense soixante fois plus et l’aluminium, cent trente fois ! » À Dijon, il termine ainsi un bel immeuble de bureaux de six étages et 12 000 mètres carrés tout en bois blond, pour la Caisse d’épargne. Un symbole fort pour cette banque qui possède 21 % des surfaces de douglas du Morvan. Las, l’architecte, dont le mantra absolu est « le bon matériau au bon endroit », a majoritairement choisi… du pin du Nord venu de Scandinavie.

Ces chênes qu’on abat
Mille chênes pour la charpente de Notre-Dame, mille autres pour la flèche… Si, d’un point de vue technique ou philosophique, refaire une charpente moyenâgeuse équarrie à la hache ou lui substituer une structure contemporaine en acier, béton ou lamellé-collé découpé au laser pouvait faire débat, les deux mille « sacrifiés » ne représentent que 0,2 % du million de chênes abattus tous les ans en France. Et tant qu’à tomber, mieux vaut se retrouver poutre pour un millénaire que traverse de chemin de fer gâtée au bout de cinquante ans.

Un domaine aux trois quarts privé
Avec 17 millions d’hectares de forêt, soit 31 % du territoire, la France est le quatrième pays le plus boisé d’Europe : 64 % des arbres sont des feuillus, avec une nette prédominance du chêne, et 36 % des résineux. Les trois quarts appartiennent à des propriétaires privés, le quart restant, géré par l’Office national des forêts (ONF), est à l’État et aux collectivités locales. Chaque année, la forêt française s’accroît de 90 millions de mètres cubes, alors qu’on en prélève 48 millions de mètres cubes, dont 60 % de résineux et 40 % de feuillus.

alain@barras.fr et merci à Pierre M. pour cette synthèse de Télérama 😷



[Systémie] L’Europe ne doit pas rater la révolution des trains ultrarapides




Il y aura bientôt deux siècles, le 27 septembre 1825, était inaugurée en Grande Bretagne la première ligne ferroviaire au monde, ouverte au transport de passagers, le chemin de fer de Stockton et Darlington (Stockton and Darlington Railway), dans le comté de Durham. Ce train, encore rudimentaire, tiré par une locomotive Stephenson, mit deux bonnes heures pour accomplir son modeste trajet, long de 19km ; la plupart des passagers de ce voyage historique étaient assis à l’air libre, dans les wagons transportant le charbon. En France, il fallut attendre 1837 pour voir l’ouverture de la première ligne de chemin de fer commercial, reliant en une heure les 18 km séparant St-Lazare, à Paris, et la petite ville de St Germain-en-Laye.

Il est important de rappeler que, si la quasi-totalité des trains (à l’exception des réseaux urbains de métro), utilisèrent la vapeur comme mode de propulsion au XIXème siècle, et pendant la première moitié du XXème siècle, la traction diesel et électrique, plus puissante et plus souple, se développa progressivement, à partir des années 1950, jusqu’à supplanter définitivement la vapeur en 1974, date du dernier service commercial en France d’une locomotive à vapeur.

En France, le concept de ligne grande vitesse est véritablement né sous l’impulsion visionnaire du Général de Gaulle qui encouragea la création, le 1er août 1966, d’un service de recherche à la SNCF, spécialement chargé d’étudier « Les possibilités ferroviaires à très grande vitesse sur infrastructures nouvelles ». Ce bureau d’études élabora le projet « C03 », qui sera adopté en comité interministériel le 26 mars 1971, avec un objectif de réalisation avant 10 ans d’une liaison Paris-Lyon en moins de deux heures, pour un coût de plus de 1,5 milliard et demi de francs de l’époque.

Les essais du TGV 001 débutèrent en 1972 sur la ligne de la plaine d’Alsace et la construction d’une ligne reliant Paris à Lyon en deux heures fut définitivement confirmée en mars 1974, quelques jours avant sa mort, par le Président Georges Pompidou. La France décida alors d’engager la construction de cette ligne, baptisée LGV- Sud-Est. Le service commercial TGV fut partiellement ouvert  au public entre Paris et Lyon le 27 septembre 1981. La France entra ainsi dans l’histoire ferroviaire à grande vitesse 17 ans après le Japon avec son Shinkansen. En 1983 la LGV fut ouverte sur l’intégralité de la ligne Paris-Lyon.

Aujourd’hui, c’est la Chine qui dispose, de loin, du plus grand réseau de lignes à grande vitesse au Monde, avec 35 500 km, suivie par l’Union européenne, loin derrière (9 500km), le Japon (3 500 km), les Etats-Unis (735km) et la Turquie (600 km). Mais, historiquement, c’est le Japon qui a été le premier pays au monde à développer et mettre en service son train à grande vitesse, le célèbre Shinkansen, qui relie, à une vitesse maximale atteignant 320 kilomètres à l’heure depuis 1964, sur 515 km, Tokyo à Osaka. Ce TGV japonais, qui traverse de nombreuses zones sismiques, est considéré comme étant, de loin, le plus ponctuel, le plus sûr et le plus confortable du monde.

En juillet 2020, le Japon s’est doté d’une nouvelle génération de TGV, le N700S, qui repousse les limites de la fiabilité et de la sécurité ferroviaire. Equipé d’un système d’autopropulsion à batterie lithium-ion unique au monde, ce nouveau TGV a été conçu pour pouvoir transporter des passagers en toute sécurité en cas de tremblement de terre, un phénomène naturel, on le sait, très fréquent au Japon. Sa motorisation lui permet de continuer à rouler pendant plusieurs km, même en cas de pannes de courant, afin qu’il puisse rejoindre la station d’évacuation la plus proche, s’il se retrouve par exemple bloqué dans un tunnel, lors d’un tremblement de terre. Ce TGV est également plus puissant et peut faire des pointes de 370 km/heure, mais sa vitesse de croisière est limitée à 285 km/heure, pour des raisons de sécurité.

Mais le Japon prépare déjà le futur et a développé depuis 20 ans le fameux « MAGLEV », un train à sustentation magnétique qui a battu en avril 2015 un record absolu de vitesse sur rail, en atteignant les 603 km/h pendant une dizaine de secondes, soit plus de 10 km par minute ! Le Japon compte remplacer progressivement ses TGV, pourtant très performants, par ces nouveaux trains électromagnétiques et la compagnie Japan Rail a entrepris la construction d’une nouvelle ligne destinée au MAGLEV qui va permettre, en 2027, de couvrir en seulement 40 minutes les 286 km qui séparent les mégapoles de Tokyo et Nagoya. Cette ligne MAGLEV sera, dans un deuxième temps, prolongée sur 153 km, pour atteindre, à l’horizon 2045, la ville d’Osaka, mettant ainsi la troisième ville du Japon (2,8 millions d’habitants) à 1 heure et 7 minutes de la capitale en 2045, au lieu de plus de deux heures avec l’actuel Tokaïdo Shinkansen.

Mais le géant chinois n’entend pas laisser au Japon, son éternel rival asiatique, le monopole de cette technologie hautement stratégique, appelée à un développement planétaire bien plus rapide que prévu, à cause notamment des nouvelles contraintes environnementales qui pèsent sur l’aviation. On sait en effet, grâce aux travaux de l’International Council on Clean Transportation (ICCT), un organisme indépendant, que l’ensemble des vols commerciaux (passagers et marchandises) ont émis en 2019  918 millions de tonnes de CO2, soit 2,5 % des émissions humaines de gaz à effet de serre. La plupart des prévisions tablaient, il y a encore deux ans, sur un doublement du nombre de passagers par avion d’ici 20 ans et surtout sur un doublement du nombre d’avions commerciaux en service, qui passerait de 24 000 à 48 000 en 2040.

Mais deux événements majeurs sont venus tout bouleverser et remettre en cause ces prévisions optimistes. Le premier est la pandémie de Covid-19 qui a provoqué un véritable effondrement du trafic aérien : – 66 % pour le transport de passagers en 2020, ce qui a fait dire au PDG de Lufthansa, Carsten Spohr, en mai 2020,  « En 66 jours, le trafic a perdu ce qu’il avait gagné en 66 ans ». Le second, amplifié par le premier, est un phénomène dont nous n’avons pas encore pris toute la mesure, le « flight shaming », ou « honte de prendre l’avion ». Parti des pays nordiques, pour s’étendre peu à peu à l’ensemble du monde, ce mouvement est loin d’être anecdotique ; il postule que la grande majorité des voyages en avion correspond à des activités de loisirs et de tourisme et non à des déplacements professionnels ou familiaux, et qu’il est donc nécessaire, et souhaitable, pour réduire l’empreinte carbone de l’aviation et son impact climatique croissant, de limiter drastiquement l’usage de l’avion pour se déplacer.

L’une des conséquences de ce mouvement qui ne cesse de grandir est tout à fait concrète : il y a quelques jours, les députés Français ont adopté la loi « Climat » qui prévoit la suppression de certaines lignes aériennes intérieures, en cas d’alternatives en train de moins de 2h30. Déjà, d’autres pays européens envisagent de prendre des mesures similaires et, même si le transport aérien continuera bien sûr à exister et à jouer un rôle irremplaçable dans le déplacement des personnes sur de longues distances, il va mettre beaucoup de temps à retrouver son niveau antérieur (certains spécialistes et dirigeants de compagnies doutent même qu’il le retrouve) et son développement sera probablement bien moins rapide que prévu, en attendant que de nouvelles technologies de ruptures, comme l’avion à hydrogène ou l’avion électrique, soient matures et compétitives, ce qui devrait prendre, selon la majorité des experts, au moins une quinzaine d’années.

Et c’est  justement dans cette fenêtre d’opportunité économique, industrielle et technique que comptent s’engouffrer les Japonais, et plus encore les Chinois (Voir CGTN). Il y a quelques semaines, et ce n’est pas un hasard, la Chine a dévoilé en grande pompe son prototype de train Maglev à l’Université Southwest Jiaotong de Chengdu, dans la province du Sichuan. Ce train révolutionnaire utilise, comme son homologue japonais, la sustentation électrodynamique (ou EDS), qui requière des aimants supraconducteurs qui doivent être refroidis à très basse température, par de l’azote ou de l’hélium liquide. Des bobines supraconductrices sont placées dans le train et des électroaimants sont placés le long de la voie. Lorsque le train se déplace, un courant est induit dans la voie, et c’est cette force électromagnétique qui provoque la lévitation du train.

Mais le Maglev chinois, contrairement à son concurrent japonais, n’utilise pas d’hélium liquide, mais de l’azote liquide, bien moins chère. « Nous atteignons la supraconductivité à une température légèrement plus haute, mais le coût est cinquante fois moindre » précise Deng Zigang, l’un des responsables de ce projet de MAGLEV chinois. Autre avantage de cette nouvelle technologie chinoise, les MAGLEV peuvent léviter à l’arrêt, sans avoir préalablement à accélérer, contrairement au MAGLEV japonais. En outre, l’utilisation de fibre de carbone permettra au Maglev chinois de ne peser que 13 tonnes, soit la moitié du poids d’une locomotive de train à grande vitesse classique. Cet allègement considérable devrait réduire d’autant les coûts de construction des futures infrastructures ferroviaires dédiées au MAGLEV, ainsi que la consommation d’énergie de ce train magnétique.

Lors de sa présentation, les ingénieurs et scientifiques chinois n’ont pas manqué de souligner, outre son coût de construction maîtrisé – de l’ordre de 32 millions d’euros du km, avec l’objectif de descendre en dix ans à 25 millions d’euros du km, soit le coût du km de TGV classique – la supériorité technique de leur train magnétique par rapport à son concurrent japonais, insistant notamment sur le fait que la vitesse de croisière de ce MAGLEV serait de 620 km/h, supérieure donc à celle de son rival nippon, pour une vitesse maximale de 800 km/h ! Mais le professeur Jin Zhaohui, l’un des scientifiques qui pilotent le développement du MAGLEV chinois, a déclaré que son équipe travaillait déjà sur un « Super-MAGLEV », conçu pour évoluer, comme le concept Hyperloop d’Elon Musk, à une vitesse supersonique de 1500 km, dans des tubes à très basse pression d’air…

Les autorités chinoises, qui ne font jamais les choses à moitié, envisagent de réaliser plusieurs lignes de MAGLEV d’ici dix ans et veulent faire de ce train du futur une véritable vitrine technologique de la Chine moderne. Une ligne touristique est prévue dans la province du Yunnan, dans le sud-ouest de la Chine. Ensuite, une autre ligne assurera la liaison Guangzhou dans le sud, Shenzhen, et Hong Kong en moins de 20 minutes. Enfin, à plus long terme, une autre ligne devrait relier Guangzhou-Shanghai en seulement deux heures et demie, soit une réduction de moitié du temps de trajet actuel en train à grande vitesse. Au total, la Chine entend construire plus de 1 000 km de voies Maglev à travers le pays, au cours des dix prochaines années.

Mais on aurait tort de croire que le MAGLEV chinois ne vise qu’à améliorer et compléter les transports intérieurs de la Chine. Il y a quelques semaines, Mr. Liu Zhenfang, directeur de l’Administration nationale des chemins de fer, a en effet précisé les cinq grands objectifs que visait la Chine, avec le développement de son MAGLEV, et nous ferions bien de méditer, dans notre veille Europe, cette stratégie implacable qui va profondément transformer les transports, le développement local et l’aménagement de l’espace au niveau planétaire.

– Le premier objectif est de stimuler l’innovation en recourant à l’Internet des objets, à la 5G, et à l’intelligence artificielle pour gérer de manière optimale le futur réseau MAGLEV chinois.

– Le deuxième objectif vise à interconnecter les différents modes de transport – route, canaux, ferroviaire – de manière intelligente et souple.

– Le troisième objectif vise à utiliser le MAGLEV pour développer de nouveaux services de fret à très grande vitesse, de manière à mieux répondre aux attentes et besoins des entreprises et des consommateurs sur l’ensemble de l’immense territoire chinois.

– Le quatrième objectif est de développer un nouveau moyen de transport imbattable en matière de faible empreinte carbone par passager transporté ou tonne de marchandise acheminée.

– Mais c’est bien le cinquième et dernier objectif qui doit nous alerter : il s’agit pour la Chine de réaliser une interconnexion totale avec les infrastructures ferroviaires de ses voisins asiatiques, mais également de réaliser et de contrôler, en cohérence avec son grand projet de « Nouvelles routes de la soie », une nouvelle et puissante liaison, intelligente, rapide, sûre et évolutive, entre la Chine, l’Asie centrale, la Russie et l’Europe.

Ce plan chinois global, d’une ambition assumée, parfaitement cohérent et déjà en cours de réalisation, révèle d’une manière d’autant plus cruelle l’incapacité d’une action commune, ainsi que l’absence de projets d’envergure et d’ambition de l’Europe, pour développer, elle aussi sans tarder, son train électromagnétique à l’échelle continentale et au-delà.

N’en doutons pas, dans vingt ans, des MAGLEV chinois, profitant des difficultés attendues de l’aviation commerciale que j’ai évoquées, relieront en toute sécurité, de manière directe, en moins de 15 heures, contre au moins huit jours aujourd’hui, les grands mégapoles chinoises aux grandes villes russes et européennes, contrôlant ainsi de manière décisive le transport de passagers et de fret entre ces grands pôles économiques mondiaux. Face à ce scenario, qui nous placerait dans un état durable de domination économique, technologique et politique, il est grand temps que l’Europe, qui possède tous les atouts humains et techniques nécessaires dans cette compétition vitale pour notre avenir, ouvre enfin les yeux et réagisse en se fixant comme objectif ambitieux la réalisation, à l’horizon 2040, d’un réseau européen MAGLEV, reliant toutes les mégapoles européennes en moins d’une demi-journée.

Un tel réseau, sur un format de 10 000 km, représenterait un investissement total d’environ 400 milliards d’euros sur deux décennies, soit 20 milliards par an, ce qui représente à peine plus de 1% du PIB annuel de l’Union européenne. Je n’ai pas peur de dire qu’au regard des immenses bénéfices humains, économiques, technologiques et environnementaux qu’aurait la réalisation d’un tel projet, sans compter l’affirmation de notre souveraineté politique, un tel investissement ne représenterait pas grand-chose, pour qui sait regarder l’avenir et deviner le nouveau monde qui se dessine sous nos yeux… « Là où il y a une volonté, il y a un chemin », disait le Général de Gaulle. A nous de montrer au monde que l’Europe et la France sont capables de concevoir et de réaliser, en une génération, ce grand projet de civilisation qui changera à jamais le devenir de notre continent.

René TRÉGOUËT

Sénateur honoraire

Fondateur du Groupe de Prospective du Sénat

e-mail : tregouet@gmail.com




[Systémie] cinq idées-zombies qui refusent de mourir

Cette nuit, les USA ont officiellement refermé 40 ans de théorie économique dominante

Dans son discours au Congrès, Biden déclare que “l’économie du ruissellement n’a jamais marché”. Mais elle n’a pas été sans conséquences : en 1980, les 1% des Américains les plus riches détenaient 10% du revenu national, en 2020 cette part a doublé (celle des 50% les plus modestes passant de 20% à 12%).



L’occasion de (re)faire un peu d’économie et de (re)lire ce Moblog de 2010 : 

cinq idées-zombies qui refusent de mourir


Deux ans ont passé depuis la fin de la crise financière mondiale. L’économie américaine a échappé au désastre. Le cours du Dow Jones est aujourd’hui proche de son niveau d’avant-crise. Mais les théories qui ont provoqué cette catastrophe sont toujours là, tapies dans les ombres.

La crise financière de 2007 (qui a débuté avec l’effondrement du marché américain des subprimes) a finalement révélé que les entreprises financières qui dominaient l’économie mondiale depuis des décennies étaient des sociétés spéculatives instables – sociétés qui, si elles n’étaient pas stricto sensu insolvables, n’étaient du moins pas véritablement solvables. On peut en dire autant de nombre de principes économiques défendus par les décideurs politiques au cours des décennies qui ont précédé la crise. Les économistes qui ont fondé leurs analyses sur ces principes sont en partie responsables des erreurs qui ont précipité cette même crise. Ils n’ont pas pu la prédire, ni même la déceler, et n’ont proposé aucune mesure capable de l’enrayer. Mais une chose semblait au moins acquise: on en avait bien fini avec la prédominance du secteur financier, comme avec celle des principes qui lui avaient donné un rôle central au cœur de notre économie.

Les banques et les compagnies d’assurance ont donc été tirées d’affaire par les plans de sauvetage massifs des gouvernements (et, au final, par les citoyens des pays concernés, qui ont dû payer plus d’impôts pour des services réduits). Mais trois ans plus tard, ces idées sont de retour – sous la forme de zombies. On a pu observer le même processus de réanimation dans le monde des idées. Les théories, allégations factuelles et autres projets qui semblaient morts et enterrés au lendemain de la crise s’extirpent lentement de la terre fraîchement retournée. Elles ressurgissent, prêtes à semer de nouveau la discorde.

Cinq de ces idées méritent que l’on se penche sur elles – et que l’on tente, si possible, de les remettre au plus vite sous terre. A elles cinq, elles constituent ce que l’on pourrait appeler le «libéralisme économique», ou, plus péjorativement, le «néolibéralisme». Le libéralisme économique a dominé les politiques publiques pendant plus de trente ans, des années 1970 à la crise financière mondiale. Et il domine aujourd’hui encore le mode de pensée des décideurs politiques – décideurs justement chargés de réparer ses erreurs. Voici les cinq idées en question:

Lidée-zombie n°1 : La grande modération

C’est l’idée selon laquelle le monde traverse, depuis 1985, une période de stabilité «macroéconomique» sans précédent – période qui pourrait ne jamais prendre fin.

Cette idée a toujours reposé sur quelques arguments statistiques douteux et sur une propension à ignorer les crises ayant affecté nombre de pays en développement dans les années 1990. Mais le principe de grande modération était bien trop pratique pour qu’on vienne le mettre en doute.

De toutes les idées dont je veux venir à bout, c’est sans doute celle que la crise a le plus clairement mise à mal. Les taux de chômage à deux chiffres, la pire récession depuis les années 1930 – que faut-il de plus pour sonner le glas de la modération? Mais non: les chercheurs qui défendent l’hypothèse de la grande modération (Olivier Coibion, Yuriy Gorodnichenko…) continuent de la défendre mordicus; pour eux, la crise financière n’est qu’une «anecdotique période transitoire d’instabilité».

Il y a plus important: les banques centrales et les décideurs politiques prévoient de revenir à la routine de l’avant-crise. J’entends ici par routine l’ensemble des mesures instituant l’indépendance des banques centrales, le ciblage de l’inflation, et le fait de s’en remettre aux ajustements des taux d’intérêts – mesures qui ont échoué lamentablement pendant la crise financière. Cette année, lors d’un congrès célébrant le cinquantième anniversaire de la Reserve Bank of Australia, Jean-Claude Trichet (le président de la Banque centrale européenne) a livré une analyse d’une complaisance saisissante:

«Voilà plusieurs années que nous naviguons en eaux troubles, et nous sommes en train d’en sortir. Mais en tant que banquiers centraux, nous sommes toujours confrontés à de nouvelles périodes de remous dans les environnements économiques et financiers. Il nous faut relever des défis toujours nouveaux, tout en nous souvenant des principes fondamentaux qui nous ont été enseignés ces dernières décennies. Il demeure primordial d’ancrer les anticipations d’inflation, et ce tout particulièrement lorsque les circonstances sont exceptionnelles. A cet égard, notre système a jusqu’ici parfaitement fonctionné.»


L’idée-zombie n°2 : L’hypothèse des marchés efficients

C’est l’idée selon laquelle les prix générés par les marchés financiers représentent la meilleure estimation possible de la valeur d’un investissement. (Pour prendre un exemple qui touche au plus près les politiques publiques, l’hypothèse des marchés efficients estime qu’il est impossible de surpasser les valorisations du marché en s’appuyant sur des informations publiques).

L’hypothèse des marchés efficients est en parfaite adéquation avec les principes du libéralisme économique; ses partisans ont toujours préféré invoquer cette cohérence plutôt que de prouver sa validité de manière empirique.

L’absurdité de la fin des années 1990, qui a vu la naissance et l’éclatement de la bulle Internet, aurait dû balayer cette théorie Mais étant donné la croissance explosive et l’immense rentabilité du secteur financier du début des années 2000, l’hypothèse était bien trop profitable pour être abandonnée.

Certains de ses défenseurs ont élaboré des théories visant à prouver que le fait de placer des milliards de dollars dans des sociétés de livraisons d’alimentation pour chiens via Internet était parfaitement rationnel. D’autres ont simplement décidé de considérer la bulle Internet comme l’exception qui confirme la règle.

D’un côté comme de l’autre, la leçon était la même: les gouvernements devaient laisser le secteur financier à ses tours de magies, sans ingérence aucune. Une leçon observée à la lettre, en toute confiance… jusqu’à ce qu’elle ne manque de détruire notre économie à la fin de l’année 2008.

L’hypothèse des marchés efficients devrait aujourd’hui être discréditée une fois pour toutes, et rares sont ceux qui osent encore la défendre ouvertement – mais elle a néanmoins survécu à sa propre mort; elle s’est transformée en zombie. Il suffit de constater l’importance que l’on donne en Europe aux agences de notations et aux marchés obligataires dans le débat entourant la «crise de la dette souveraine». C’est pourtant l’échec de ces institutions, et la bulle spéculative qu’elles ont contribué à faire naître, qui a précipité le monde dans la crise. 


L’idée-zombie n°3 :

Léquilibre général dynamique et stochastique

C’est l’idée selon laquelle l’analyse «macroéconomique» ne devrait pas tenir compte de réalités observables, comme les booms et les effondrements du marché, et qu’elle devrait se concentrer exclusivement sur conséquences théoriques de l’optimisation des comportements des consommateurs, des entreprises et des employés parfaitement raisonnables (ou presque).

La macroéconomie de l’EGDS est née des cendres de la synthèse économique, qui guidait les politiques publiques dans les décennies ayant suivi la seconde Guerre Mondiale; ensemble fait de macroéconomie keynésienne et de microéconomie néoclassique. Au lendemain de la stagflation des années 1970, les critiques de John Maynard Keynes (comme Robert Lucas, économiste à l’université de Chicago) ont affirmé que l’analyse macroéconomique de l’emploi et de l’inflation ne pouvait fonctionner que si elle s’appuyait sur les fondations microéconomiques déjà utilisées pour analyser les marchés individuels, et la façon dont ces marchés interagissaient pour créer un équilibre général.

Le résultat fut d’une beauté saisissante; l’économiste en chef du FMI, Olivier Blanchard, l’a même comparé à un haïku. En apportant quelques modifications au modèle, il était possible de représenter les booms et les récessions – sur l’échelle en vigueur à l’époque de la grande modération, certes bien modeste – et de soutenir la politique monétaire.

Mais quand la crise est arrivée, toutes ces belles subtilités se sont avérées inutiles. Non seulement les modèles élaborés par l’EGDS n’ont pas vu venir le désastre, mais ils n’ont rien apporté au débat entourant les mesures à adopter pour en venir à bout – qui ne faisaient pourtant appel qu’à des modèles keynésiens classiques, expliqués par de simples graphiques (comme on peut en trouver dans les manuels d’initiation à l’économie).

L’économiste Paul Krugman (entre autres spécialistes) a écrit que la profession avait confondu beauté et vérité. L’analyse macroéconomique doit être plus réaliste, même s’il elle doit sacrifier un peu de sa rigueur pour y parvenir. Mais il est bien difficile de contraindre un tel poids lourd de la recherche universitaire à faire demi-tour; l’EGDS a donc continué sur sa lancée, sans jamais avoir à répondre de ses échecs. Selon Google Scholar, 2.600 articles de recherche consacrés à la macroéconomie de l’EGDS ont été publiés depuis 2009; et ce n’est qu’un début.


L’idée-zombie n°4 : Lhypothèse du ruissellement

C’est l’idée selon laquelle les politiques qui profitent aux riches finiront par avantager les plus défavorisés.

Contrairement aux idées-zombies évoquées jusqu’ici, la théorie économique du ruissellement existe depuis bien longtemps. Le terme aurait été inventé par Will Rogers, cow-boy saltimbanque, qui fit cette observation sur les baisses d’impôts organisées par le gouvernement d’Herbert Hoover en 1928:

«On a mis tout l’argent en haut de l’échelle, en espérant qu’il finisse par ruisseler vers les nécessiteux. Monsieur Hoover (…) [ne savait pas] que l’argent ruisselle toujours vers le haut.»

La théorie du ruissellement devait être réfutée par l’âge d’or économique de l’après-guerre. Pendant la «Grande Compression» la grande réduction des inégalités (syndicats puissants, impôts progressifs) a coïncidé avec une période de plein-emploi et une croissance économique soutenue.

Mais quelle que soit les preuves, une idée qui avantage les riches et les puissants ne peut être étouffée bien longtemps. Dans les années1980, lorsque l’inégalité a gagné du terrain, les partisans de l’économie de l’offre et les économistes de l’école de Chicago ont juré que la richesse des classes sociales supérieures finirait tôt ou tard par avantager l’ensemble de la société. Le succès de cette théorie a grandi avec le triomphalisme des années 1990: c’était la première fois (depuis les années 1970 et l’effondrement du keynésianisme) que les bénéfices de la croissance étaient si largement répartis, et le boom boursier promettait monts et merveilles à tous les actionnaires.

La crise financière mondiale marque la fin de cette époque; elle nous permet de passer en revue la façon dont les bénéfices de la croissance ont été partagés depuis les années 1970. Les conclusions sont frappantes. Aux Etats-Unis, la majorité des bénéfices de la croissance est allée aux Américains appartenant au premier centile de la répartition des revenus. En 2007, un quart des revenus des particuliers est allé à 1% de la population; soit plus que les 50% de ménages américains les plus pauvres.

La vague de richesse est donc loin d’avoir irrigué l’ensemble du territoire. Aux Etats-Unis, le revenu moyen des ménages a même baissé au cours de la dernière décennie – et il stagnait depuis les années 1970. Les salaires des bacheliers ont aussi baissé de manière significative durant la même période.

Mais quels que soient les faits, vous trouverez toujours des économistes pour défendre les politiques économiques qui avantagent les riches. L’analyste Thomas Sowell nous en fournit un parfait exemple.

«Si par mobilité, on entend la liberté de mouvement, alors nous avons tous accès à la même mobilité, même si au final, certains vont plus vite que d’autres, et si certains ne bougent pas du tout.»

Traduisons cette image en termes réalistes. Prenez un enfant né dans une famille aisée; ses parents ont la capacité et la volonté de lui offrir une éducation de grande qualité; ayant eux-mêmes fait leurs études dans les meilleures universités d’Amérique, ils peuvent l’y faire entrer sans problème. Prenez maintenant un enfant dont les parents peinent à subvenir aux besoins du ménage. Si l’on s’en tient à cette théorie, le fait que les membres du premier groupe soient absolument certains de mieux s’en tirer que ceux du second ne devrait pas nous inquiéter. Après tout, on peut être issu d’une classe sociale défavorisée et réussir sa vie – et aucune loi n’empêche le reste de la population de faire de même.

Contrairement à ce qu’aime à croire une majorité d’Américains, les Etats-Unis jouissent d’une mobilité sociale bien plus faible que celle observée dans le reste des pays développés. Comme le démontrent Ron Haskins et Isabel Sawhill (de la Brookings Institution), chez les Américains, 42% des hommes dont le père appartient aux 20% inférieurs de la répartition des revenus feront eux aussi partie de cette catégorie. Or ce pourcentage n’est que de 25% au Danemark, de 26% en Suède, de 28% en Finlande et de 30% en Grande-Bretagne. Le rêve américain se transforme chaque jour un peu plus en mythe.


L’idée-zombie n°5 : Privatisation


C’est l’idée selon laquelle toute fonction remplie par le gouvernement pourrait être assurée de manière plus efficace par une société privée.

La frontière entre les secteurs publics et privés a toujours été mouvante, mais depuis la fin du XIXème siècle, la tendance générale est à l’expansion du rôle de l’Etat, chargé de corriger les limites et les erreurs du marché. Depuis l’arrivée au pouvoir de Margaret Thatcher, dans la Grande-Bretagne des années 1980, plusieurs pays agissent désormais de concert pour inverser ce processus. La base théorique justifiant la privatisation s’appuyait sur l’hypothèse des marchés efficients, selon laquelle «marchés privés» veut dire «meilleurs choix d’investissements» et «opérations plus efficaces que les planificateurs du service public».

L’impératif politique découlait de la «crise fiscale de l’Etat», survenue lorsque l’Etat-providence (et ses responsabilités toujours croissantes) se heurta à la fin de la croissance économique soutenue, sans laquelle il ne pouvait exister.

La vérité, c’est que même pendant l’âge d’or, la privatisation n’a jamais tenu ses promesses. Les entreprises nationalisées étaient vendues à des prix trop bas pour compenser la perte des revenus générés. Au lieu d’introduire une nouvelle époque de compétition, la privatisation s’est contentée de se substituer aux monopoles publics, qui avaient mis en place toutes sortes d’arbitrages réglementaires pour maximiser leurs profits. En Australie, la Macquarie Bank, qui se spécialise dans ce type de sociétés à monopole, connue sous le surnom d’«usine à millionnaires», a prouvé qu’elle était particulièrement douée pour faire grimper les prix et les frais pendant une privatisation, et ce dans des proportions que les gouvernements concernés n’avaient pas anticipées.

Les échecs des privatisations ont été encore plus retentissants au XXIème siècle. Une série de privatisations ont été annulées (Air New Zealand; Railtack en Grande Bretagne). Puis, dans le chaos de la crise financière, des géants comme General Motors ou l’American International Groupe (AIG) ont demandé à passer sous la tutelle de l’Etat.

Les partisans raisonnables de l’économie mixte n’ont jamais dit qu’il fallait s’opposer à toutes les privatisations. En fonction des circonstances, l’intervention de l’Etat dans certains secteurs de l’économie peut s’avérer salutaire ou superflue. Mais la théorie selon laquelle ont devrait mettre toute innovation entre les mains du secteur privé doit être renvoyée au cimetière des idées mortes.


CONCLUSION


La crise financière mondiale à beau les avoir discréditées, les théories qui sous-tendent le libéralisme économique continuent de guider le raisonnement de nombreux (si ce n’est de la majorité) des décideurs politiques et des analystes. En partie parce que ces idées vont dans le sens des groupes d’intérêts les plus riches et les plus puissants. Et en partie aussi parce que les engagements intellectuels sont tenaces.

Mais il y a plus important: la survie de ces idées-zombies reflète également l’absence d’une alternative qui tienne la route. Si nous voulons éviter qu’une crise de cette ampleur ne se reproduise, il faut que l’économie du XXIème siècle change radicalement d’orientation.

Pour aller au plus évident: moins de rigueur, et plus de pertinence. L’extrême importance donnée à la rigueur logique et mathématique ont certes permis à l’économie d’acquérir une cohérence interne qui fait défaut aux autres sciences sociales. Mais une série d’échecs cohérents demeure une série d’échecs.

De la même manière, l’équité vaut mieux que l’efficacité. Voilà trente ans que les libéraux font la promotion de politiques fondées sur l’idée d’efficacité – et sur la prétendue efficacité des marchés financiers; ces théories n’ont pas vraiment amélioré les performances économiques des pays concernés, mais elles y ont généré beaucoup d’inégalités, et ce tout particulièrement dans le monde anglophone. Les économistes doivent rediriger leur attention vers les politiques à même de permettre une répartition des revenus plus équitable.

Enfin, puisque nous vivons l’effondrement d’une «nouvelle ère» économique de plus, il serait bon que les économistes fassent preuve d’un peu plus d’humilité et d’un peu moins d’hybris. Plus de deux siècles après Adam Smith, la profession devrait admettre, avec Socrate, que «l’homme sage est celui qui sait qu’il ne sait rien.» 

Chaque crise est une opportunité. La crise donne une chance aux économistes; celle d’enterrer les idées-zombies qui ont précipité le monde dans la tourmente, et d’élaborer un système de pensée plus réaliste, plus modeste, et, par-dessus tout utile à l’ensemble de la communauté.

John Quiggin

Traduit par Jean-Clément Nau


[Systémie] Le lobby du plastique empoisonne le monde



Saviez-vous qu’un sachet de thé en plastique infusé dans l’eau à 95 °C relâche près de 11,6 milliards de microplastiques et 3,1 milliards de nanoplastiques dans une simple tasse ? Que nous ingérons chaque semaine cinq grammes de matières plastiques, soit l’équivalent d’une carte de crédit ? Ou encore qu’en 2020, la production, l’élimination et l’incinération de matières plastiques avaient rejeté autant de gaz à effet de serre que 189 centrales à charbon, et qu’au rythme de croissance de cette industrie, ces émissions devraient équivaloir à celles de 619 centrales en 2050 ?

Les Plastiqueurs. Enquête sur ces industriels qui nous empoisonnent (éd. Kero) regorge de telles joyeusetés. Dans cette enquête approfondie, la journaliste Dorothée Moisan brosse un panorama de l’industrie plastique — les fameux « plastiqueurs » —, allant de ses impacts sanitaires et environnementaux à ses projets d’adaptation à la transition écologique, en passant surtout par ses manœuvres retorses pour défendre ses intérêts, quoi qu’il en coûte au vivant. Car, comme son retour en grâce avec la pandémie de Covid-19 l’aura montré, « le plastique n’est pas mort. Il n’est même pas en fin de vie. Il bouge plus que jamais. »

« Un tueur silencieux »

Pour qualifier l’action des plastiqueurs sur la planète, Dorothée Moisan use d’une autre expression, aussi juste que glaçante : l’industrie plastique agit comme « un tueur silencieux ». Tueur, car on ne compte plus les ravages de cette industrie. Si l’opinion publique s’est depuis longtemps focalisée sur le fameux « océan de plastique », elle oublie que les gyres où tourbillonnent ces déchets ne représentent qu’une infirme portion émergée de l’iceberg. Pris dans leur globalité, ce sont « 99 % des plastiques qui atteignent les côtes qui deviennent ensuite invisibles ». À trop nous concentrer sur quelques phénomènes surmédiatisés, on ne voit plus l’empoisonnement systématique de la planète et de ses habitants par le plastique.

On ne parle ainsi que rarement des sols, vingt-quatre fois plus pollués par les microparticules plastiques que les océans, dans lesquels les « poussières de plastique s’immiscent désormais dans les fruits et légumes », menaçant « la sécurité alimentaire au niveau mondial ». Quant à la santé humaine, elle est tout autant empoisonnée. Citant une enquête de Santé Publique France, l’autrice rapporte ainsi que « 100 % des Français, adultes et enfants, sont “imprégnés” de composés fluorés, mais aussi de bisphénols (A, F et S), de phtalates, de parabènes, d’éthers de glycol et de retardateurs de flamme ». Mais on n’évoque pas cette épidémie-là.

La migration des produits chimiques contenus dans les emballages vers la nourriture ou la boisson est l’une des principales sources d’exposition plastique.

Et pour cause : depuis des années, les plastiqueurs ont sciemment fabriqué du doute sur toute étude les mettant en cause. À la force de ses lobbyistes et de subventions à des recherches n’incriminant pas les plastiques, les plastiqueurs ont réussi, comme l’industrie du tabac avant eux, à échapper aux réglementations politiques contraignantes. Même l’Union européenne, pourtant la région du monde qui protège le mieux les consommateurs, peine à percer leurs ruses. Dernier exemple en date : le bisphénol A. Face aux études scientifiques qui, de plus en plus nombreuses, mettaient en lumière les effets de ce perturbateur endocrinien — cancer, puberté précoce, diabète, obésité ou encore baisse de la fertilité —, l’industrie a trouvé la parade : lui substituer le bisphénol S, à la structure chimique quasiment identique mais qui présente l’avantage de n’avoir pas encore été aussi minutieusement décortiqué que le bisphénol A. Et en l’absence de consensus médical, la bureaucratie européenne ne peut réglementer son usage. « À ce jeu du chat et de la souris, l’industrie du plastique a l’avantage face au gros matou européen bien trop lent pour attraper tous les nouveaux mulots chimiques qui déboulent chaque jour sur le marché », déplore Dorothée Moisan.

À l’inverse, afin de redorer leur image, les plastiqueurs ont entrepris depuis les années 1990 un vaste projet d’écoblanchiment, qui a pour nom : le recyclage. Contrairement à ce qu’on pourrait naïvement penser, seule une infime partie (9 % des résidus plastiques à l’échelle mondiale) des déchets de la fameuse poubelle jaune sont effectivement réemployés pour fabriquer des produits d’une qualité équivalente. L’écrasante majorité d’entre eux (91 %) servent à des usages d’une moindre qualité (comme de combustible pour l’industrie), quand ils ne sont pas expédiés par cargos entiers en Asie pour y finir dans des décharges à ciel ouvert.

Logique coloniale

Mais les plastiqueurs peuvent aussi imposer leur loi du silence plus brutalement. Pour ce faire, ils s’inscrivent, comme tant d’autres industries, dans les structures coloniales, sinon racistes, du capitalisme globalisé. La chose est particulièrement frappante dans le sud des États-Unis. En Louisiane, la région qui s’étend de Bâton-Rouge à La Nouvelle-Orléans est tristement surnommée « Cancer Alley », tant les usines pétrochimiques dégradent la santé des riverains. Et si personne n’écoute leurs récriminations, c’est parce qu’ils sont Noirs et pauvres. Rapportant les propos d’un activiste louisianais, la journaliste note que « les communautés touchées sont noires, les décideurs sont blancs : la politique est raciste ». De ce point de vue, « l’industrie du plastique n’a fait que se substituer à l’industrie coloniale et esclavagiste des planteurs de coton ».

Une même logique affecte le traitement des déchets. Jusqu’en 2018, la Chine absorbait la plupart des déchets plastiques dont les États-Unis, l’Union européenne, l’Australie ou le Japon souhaitaient se débarrasser incognito. Or, en 2018, le gouvernement de Xi Jinping a décidé de donner un « coup de sabre » dans ce commerce et d’en réduire drastiquement les importations. Qu’à cela ne tienne : plutôt que chercher à diminuer la masse des déchets plastiques, les exportateurs occidentaux ont immédiatement déversé leurs déchets dans les pays voisins de la Chine. « En l’espace d’une nuit, la Malaisie, le Vietnam, l’Indonésie, les Philippines, l’Inde ou encore la Thaïlande ont vu leurs villages se transformer en décharges », observe Moisan. La boucle est ainsi bouclée, les pays du Sud récupérant les matières premières que ceux du Nord ont pillées chez eux — mais sous forme d’ordures.

Contre une industrie aussi puissante, comment résister ? Il va de soi que les célèbres « écogestes » que prônent les plastiqueurs ne résolvent en rien le problème, servent à culpabiliser les consommateurs et à dédouaner de toute responsabilité les industriels. Alors, quelle échelle de lutte privilégier ? L’échelon national, voire régional, paraît insuffisant, en témoignent les contre-exemples chinois et européen. Malgré des réglementations de plus en plus fortes, à l’instar de la directive interdisant les plastiques à usage unique à compter de 2021, l’Union européenne ne parvient pas à contrôler ses industriels. Sentant le vent tourner en Europe, plusieurs d’entre eux ont tout simplement délocalisé le « recyclage » de leurs déchets en Turquie, où ils connaissent le même sort qu’en Asie du Sud-Est. De même, sous la pression politique, « Coca-Cola a fini par s’engager à soutenir les systèmes de consigne en Europe occidentale. En Europe, oui, mais en Europe seulement. » De telles mesures, ne faisant que cacher ce plastique qu’on ne saurait voir, ressemblent à s’y méprendre au syndrome Ninby — « Not in my backyard » (« Pas dans mon arrière-cour »).

Beaucoup plus ambitieuse que l’Union européenne, l’Afrique se trouve à la pointe de ce combat. Jusqu’à présent, seuls les États africains ont vraiment réussi à se prémunir de la pollution plastique. Sur les cinquante-quatre nations du continent, trente-quatre ont légiféré pour réduire l’usage des sacs plastiques ; la moitié d’entre elles les ont tout bonnement interdits. Parmi celles-ci, le Kenya et le Rwanda, réputés être les pays les plus répressifs au monde en la matière, plaident pour une collaboration à l’échelle planétaire de la lutte contre les plastiques. Inquiétés par les rumeurs d’un plastic deal qui autoriseraient les États-Unis à déverser leurs déchets sur le continent, plusieurs gouvernements africains — rejoints par des militants du monde entier — estiment en effet que seul un traité international permettrait « de plafonner la production de plastique vierge ». L’occasion, enfin, de troquer Ninby pour Nina — « Ni ici, ni ailleurs ».


Les Plastiqueurs. Enquête sur ces industriels qui nous empoisonnent de Dorothée Moisan, éditions Kero, mars 2021, 288 p., 19,50 euros.