Pages

mercredi 11 décembre 2024

La faillite du Macronisme et sa « startup-Nation »

La faillite du Macronisme et sa « startup-Nation »

 

59% des Français souhaitent une démission d'Emmanuel Macron

Dans le détail, 54% des hommes sont pour la démission du chef de l'État et 63% des femmes. CSP+, CSP- et Inactifs pointent respectivement à 53%, 63% et 61%, tandis que les classes d'âge sont toutes majoritairement favorables à ce que l'Élysée change de locataire prématurément.

Non, une Nation n’est pas une entreprise.

D’autant que contrairement aux promesses, Le libre-échangisme a été le catalyseur de la déchéance des classes moyennes .

 La chute de l’économie s’accélère dans l’Hexagone.

 L'activité du secteur privé français a enregistré en novembre sa plus forte contraction depuis janvier, avec un indice PMI Flash en recul pour le troisième mois consécutif.

 La dégringolade de l'économie tricolore s'accélère.

L'activité du secteur privé français a enregistré en novembre sa plus forte contraction depuis janvier.

 «De très nombreuses entreprises interrogées ont imputé cette baisse de l'activité globale à la faiblesse de la demande» de la part des entreprises et des ménages.

 «Les données indiquent une accélération de la contraction, tant dans le secteur des services que dans l'industrie manufacturière en milieu de quatrième trimestre».

 La production a ainsi «fortement baissé» dans le secteur manufacturier, avec un taux de contraction le plus élevé depuis décembre 2023. Les fabricants attribuent cette baisse de l’activité à plusieurs facteurs, dont la faiblesse des secteurs automobile, cosmétique et du BTP, ainsi qu’une conjoncture morose sur les marchés étrangers.

42% des ETI citent le recul de la demande comme frein cette année, contre moins d’un tiers l’an passé. Cet obstacle est même cité par plus de la moitié des entreprises de l’agrégat industrie-construction qui apparaissent comme plus touchées. L’autre contrainte en forte hausse est la concurrence, désormais citée par quatre ETI sur dix contre 26% en 2023. «L’économie mondiale se caractérise cette année par un retour de conditions concurrentielles difficiles, notamment à cause de surcapacités de production en Chine,

 Nos décideurs doivent avoir ce fond de carte en tête quand ils prendront des décisions de politique économique.»

Dans ce contexte, le sentiment d'un déclin national persiste : 87% pensent que la France est déclin (+5 points), dont 34% qui déclarent que ce déclin est irréversible (stable). Ce sentiment de déclin est désormais majoritaire parmi les sympathisants de toutes les principales forces politiques. De plus, la part des Français estiment que l’avenir de la France est plein d’opportunités et de nouvelles possibilités atteint son niveau le plus bas (40%, -4 points).

La globalisation atteint son pic de défiance depuis 2013 : 64% pensent que la mondialisation est une menace pour la France. Par ailleurs, la nostalgie pour un passé perçu comme meilleur persiste : 73% des Français estiment « qu’en France, c’était mieux avant » et 63% que l’ on « ne sent plus chez soi comme avant ». De plus, 72% déclarent s’inspirer de plus en plus des valeurs du passé dans leur vie.

Les Français s'identifient majoritairement à leur nationalité (40%) et à leur génération (38%),

 Les Français affichent clairement leur mécontentement : 43% disent appartenir à une France en colère et très contestataire.

Par ailleurs, 54% déclarent appartenir à une France mécontente et seuls 3% à une France apaisée, le plus bas niveau jamais observée, en baisse pour la 3ème année consécutive.

Autre signe d’un contexte difficile, le sentiment de défiance s'est accru parmi les Français : près de 8 Français sur 10 déclarent qu’on est jamais assez prudent quand on a affaire aux autres (+5 points depuis 2023).

Cette défiance intervient alors que les Français ont la conviction que la société est violente : cette idée est partagée par plus de neuf Français sur dix, un chiffre stable par rapport aux années précédentes. De plus, une part très importante de Français (89%) a le sentiment que cette violence s'intensifie.

 Après une année électorale marquée notamment par la dissolution de l’Assemblée nationale, on observe une défiance toujours plus forte envers le personnel politique.

 En effet, l’ensemble des acteurs politiques (à l’exception notable des maires) connait une baisse importante de confiance cette année :

26% déclarent avoir confiance dans le président de la République (-8 points), 22% dans les députés (-7 points) et 14% dans les partis politiques (-3 points). De plus, la part des Français estimant que le système politique fonctionne mal est en forte hausse (78%, +9 points), tout comme celle de ceux considérant que les hommes et femmes politiques agissent principalement pour leurs intérêts personnels (83%, +8 points).

 La série noire pour l’emploi se poursuit en France.

Valeo a annoncé  son intention de supprimer environ un millier d’emplois en Europe dans les prochains mois, pour l’essentiel en France,  ainsi que la fermeture de son usine de La Suze-sur-Sarthe et le transfert de l’activité de son site de R & D de la Verrière (Yvelines).

 Dernier exemple en date de la restructuration en cours dans le secteur automobile à cause du passage à l’électrique et du ralentissement du marché, l’équipementier automobile, spécialiste des aides à la conduite et des systèmes d’hybridation, prévoit de supprimer 868 emplois dans l’Hexagone – pour l’essentiel via des départs contraints .

 Le 5 novembre dernier à l’Assemblée nationale, le Premier ministre Michel Barnier disait ne pas être "fier d’une politique qui détruirait des emplois".

 Promettant la réalisation d’audit sur les subventions perçues par ces grands groupes, le locataire de Matignon,  affirmait aussi : "Je me préoccupe de savoir ce qu’on a fait, dans ces groupes, de l’argent public qui leur a été donné ; je veux le savoir. Nous poserons des questions, nous verrons si cet argent a été bien ou mal utilisé."

Ce ne sont pas les aides qui ont manqué à ces entreprises. "La plupart des entreprises françaises qui réalisent des plans 'sociaux' ont été généreusement arrosées d’aides publiques".

 Chômage :  les règles d’indemnisation seront bien durcies en 2025

 Approuvé par les partenaires sociaux en novembre dernier, l’accord qui prévoit un durcissement des règles d'indemnisation des demandeurs d’emploi devrait être validé par le gouvernement démissionnaire dans les prochains jours. Ces nouvelles mesures entreront en vigueur en 2025.

Les nouvelles règles qui doivent entrer en vigueur au début d’année prochaine prévoient notamment de durcir l'indemnisation des seniors en relevant de deux ans l'âge à partir duquel ils peuvent toucher une indemnisation plus longue. Ainsi, l’indemnisation maximale de 22,5 mois sera accessible à partir de 55 ans (contre 53 ans auparavant) et celle de 27 mois à partir de 57 ans (contre 55 ans actuellement)

 Dans le Vaucluse, le versement du RSA est désormais conditionné à 15 heures hebdomadaires de « remobilisation vers l’emploi ». Un dangereux non-sens pour les paysans qui le touchent et en dépendent pour vivre.

 Le département de Vaucluse menace de lui retirer son RSA si elle ne s’inscrit pas dans un « contrat d’engagement réciproque ».

Elle serait contrainte à 15 heures par semaine de formation et de mise en situation professionnelle, et cela sur six semaines. Sans quoi son revenu serait suspendu.

 Comme Nathalie Wouters, 150 foyers paysans dépendent du RSA dans le département, selon la mutualité sociale agricole (MSA) Alpes-Vaucluse, l’organisme qui gère les prestations sociales des agriculteurs.

Selon la loi « pour le retour au plein emploi » promue par le gouvernement, ce conditionnement du RSA est actuellement en expérimentation dans quarante-sept départements et deviendra obligatoire pour tous les bénéficiaires en France à partir de janvier 2025.

 Source

 

samedi 7 décembre 2024

Jusqu'au cou ! La dette française est en réalité à haut risque

 La dette française est en réalité à haut risque

Publié par Philippe Herlin | 28 nov. 2024 |

 La France, l’Italie, le Japon, et les États-Unis affichent des déficits budgétaires élevés, d’une ampleur comparable, accompagnés d’une dette publique significative qui dépasse les 100% du PIB. Cependant, en prenant du recul et en intègrant d’autres données financières macroéconomiques, les niveaux de risque diffèrent grandement, au détriment de la France. C’est ce qu’indique une note récente de Patrick Artus, qui prend en compte l’ensemble des mouvements de capitaux affectant ces nations.

Regardons la balance courante, qui totalise la balance commerciale (échange de biens et services avec l’étranger) et la balance des revenus (tirés des investissements à l'étranger ou versés aux étrangers ayant investi dans le pays, salaires versés ou reçus de l'étranger). La France et les États-Unis sont dans le rouge, mais le Japon et l’Italie sont structurellement en excédent, ce qui leur permet de financer relativement facilement leurs déficits, et cela se voit par une dette publique qui est détenue essentiellement par l’épargne nationale (à plus de 90% au Japon, à 80% en Italie). La contrainte extérieure étant faible, une défiance de la part des investisseurs étrangers n'aurait pas d'impact majeur.

 

Balance courante (en % du PIB) - Etats-Unis, France, Italie, Japon

 

Les États-Unis bénéficient, eux, d’importantes entrées de flux de capitaux à long terme. C’est le produit de leur attractivité économique, que ce soit dans la technologie, la gestion des capitaux (marchés financiers, hedge funds), le renouveau industriel (énergie bon marché, programme IRA), la sécurité apportée par la première puissance mondiale. Le financement de l’énorme dette publique (36.000 milliards de dollars) se fait donc également relativement facilement (23% de détention par les non-résidents). Sans oublier, bien entendu, le rôle incontournable du dollar en tant que monnaie de transaction et de réserve, qui contraint les pays du monde à en détenir nécessairement.

 

Etats-Unis : balance courante, investissement directs et de portefeuilles entrants

 

La France, elle, ne compense pas son déficit budgétaire récurrent par une balance courante positive, et elle subit même – la note n’en parle pas mais nous l’avons signalé dans notre article précédent – une inquiétante fuite de capitaux.

La France cumule donc les mauvais points, et cela se voit par un taux de détention de sa dette publique par les non-résidents, les investisseurs étrangers, de 54%, soit nettement au-dessus des autres pays cités.

Comme l’indique Patrick Artus, "Le cas le plus dangereux : celui des pays qui ont un déficit budgétaire, un déficit de leur balance courante et pas d’entrées de capitaux à long terme."

 

   France  Italie  Japon  États-Unis
 Déficit public  -  -  -  -
 Balance courante  -  +  +  -
 Entrée/sortie de capitaux à long terme  0  0  +

(- : déficit ; + : excédent ; 0 : équilibre)

 

Attention, nous ne sommes pas en train de dire qu’un déficit budgétaire élevé n’est pas grave, mais que la contrainte qu'il représente pour un pays dépend de l'ensemble de ses flux de capitaux. Et pour la France, la situation s’avère particulièrement dangereuse : une perte de confiance de la part des investisseurs étrangers pourrait rapidement entraîner une incapacité à se financer, ce qui mènerait à une faillite du système financier, suivie d'un blocage des comptes bancaires et de l’assurance-vie (directive BRRD et loi Sapin 2, cf notre précédent article).

Quand on constate la velléité du budget 2025, l’inconsistance des débats, l’incapacité à réduire les dépenses, le concours Lépine de création de nouveaux impôts, on en déduit que cette épée de Damoclès n’est manifestement pas prise en compte par le personnel politique.

Que les épargnants ne soient pas, eux non plus, aveugles…

Source

mardi 3 décembre 2024

Le top 10 des bénéficiaires de l'aide publique au développement (APD) de la France en 2022

 Le top 10 des pays bénéficiaires de l'aide de la France sont les suivants

(en millions d'Euros)


 1. MAROC : 620,5

2. CÔTE D'IVOIRE : 564,3

3. UKRAINE : 473,8

4. AFRIQUE DU SUD : 400,4

5. ÉGYPTE : 345,3

6. MEXIQUE : 337,5

7. CAMEROUN : 297,1

8. COLOMBIE : 283,9

9. TURQUIE : 273,2

10. SENEGAL : 233,4

Ce top 10 suscite plusieurs remarques :

a. Pour quelles raisons le Maroc est-il le premier bénéficiaire de l'APD française ?

b. La présence de la Côte d'Ivoire (2ème), du Cameroun (7ème) et du Sénégal (10ème) apparaît assez logique compte tenu d'une histoire commune.

c. Le cas de l'Ukraine, qui a vu le montant de son aide s'envoler en 2023 et 2024, mériterait d'être discuté.

d. Pour des raisons différentes, que font dans ce top 10 l'Afrique du Sud, l’Égypte, le Mexique, la Colombie et la Turquie ?

mardi 26 novembre 2024

La traite des blancs

 Mise à l'heure des Pendules : L’Esclavage Des Européens Blancs à Précédé celui Des Africains

cliquer ici pour voir la vidéo

 

 Source initiale

Trou d'ozone et manipulation de l'opinion publique

 

Le protocole de Montréal a été adopté en 1987 et ni les médias, ni les politiques, n'ont profité de son 30ème anniversaire pour en célébrer les mérites, comme s'ils craignaient de relancer un débat scientifique qui n'a jamais eu lieu. Depuis quelques années, des historiens ont entrepris de comprendre comment, malgré cette absence de débat, le trou d’ozone avait pu devenir une véritable icône environnementale. Certes, la période concernée est récente allant des années 1960-70 à aujourd’hui : le travail historique donc périlleux. Par ailleurs, le lecteur de documents historiques doit décrypter la propre posture de l’historien : la plupart d’entre eux participent à cette forme de fascination pour le consensus qui a conduit au fameux Protocole de Montréal ; d’autres, comme Stéphane Frioux (2011), confondent histoire et positions personnelles par exemple en faisant rimer Trente Glorieuses avec « Trente Pollueuses »[1]. La thèse de l’École des Hautes Études en Sciences Sociales soutenue en 2014 par Régis Briday a le mérite de faciliter l’accès à des sources indispensables, mais d’autres historiens se sont intéressés à ce phénomène comme Paul Edwards (2010), Hélène Guillemot, Heymann (2010) et tant d’autres.
La lecture de ces documents permet de mettre en évidence les disputes scientifiques, le rôle des industriels américains, la prégnance politique américaine et l’effet inhibiteur sur les esprits, pour ne pas dire dévastateur, de l’attribution mythique d’un prix Nobel.
Le trou d’ozone s’étant véritablement ancré dans l’imaginaire collectif des opinions, il est utile de faire une étude critique historique et scientifique du sujet. Il en ressort une absence totale d'identification du système complexe de l'ozone. Les séries d'observations n'étaient pas suffisamment longue quand la cause dite anthropique du "trou d'ozone" s'est ancrée dans les esprits. Il est de plus en plus probable qu'une cause liée à l'activité solaire apparaîtra comme incontournable.

Citation du jour: "C'est une belle théorie, mais contient-elle une vérité ?" (Einstein)

Dossier: "les2ailes.com"

Le dossier est articulé selon le plan suivant:

1- Aéronomie : Les anciens et les modernes. 
1.1-  De l’aéronomie et de l’aérologie.
1.2- L’alibi des supersoniques transatlantiques. 
1.3- Les premiers lanceurs d’alerte. 

2- Les controverses scientifiques. 
2.1- L’éternel déséquilibre entre les modèles trop simplistes…...
2.2- L’éternel déséquilibre entre les modèles trop simplistes… et leur excès de complexité.
2.3- Le recours au catastrophisme.
2.4- Le caractère unidimensionnel des modèles de l’époque.
2.5- Les réalisations qui ne confirment pas les prévisions.
2.6- Le consensus : argument d’autorité développé par Molina.
2.7- Le procès en conflit d’intérêt entre Molina et Rowland vis-à-vis de la NASA..
2.8- L’absence de recours à la discipline de la détection-attribution.
2.9- La problématique géographique.

3.- L’élaboration d’indices et de concepts hasardeux.
3.1- Les indicateurs relatifs à la couche d’ozone.
3.2- Les indicateurs faisant le lien entre l’ozone et le climat
3.3- Le concept de panier d’ODS.

4- La controverse inhibée par l’administration américaine et la stratégie Dupont de Nemours 
4.1- L’amendement au Clean-Air Act de 1977.
4.2-  Le changement de stratégie de l’industrie américaine des CFC..
4.3- La création de l’UNEP.
4.4- Le monopole américain des mesures satellitaires.
4.5- La fuite des « cerveaux » de l’ozone vers le GIEC..
4.6- La signature des accords internationaux.

5- Un temps de prises de décisions politiques.
5.1- Décisions politiques fondées sur des approximations.
5.2- La Convention de Vienne.
5.3- Le protocole de Montréal
5.4- La mise en place d’organes de gouvernance.
5.5- Une gouvernance érigée comme une « référence » pour le climat

6- Le Prix Nobel : une science inexacte !

7- La remise en cause de l’origine anthropique du « trou d’ozone ».
7.1- Les mécanismes de la biosphère.
7.2- Le rôle des rayons cosmiques sur la couche d’ozone.
7.3- Le rôle des volcans.
7.4- Le rôle de l'activité géomagnétique terrestre
7
.5- La vraie question des "modèles numériques"

8- Une opération de diversion : l’amendement de Kigali
8.1- L’extension de l’approche par « panier multiples » des ODP aux GES.
8.2- L’avenant de Kigali
8.3- La mise en place d’un nouvel organe : la  CCAC..

9- L’impact anthropique sur l’atmosphère : trois alibis ?
9.1- Un alibi pour justifier une fiscalité mondiale supplémentaire: le MultiLateralFinance
9.2- Un alibi pour la bio-ingénierie

9.3- Un alibi pour les malthusiens

10- Conclusion

1- Aéronomie : Les anciens et les modernes

1.1-  De l’aéronomie et de l’aérologie

L'aéronomie est l'étude des propriétés physiques et chimiques des parties de l'atmosphère où les réactions d'ionisation et de dissociation deviennent prédominantes par opposition à l'aérologie qui étudie les portions de l'atmosphère où les phénomènes de turbulences ont une importance majeure (Wikipedia)
Ce n’est que lorsque les modèles mathématiques, exploitant une troisième dimension de l’atmosphère, sa verticalité , qu’on a parlé d’aérologie. C’est Wladimir Köppen, qui a proposé en 1906 ce nom d’aérologie « pour l’étude de la haute atmosphère ».

1.2- L’alibi des supersoniques transatlantiques

De nombreux débats avaient eu lieu dès les années 1965 à propos de l’accusation de détruire la couche d’ozone, accusation portée par un chimiste de Boeing, Halstead Harrison, contre les Supersoniques transatlantiques (SST). Il publie en 1968 un article intitulé “The Condensation and Sublimation of CO2 with H2O: Carbonic Acid on Mars?”[2] . Le modèle qu’il avait mis en place calcula qu’un « faible nombre d’avions supersoniques [pouvait] perturber la couche d’ozone de manière significative, du fait de leurs émissions de vapeur d’eau dans la basse stratosphère terrestre »[3]. Cette hypothèse sera reprise par Russel Train en 1970. Elle suscitera, comme nous le verrons, des vocations chez d’autres scientifiques, qui élaboreront de nouvelles théories de destruction de l’ozone par les SST à partir de 1971. Pourtant, racontera Halstead Harrison en 2003, il était pour sa part alors « pratiquement certain » que cette inquiétude au sujet de l’altération de la stratosphère par la vapeur d’eau des SST était « exagérée », que ce soit au moment de ses premières modélisations en 1966-67, ou en 1970- 71, au plus fort de la controverse sur les SST. En 2003, il se disait être convaincu que les SST n’avaient jamais eu effectivement d’impact significatif sur la composition de l’ozone. Harrison raconte qu’il mesurait tout à fait les limites de ses modélisations.
Lors d’une conférence scientifique, organisée devant le Congrès par Hirschfelder le 18.3.1971, le chimiste Berkeley-Harold Johnston était parvenu, lui aussi à son hypothèse sur la destruction de l’ozone par les NOx des SST.
Toutes ces polémiques avaient provoqué une réelle agitation dans l’opinion américaine sous la pression de pétitions dès 1974[4].

1.3- Les premiers lanceurs d’alerte

Le tournant des sciences de l’atmosphère vers des programmes environnementaux était déjà en marche.
Dans les années 1960-70, la modélisation informatique bouscule violemment les pratiques des scientifiques de l’atmosphère, en particulier sous l’impulsion notamment des programmes chapeautés par des météorologistes théoriciens, Carl Gustav Rossby, John von Neumann et Jule Charney. Leurs programmateurs informatiques avaient requis un pouvoir d’expert supérieur aux météorologistes et climatologues traditionnels . Comme l’a fait remarquer l’un des acteurs de l’expertise états-unienne de l’ozone dans les années 1970, Harold Schiff, rares sont les chercheurs des débuts de la recherche sur la destruction de l’ozone qui ont été des "membres de la clique de chercheurs qui avaient choisi la chimie stratosphérique comme spécialité… Leur statut institutionnel de petit groupe de scientifiques… a pu renforcer leur identité collective"[5].
L’historien Paul Edwards a montré que ce changement avait été "provoqué, non par des climatologues traditionnels, mais par des scientifiques rompus à la météorologie théorique et à la programmation informatique qui travaillaient au sein d’une poignée d’institutions dotées d’immenses ressources informatiques"[6].   

C’est dans ce contexte qu’émergent M. J. Molina et F. S. Rowland qui publient en 1974, dans Nature[7], leur étude "Stratospheric Sink for Chlorofluoromethanes: Chlorine Atom-Catalysed Destruction of Ozone". Leur raisonnement[8] partait des mesures de CFC (Chloro-Fluoro-Carbonés) atmosphériques de Lovelock et d’autres. Ils constataient le taux de production [important] de CFC par l’industrie chimique. S’appuyant sur des données spectroscopiques et chimiques compilées avec un œil critique dans des tables, ils mettent en œuvre des calculs informatiques, qui utilisaient des  "coefficients hypothétiques" ("assumed coefficients") extraite d'un modèle de "diffusion tourbillonnaire" ("eddy diffusion") à une dimension pour trouver l’altitude à laquelle les CFC seraient décomposés par les rayons UV. Ils comparent leur système CFC/chlore avec un système semblable N2O/NO sur lequel Paul Krutzen[9] avait travaillé quelques années avant. Ils font également appel à des modélisations faites par Kockarts et Brinkmann[9bis].  Molina et Rowland reconnaissent le caractère théorique de leur publication puisqu'ils utilisent en seulement 3 pages, 12 fois des expressions de type "estimated", "expected", "roughly","substantial uncertainties", "assumed", "presumabily", "believed", "it seems". Ils reconnaissent leur approximation en matière d'activité solaire: "Les intensités appropriée des UV solaires à une altitude de 30 km peuvent être incertaines par un facteur de 2 ou 3"! (Nature, 1974, p. 811).

Leur chaîne de réaction CFC/chlore s’appuie sur les trois réactions suivantes :
CF2CL2 + hv → CF2Cl + Cl- (photodissociation), puis:  Cl- + O3 → ClO+ O2,  puis: ClO- + O- → Cl- + O2.
La formation chimiste de M. J. Molina et F. S. Rowland peut expliquer la hâte qu’ils montrèrent à conclure à une destruction possible d’ozone stratosphérique, là où beaucoup d’aéronomes étaient alors moins prompts à admettre la vulnérabilité du grand monstre géologique qu’est la couche d’ozone – alors qu’ils connaissaient, eux aussi, les travaux récents sur la diffusion des composés chlorés vers la stratosphère, en particulier ceux de James Lovelock communiqués depuis 1970.

2- Les controverses scientifiques

Peu de critiques réussirent à se développer contre les hypothèses proposées par M. J. Molina et F. S. Rowland. En effet, les scientifiques étaient rares, à l’époque, à avoir une autorité à la fois en aéronomie et en chimie. :
- J.N. Pitts et J.A. Taylor (University of California) ;
- C. Sandorfy (University of Montreal) ;
- R.A. Rasmussen (Washington State University) ;
- Richard Segar Scorer, météorologiste et Professeur de mécanique théorique à l’Imperial College.

Par ailleurs, Du Pont de Nemours et les producteurs de CFC (Chloro-Fluoro-Carbonés), de manière maladroite, feront appel, financements à l’appui, aux rares scientifiques de l’atmosphère contestataires. Dès lors, dès qu’ils s’exprimaient, ils se faisaient accuser de conflit d’intérêt[10] :
- James Lovelock, avait été financé pendant quelques mois par DuPont au début des années 1970 pour ses travaux sur l’accumulation des CFC dans l’atmosphère (sans lien alors avec la destruction de l’ozone).
- Quant à Richard-Segar Scorer, il fut décrédibilisé en 1975 lorsque le journal Los Angeles Times révéla qu’il avait reçu un financement de Hill & Knowlton et donc indirectement du lobby industriel[11].
Malgré tout, dès l’été 1976, Richard Scorer publia  dans des revues à comité de lecture : c’est donc que les scientifiques de l’atmosphère ne pensaient pas que les objections scientifiques de Richard Scorer fussent ridicules .
Il n’empêche que, en réponse aux controverses, Rowland cru nécessaire de publier, dans le New Scientist du 2.10.1975, un « rapport d’étape » (status report) de 4 pages "Chlorofluorométhanes ans stratospheric ozone - a scientific staus report", courbes et équations à l’appui.

Nous évoquons ici les principales critiques qui seront mises en avant pendant près de 40 ans.

2.1- L’éternel déséquilibre entre les modèles trop simplistes…

Richard Scorer appela à se méfier des modèles de chimie-transport des années 1970. D’abord la puissance des ordinateurs était, à cette époque, beaucoup plus réduite qu’aujourd’hui. Par conséquent, « les compromis réalisés entre modélisation de la dynamique et modélisation des réactions chimiques sont nombreux », afin d’éviter de conduire les capacités des ordinateurs à saturation, et afin de réduire le temps de calcul à un nombre d’heures raisonnable.
En quoi les pratiques de modélisation atmosphérique des années 1970 consistent-elles ? L’historien des sciences, Matthias Heymann, écrit dans un article  intitulé « Lumping, testing, tuning : the invention of an artificial chemistry in the atmospheric transport modelling » : "Depuis la fin des années 1950, écrit Heymann, la simulation informatique a été utilisée pour l’étude du transport des polluants dans l’atmosphère"… Matthias Heymann distingue trois moments dans l’élaboration des équations… :

  • Une phase de "lumping" (littéralement regroupement) qui permet de réduire le nombre d’équations dans l’atmosphère réelle, soit en regroupant plusieurs équations en une seule, en assimilant plusieurs composés à un seul, sous prétexte de leur appartenance à une même famille chimique.
  • Une phase de "testing", c'est-à-dire de comparaison des données mesurées et des résultats des simulations… mais il faut préciser que "souvent les éléments individuels des modèles de simulation ne peuvent être testés indépendamment, dans la mesure où seul le résultat global est accessible", quantifiable[12] (p.  353)
  • Une phase de "tuning" (réglage) qui mène en particulier à l’élaboration de ce que les scientifiques de l’atmosphère appellent des "paramétrages". Les paramétrages  sont des expressions mathématiques souvent simples et induites à l’aide d’une argumentation empirique après l’analyse du comportement physique de données collectées lors de diverses campagnes de mesure in situ. Elles suppléent aux équations théoriques déterministes lorsqu’il n’est pas possible de les élaborer à l’échelle de la maille du modèle, mais seulement à une échelle inférieure[13].
    Ces trois phases de lumping/testing/tuning se sont imposées dans les pratiques de modélisation de la stratosphère, …mais, jusqu’aux années 1980, il semble que les communautés de la stratosphère et de la troposphère aient rarement échangé afin de développer leurs modèles numériques respectifs.

2.2- L’éternel déséquilibre entre les modèles trop simplistes… et leur excès de complexité

Les modèles à deux et trois dimensions ont été élaborés au cours des années 1980 ; le nombre d’équations chimiques pris en compte augmenta inexorablement : "Plus de 192 réactions chimiques et 48 processus photochimiques sont impliqués dans la destruction de la couche d’ozone causée par les CFC, mais, aucun modèle de les reflète tous"[14]. C’est ce que reconnaissait une des scientifiques influents de la chimie atmosphérique pourtant proche des thèses de Molina.
Les premiers modèles tridimensionnels "ont été développés au début des années 1980. Ils prenaient en compte les effets turbulents et divisaient la terre en un maillage" géographique qui combinait donc altitude, latitude et longitude. Toutefois, comme en atteste le grand rapport international WMO/UNEP/… « atmospheric Ozone » de 1985, les scientifiques de l’ozone comptaient peu sur les modèles 3-D au milieu des années 1980.
Le professeur Bernard Aumont, du laboratoire LISA, visualise très bien le concept de modèle en 3D [15].

L’historienne Hélène Guillemot  parlera  d’un consensus « pratiquement général » qui se construira, y compris sur les incertitudes ! Elle juge délicat le compromis qui s’établira entre,
-  d’une part, un tropisme des scientifiques pour une complexité croissante des modèles, tropisme "naturel" en phase de "science normale", et renforcé par l’augmentation spectaculaire du nombre d’études sur le changement climatique et par la puissance croissante des ordinateurs;
-  et, d’autre part, le risque d’accroître les incertitudes des résultats des modélisations, à mesure que l’on intègre de nouveaux paramètres et de nouveaux résultats de mesure[16].

Dans l’étude de l’ozone global, comme dans celle de tout problème systémique, il est possible de négliger certains aspects de la réalité pour en souligner d’autres. Les modèles mathématiques se prêtent admirablement à cette stratégie…

2.3- Le recours au catastrophisme

Il s’agit d’une pratique assez courante chez certains scientifiques qui, faute de pouvoir faire la preuve d’une relation de cause à effet, joue du catastrophisme sur les conséquences du phénomène dont ils prétendent expliquer les causes.
Richard Scorer suspecta M. J. Molina d’avoir suggéré à un journaliste que "nous serions bientôt frits par les rayons UV-B qui atteindraient la surface de la terre après destruction de la couche d’ozone", avant d’ajouter quelques lignes plus loin : "les scientifiques sont certainement tentés d’effrayer ceux qui tiennent les cordons de la bourse de la recherche, et de nombreux scientifiques m’ont dit qu’utiliser la peur pour obtenir des financements étaient de toute évidence une bonne tactique"[17].
Ceci étant, les adversaires de M. J. Molina usaient d’arguments tout aussi émotionnels comme celui de Lovelock pour remettre en cause les études sur le trou d’ozone : "Si trop d’UV pourrait vouloir dire : cancer de la peau, trop peu signifie très probablement : rachitisme … De faibles niveaux d’UV pourraient être bénéfiques à d’autres espèces d’une manière que nous ne connaissons pas encore"[18].
Comme souvent, certains analystes prétendent observer les conséquences d’un phénomène pour prouver son existence, même si ce raisonnement n’apporte aucun élément sur son origine causale. Malgré tout, un chercheur de l’Université d’Arizona, James McDonald, s’étonna des prétendus liens entre cancer et Ozone. En 1970, des médecins croyaient que les radiations ultraviolettes causaient certaines formes de cancer de la peau. Or, disait James McDonald, "la couche d’ozone nous protège de ce type de radiations. S’il y avait déplétion, le nombre de cancers de la peau augmenterait. Pour James McDonald, le facteur amplificateur était en effet de 6 : chaque % de réduction de la concentration d’ozone produirait 6% d’augmentation de cancers de la peau". McDonald rendit compte de ces effets devant le Congrès en mars 1970.

Dans LeMonde du 30 janvier 1997, on put lire la dépêche suivante de l’AFP : Lors d’une conférence de presse tenue le 27 janvier au Costa Rica, le Néerlandais Paul Crutzen, prix Nobel de Chimie 1995…, a affirmé : « Lorsque des prévisions apocalyptiques furent avancées, on ne connaissait pas exactement l’ampleur de la détérioration de la couche d’ozone. Maintenant, on sait que les dégâts sont très faibles. Maintenant la démonstration a été faite que la couche d’ozone se détériore à  un rythme fort ralenti » (Dépêches, « LeMonde », 30.01.1997, p. 24)

2.4- Le caractère unidimensionnel des modèles de l’époque

La critique de Richard Scorer porta principalement sur le caractère unidimensionnel des modélisations qui ne prenaient donc pas seulement en compte la dimension verticale des masses d’air. Les processus d’advection, qui se déploient dans les deux autres dimensions du référentiel atmosphérique, manquaient à l’appel. Il pointa du doigt la dynamique atmosphérique trop simpliste de ces modèles. Les rapports officiels ont d’ailleurs confirmé la critique : « L'incapacité des modèles unidimensionnels et bidimensionnels à reproduire l'ozone stratosphérique supérieur et les différences significatives parfois observées entre les modèles… sapent notre confiance dans l'évaluation à long terme » (rapport WMO/UNEP 1985, introduction, p. 18).

2.5- Les réalisations qui ne confirment pas les prévisions

Un chimiste britannique, Robert Watson créa en 1986  un « Ozone Trends Panel », composé de 21 membres[19]. Ce panel devait chercher à résoudre le conflit entre les mesures antarctiques  des masse surfacique de l'ozone, exprimées en Dobsons[20], et celles du satellite instrumental « Total Ozone Mapping Spectrometer  (TOMS) ». Le Panel conclut que les données satellites donnaient bien, comme les ‘Dobson’, une destruction d’ozone dans les latitudes moyennes en hiver. Toutefois, même après de nouvelles analyses, en 1988, les tendances à la baisse que l’on pouvait dégager avec les données de TOMS étaient toujours "deux fois plus importantes que celles prédites par les modèles théoriques"[21]. Il est symptomatique de voir que le futur prix Nobel, F.S. Rowland, était signataire de ce rapport et avait donc conscience des écarts entre prévisions et réalisations. 

Les scientifiques convaincus de la pertinence de l’hypothèse de Molina-Rowland hésitèrent à lancer de nouveaux appels à légiférer. La première raison tenait au fait que, sur la base de nouvelles mesures (réalisées notamment à l’aide de LIDAR et de détecteurs de micro-ondes), un consensus s’est dégagé à la fin des années 1970 sur le fait que les chlores agissaient surtout autour de 40 kilomètres d’altitude. Par conséquent, les émissions anthropiques de composés chlorés engendreraient une destruction d’ozone moindre que prévue auparavant, pour des altitudes plus faibles, plus riches en ozone. Pour cette raison d’altitude et d’autres raisons scientifiques, la destruction d’ozone prédite par la plupart des modèles diminua de manière générale entre 1979 et 1983, par rapport aux prédictions antérieures.
Les prédictions de destruction de la couche d’ozone passèrent de 15% (CCOL n°3 ; Paris, 1979) à 10% (CCOL n°4 ; Bilthoven, 1980), puis à 5-10% (CCOL n°5 ; Copenhague, 1981) et à 3-5% (CCOL n°6 ; Genève, 1983)[22]. Or, à cette époque, les décisions politiques d’interdiction des CFC (Chloro-Fluoro-Carbonés) ne pouvaient pas avoir eu d’effet, d’autant moins que les experts reprochaient une longue durée de vie de ces composés dans la stratosphère. 

Le rapport officiel de 1985 reconnaissait d’ailleurs que « Notre confiance dans les modèles (en particulier à des fins d'évaluation) dépend de la «validation» satisfaisante de ces modèles par rapport aux données disponibles. C'est trop souvent un exercice extrêmement subjectif  ». (rapport WMO/UNEP 1985, Vol. 1, introduction, p. 17).
Dix ans après, les rapports admettaient que l’incertitude n’était pas levée : « Des modèles tridimensionnels et bidimensionnels ont été utilisés pour simuler la chimie des nuages stratosphériques polaires (PSC) dans le vortex et comment le transport vers l'équateur de l'air polaire perturbé chimiquement peut affecter l'ozone à mi-altitude. Notre manque de compréhension des mécanismes détaillés de la dénitrification, de la déshydratation et des processus de transport réduit notre confiance dans ces prévisions du modèle » (rapport WMO 1994, Stratospheric models § 6.1, p. 261).
Dans ce contexte d’édulcoration du risque et de forte instabilité de la science de l’ozone, les industriels états-uniens allaient réclamer "plus d’expertise scientifique", et surtout "plus de mesures d’ozone in situ et de données de laboratoire"[23]
Avec le temps, les prévisions ne se réalisèrent toujours pas : vers 1990, les "preuves empiriques" d’une destruction anthropique d’ozone importante au-dessus de l’Antarctique mirent à mal la théorie chimique de l’ozone, que les auteurs du grand rapport de 1985 pensaient être parvenus à stabiliser. Des campagnes de mesures indiquèrent qu’un trou "se creusait" aussi en Arctique d’une année sur l’autre, le phénomène étant de moindre ampleur qu’en Antarctique, toutefois). Les scientifiques proposeront en particulier une théorie complexe de chimie hétérogène pour les nuages polaires stratosphériques (ou PSC, pour ‘Polar Stratospheric Clouds’) [24].
Comment les prévisions des modèles pourraient-elles se réaliser quand on lit que « les projections futures n'incluent pas l'influence des éruptions volcaniques ou des variations du cycle solaire » (Rapport WMO 2010, rapport pour les décideurs, fig. ES2 §d).

2.6- Le consensus : argument d’autorité développé par Molina

Charles Scorer reproche ce recours à l’idée de consensus : "On a dit que, puisque plusieurs modèles à une dimension faits par des personnes différentes avaient donné des résultats semblables, il existait par conséquent un consensus [souligné en gras par Scorer] à l’intérieur de la communauté scientifique … Or l’accord survint parce que tous les scientifiques avaient utilisé le même modèle défaillant et obtenu la même réponse erronée"[25].

2.7- Le procès en conflit d’intérêt entre Molina et Rowland vis-à-vis de la NASA

Plus tard, à Kyoto, les deux chercheurs insistèrent sur le chlore d’origine volcanique comme destructeur potentiel de la couche d’ozone, parce que la NASA leur aurait demandé de ne rien dire à propos de la navette spatiale.

2.8- L’absence de recours à la discipline de la détection-attribution

a) L’identification des systèmes climatiques complexes.

Nous verrons au § 7 que, près de quarante ans après l’étude publiée par M. J. Molina et F. S. Rowland, des chercheurs se sont intéressés à l’impact des variations de rayons cosmiques sur la couche d’ozone. D’autres se sont interrogés sur l’impact éventuel de l’activité volcanique.
La détection d’un effet, l’épaisseur de la couche d’ozone, et son attribution à une de ces causes nécessitent l’appel à de multiples disciplines : des climatologues, aérologues, aéronomes, chimistes, physiciens, hélio-sismologues, géographes, médecins, … Comment mettre d’accord toutes ces disciplines ? L’identification des systèmes complexes est la seule qui permet de quantifier des relations de cause à effet et de donner une cohérence scientifique à des disciplines aussi diverses, dont certains s’occupent des causes et les autres des conséquences.
Cette discipline nécessite de définir une structure simple du modèle d’identification, d’observer, sur une longue durée, le comportement du système, d’identifier quelques paramètres essentiels du système et d’évaluer a posteriori la validité du modèle.

b) Les difficultés de la « détection - attribution » dans les années 1970-2000

Malheureusement, pendant les années 1970 à 2000, la communauté scientifique ne disposait pas de mesure séculaire, ce qui est un minimum. Les premières données sur l’ozone stratosphérique datent seulement des années 1930.  S. Larsen et T. Hendrikson ont analysé les données accumulées depuis 1935 à Oslo et Trömso sur l'ozone du cercle arctique et publié des résultats dans Nature en 1990. La concentration en ozone serait restée constante, si on exclut la baisse des années 1958 à 1962, époque où les CFC n'étaient pas encore utilisés à grande échelle. Quatre études[26] américaines, qui portent sur les années 1970 à 1984, donnent une variation de la concentration d'ozone stratosphérique qui va de -0,26 à +1,5, variation insignifiante et qui reste dans les limites de l'erreur de mesure.

C’est ce qui a amené beaucoup de scientifiques à remettre en cause l’approche de M. J. Molina et F. S. Rowland sur plusieurs critères :

- le paramétrage de leurs modèles
Lorsqu’ils ont pris en compte des aspects dynamiques, les modélisateurs de la chimie stratosphérique s’en sont jusqu’alors tenus au mieux à des paramétrages très grossier des mélanges de polluants dans l’atmosphère.

- la collecte des mesures
Nombreux sont les scientifiques de l’atmosphère qui concédèrent les grandes limitations de la modélisation numérique des variations de concentration d’ozone stratosphérique en fonction de l’apport en polluants  parce que les simulations étaient très imparfaitement soutenues par les mesures atmosphériques physiques et chimiques[27].

- l’absence de prise en compte des variations naturelles
Dès 1978, un article publié dans la revue Nature par Jack Fishman et Paul Crutzen “The origin of ozone in the troposphere”, contesta le fait que, comme le pensent la plupart des atmosphériciens de l’époque, la première source d’ozone troposphérique provienne de la stratosphère, en descendant massivement au niveau des hautes latitudes moyennes de chaque hémisphère. Les deux chercheurs du National Center for Atmospheric Research (NCAR) arguaient que, puisqu’il y a beaucoup plus de terre dans l’Hémisphère nord, et par conséquent plus de captation d’ozone atmosphérique (car les vitesses de déposition d’ozone atmosphérique sont plus importantes au niveau des terres que des océans), on aurait dû observer un déficit d’ozone dans l’Hémisphère nord. Les mesures n’indiquaient rien de tel[28].
Il faudra donc attendre les années 2005 pour que des observations sur des durées suffisantes permettent de retenir d’autres causes des variations de la couche d’ozone. (cf § 7)

c) Ni quantification ni calcul de probabilité !

Quand il n’y a pas de quantification des relations de cause à effet, il n’y a pas, bien sûr, de calculs de probabilité qui pourraient préciser les degrés de confiance que les scientifiques accordent à leurs allégations. Dans les rapports officiels de 1985, il est même précisé que « le déséquilibre significatif de l'ozone dans la région photochimiquement contrôlée de la moyenne atmosphère limite la confiance que l'on peut accorder aux prédictions du modèle des futurs changements d'ozone en réponse aux augmentations à long terme des concentrations atmosphériques de gaz sources (chlorofluorocarbones, protoxyde d'azote, méthane) » (rapport UNEP/WMO 1985, Vol. 1, introduction, p. 14).

Et quand le même rapport chiffre à 95% le degré de confiance, il ne s’agit pas de la probabilité de relation de cause à effet, mais d’un simple degré de précision de la mesure des observations de taux d’ozone : « L'examen du programme de mesure satellitaire NOAA SBUV-2 indique que si le système fonctionne comme prévu, il est capable de détecter les tendances de l'ozone dans la stratosphère moyenne à supérieure, ainsi que l'ozone total, à environ 1,5% sur une période d'une décennie au niveau de confiance de 95% ». (Rapport WMO/UNEP 1985, Vol. 1, introduction, p. 20)

2.9- La problématique géographique

Les scientifiques s’interrogent également sur la raison pour laquelle le « trou d’ozone » se trouverait surtout au dessus de l’Antarctique, où, à l’évidence, les émissions de gaz industriels sont les plus faibles. Or les vents polaires majoritaires poussent les masses d’air vers les latitudes faibles et non vers les pôles. Pourquoi ces gaz, surtout émis par l’hémisphère Nord exerceraient-ils leur ravages dans l’hémisphère sud ?Certes, les nuages convectifs tropiques peuvent même aller jusqu'à entraîner des gaz se trouvant au niveau du sol jusqu'à la partie stratosphérique, mais les courants de haute altitude oscillent essentiellement d’est en ouest et vice versa (Oscillations Quasi Biennales - QBO) ; les vents d’altitude  de la Cellule de Ferrel, c'est-à-dire dans les zones tempérées et donc les plus industrielles, sont orientées des pôles vers l’équateur et non l’inverse. Ces turbulences ne plaident donc pas pour des accumulations de gaz industriels sur les pôles.
La question se pose d’autant plus que des mesures faites à 30 km d'altitude montrent qu'on n'y trouve pas de CFC[29], là où les baisses les plus fortes d’ozone sont enregistrées. Ces molécules lourdes ont plutôt tendance à tomber sur le sol, à s'y infiltrer dans les fissures, à être adsorbées sur les argiles et l'humus et à être détruites par des bactéries anaérobies friandes de cette substance. Ou bien elles tombent sur la surface des lacs et des mers et y sont dissoutes dans l'eau et détruites par les micro-organismes et les algues. La végétation absorbe également de grandes quantités de fréons comme l'ont montré les analyses de fumées de forêts.

3.- L’élaboration d’indices et de concepts hasardeux

3.1- Les indicateurs relatifs à la couche d’ozone

En 1981, et à la demande de l’US Environmental Protection Agency (EPA), Donald Wuebbles[30] introduit une notion de « potentiel relatif de destruction d’ozone des gaz » (ODP). Celle-ci est une estimation quantifiée du potentiel relatif de destruction d’ozone des halocarbones par rapport à un gaz référent, l’un des deux CFC les plus libérés dans l’atmosphère (avec le CFC-12), le CFC-11. « Les valeurs d'ODP ont toutes été basées sur les changements d'ozone calculés dans une atmosphère modélisée » (rapport WMO 1989, § 4.3.4.2). Cette atmosphère modélisée exclue tout effet éventuel des rayons cosmiques.
D’autres indicateurs seront introduits dans les débats sur l’ozone peu après l’ODP :
- La "charge en chlore (‘chlorine-loading’) »
- et le "potentiel de charge en chlore (‘chlorine loading potential’ (CLP)" de la stratosphère.
Pourtant, étant donné l’absence de quantification rigoureuse de relation de cause à effet entre le CFC-11 et la couche d’ozone, il est hasardeux de comparer de manière très théorique les effets d’autres molécules par rapport à ce CFC-11, dont, en définitive, aucune preuve définitive de l’effet n’a été apportée. C’est pourquoi plusieurs controverses auront lieu au sujet des conséquences politiques de l’utilisation, soit de l’ODP, soit de la charge en chlore stratosphérique. On fera, en particulier, remarquer que certains ODS n’ont pas le même ODP selon la composition de l’air où ils se trouvent.
Il n’empêche : des tableaux comparatifs de l’ODP est largement diffusé aux négociateurs. C’est ainsi que l’ODP et la "charge en chlore" joueront  un rôle décisif de médiation entre les décideurs politiques et l’industrie, et entre les négociateurs nationaux.
Comme l’a montré Karen Litfin[31], en 1989, les scientifiques de l’ozone jugeaient qu’ils avaient établi le lien entre trou de la couche d’ozone et CFC sur la base de leurs mesures de terrain. Mais, la théorie du trou de la couche restait quant à elle seulement embryonnaire. Dans une telle situation où les modèles étaient impuissants à rendre compte du phénomène, écrit K. Litfin, l’utilisation de la charge en chlore de l’atmosphère comme indice était « la stratégie discursive » la plus crédible pour formuler des propositions de nouvelles réglementations, dans la mesure où un calcul fiable d’ODP nécessitait une théorie physico-chimique qui n’existait pas encore.

3.2- Les indicateurs faisant le lien entre l’ozone et le climat

a) Invention et contenu des indicateurs
Au milieu des années 1980, des scientifiques décident d’élaborer un "Global Warming Potential" (GWP) sur le modèle de l’ODP. On ajoutera[32] un indicateur "Halocarbon Global Warming Potential" qui est le GWP spécifique aux halo-carbones. La référence est à nouveau celui du CFC11 = 1.
Quand le Giec sera créé en 1987, ses experts retiendront le CO2 comme gaz de référence en remplacement du CFC11. Des collègues aéronomes-climatologues demanderont alors à Donald Wuebbles de développer un GWP pour le GIEC, qui serait « un pouvoir de réchauffement climatique » relatif au pouvoir de réchauffement du CO2 (avec GWP (CO2) =1)[33]

Les inventeurs de ces indices se drapent derrière un paravent de formules mathématiques qui les rendent crédibles.

Ce n’est que sept ans après son invention que l’indicateur est évoqué dans les rapports Mais ces rapports donnent des tableaux comparatifs des ODP/GWP. Il y est simplement indiqué que « des modèles atmosphériques globaux unidimensionnels et bidimensionnels ont déterminé des ODP pour un certain nombre d'halocarbures, y compris des CFC, d'autres composés chlorés, plusieurs hydrohalocarbures de remplacement potentiels et plusieurs composés bromés » (rapport WMO 1989, résumé pour les décideurs, p. xxix), or, ce sont précisément ces modèles que les mêmes auteurs jugent comme relevant d’un « exercice extrêmement subjectif  » !  (cf ci-dessus § 2.5). En tout état de cause, la « discussion » n’est pas à l’ordre du jour, puisque dans le cœur du rapport WMO de 1989, il est simplement dit : « Le concept de potentiel relatif d'appauvrissement de la couche d'ozone (PDO), introduit par Wuebbles (1981), a été adopté comme référence ou référence rapide pour estimer le potentiel relatif de destruction de l'ozone stratosphérique par les CFC et autres halocarbures. … Ce concept joue un rôle important dans la mise en œuvre des politiques de réglementation pour les CFC entièrement halogénés adoptés dans le Protocole de Montréal » (rapport WMO 1989, § 4.3, p. 424). Qu’importe le contenu du « concept » (sic) pourvu qu’on ait l’ivresse de pouvoir en tirer des « politiques de réglementation ».
Qui plus est, il semble que les valeurs chiffrées découlent « du modèle de DuPont » (rapport WMO 1989, § 4.3, p. 425, fig. 4.3.1) ! Que penser d’indicateurs comparant des substituts de CFC quand ils sont élaborés par l’industriel produisant les dit-substituts ?

Le GWP (‘Global Warming Potential’) est-il  moins apte à corréler les émissions à des changements de température que le GTP (‘Global Temperature Potential’) ?
"La plupart des problèmes avec le GWP et le GTP ne sont pas intrinsèques aux métriques elles-mêmes, renchérissent les auteurs, mais à l’imposition d’une unique échelle de temps pour calculer la métrique"[34]. C’est pourquoi les auteurs ont proposé à Kyoto, au lieu d’utiliser uniquement un GWP100 à horizon 100 ans,  d’utiliser un GWP25 (forçage radiatif sur 25 ans, par rapport à l’action d’une même quantité de CO2), et les impacts à horizon 50 ans, à l’aide d’un GWP50. Tout cela ne donne pas plus de fondement scientifique à un GWP100 qui n’en n’avait pas ! 
Les inventeurs de ces indices reconnaissent que « de nombreuses incertitudes subsistent. L'établissement d'un critère strict pour estimer l'incertitude globale dans les ODP calculés n'est pas une tâche simple. Il existe encore de nombreuses incertitudes associées au traitement des processus chimiques, radiatifs et dynamiques de l'atmosphère dans les modèles actuels. L'incertitude la plus importante est peut-être qu'aucun des modèles utilisés pour calculer les ODP n'inclut les processus chimiques et dynamiques à l'origine des pertes saisonnières d'ozone associées au trou d'ozone au-dessus de l'Antarctique » (rapport WMO 1989, § 4.34, p. 430)[34bis]. « Incertitude » ! On est en plein euphémisme quand, dans les programmes du secondaire, on enseigne déjà qu’un ratio n’est pas déterminable quand le dénominateur n’est pas déterminé. Or l’« identification des systèmes complexes » permet de considérer que le soleil est la principale cause des variations climatiques et qu’il n’est pas exclu que l’effet du CO2 soit nul. Dès lors comment fonder des calculs de GWP autour du CO2 ? Il en est de même pour l’élaboration d’un indicateur ODP. Dès lors que les variations de rayonnement cosmiques, ou de volcanismes n’ont jamais fait l’objet d’une véritable quantification par détection/attribution, toute élaboration d’un tel indicateur par rapport au CFC11 ne peut être que théorique.

b) Utilisation des indicateurs ODP et GWP

Les inventeurs de ces indicateurs ont réussi la performance d’entraîner tous les négociateurs et experts sur ce terrain sans chercher à en vérifier la crédibilité. Il n’empêche que des tableaux comparatifs des ODP et GWP seront diffusés partout, tant dans les instances de gouvernance que dans l’industrie.
Tous ces indicateurs n’ont pas plus de sens que toute une litanie d’autres indicateurs : ADP (Abiotic depletion potential),  AETP (Aquatic ecotoxicity potential), AP (Freshwater acidification potential), CED (Cumulative energy demand), EP (Eutrophication potential), HTP (Human toxicity potential), POCP (Photochemical ozone creation potential), TETP (Terrestrial ecotoxicity potential), WD (Water demand).  Ces outils évoquent des pollutions multiples, plus locales que planétaires, mais dont il ne faut pas lier l’existence. Malgré tout, les conditions locales sont trop différentes pour que ces indices aient un sens global. Ils sont probablement élaborés par une société civile qui rêve de réglementation, de normes à imposer pour créer, pense-t-elle, une "croissance dite verte".

c) La critique interdite sur ces indicateurs

L'un des inventeurs du test de QI se fit, dit-on, prendre à partie un jour sur la définition du QI. A chaque tentative de réponse, son interlocuteur lui montrait que les caractéristiques mesurées par ce test ne correspondaient pas à une véritable intelligence des choses. A la fin excédé, il répondit: "Vous voulez vraiment savoir ce que c'est que le QI? Hé bien c'est ce que mesure mon test". On n'est pas loin de cette boutade avec les paramètres d'ODP et GWP. Dans les deux acronymes, on trouve le "P" de "Potentiel". Dans un cas comme dans l'autre, on part d'hypothèses sur un mécanisme (de dégradation de l'ozone, ou de réchauffement climatique). Puis, on compare entre eux ce que seraient les effets de divers produits selon ces hypothèses. La démarche a l'avantage d'être cohérente, ce qui ne veut pas dire qu'elle corresponde à une réalité. Elle n'a que l'intérêt d'analyser les impacts potentiels de telle ou telle politique de restriction des produits incriminés. Dans ce sens, ces outils peuvent être utiles pour une application du principe politique de précaution, qui n'a rien à voir avec le principe de prudence. Cela nécessite de garder un regard critique sur la validité des hypothèses sous-jacentes, laquelle conditionne la validité de l'ensemble de la démarche. Là où le bât blesse, c'est que cette critique est interdite, et qu'on présente comme vérités révélées les hypothèses sous-jacentes.
Moralité: le serpent se mord la queue. Pour positiver, on peut se réjouir qu'il y ait, pour encore combien de temps?, dans ces acronymes le P de "Potential", et non le E de "Effect".

3.3- Le concept de panier d’ODS

Au fur et à mesure que les industriels proposent des substituts aux CFC, certains d’entre eux ne sont pas jugés anodins au regard de leurs prétendus ODP. On assiste, dès lors, à la mise en place vers 1989, d’une logique de paniers multiples[35]. Ce sont essentiellement Susan Solomon, John-S. Daniel,  Mack McFarland et leurs collègues qui ont imaginé que chaque groupe de substances destructrices d’ozone (ODS), ou panier, devait être réglementé séparément.
- un premier panier regroupe les CFC (CFC-11, -12, -113, -114, et -115)
- le second panier se limite pour ainsi dire aux HCFC
- le troisième panier rassemble  le tétrachlorure de carbone
- le quatrième panier se limite au méthylchloroforme
- le cinquième panier rassemble les divers halons dans un cinquième, etc. .. 
Les divers halons ont probablement été mis en dernier car, il n’y a aucun substitut pour le Halons@R utilisé pour la lutte contre les incendies sur les aéronefs et les data-centers. Le tétrachlorure de carbone est considéré comme « artificiel », comme les CFC et est interdite en vertu du protocole de Montréal, alors que le tétrachlorure de carbone est émis par le gigatonne de volcans, sources hydrothermales et altération la biomasse (voir Gordon Gribble-Dartmouth).
Les négociations de réduction de production et de consommation ce font pour chaque panier, mais pas entre paniers[36].
Cette  approche sera étendue aux gaz à effet de serre lors du protocole de Kyoto, mais en accordant plus de flexibilité aux GES que le protocole de Montréal n’en avait accordé aux émetteurs d’ODS.
Quand on sait le peu de fondement scientifique des ODS, on comprend qu’on est en plein concept politique voire commercial. D’ailleurs, les initiateurs de la méthode parlent de "choix trading"[37]  ou de "cap-and-trade" pour les émetteurs d’ODP. 

4- La controverse inhibée par l’administration américaine et la stratégie Dupont de Nemours

Les historiens parleront d’une forme d’armistice entre les parties. Ceci ne signifie pas, comme on va le voir, que les véritables arguments aient été étudiés en profondeur. Mais force est de constater que les controverses des années 75-80 vont s’éteindre assez naturellement pour plusieurs raisons.

4.1- L’amendement au Clean-Air Act de 1977

Le Clean Air Act (CAA) était une loi fédérale introduite en 1963 traitant de la pollution de l’air. L’amendement au Clean Air Act de 1977 décida d’interdire la vente sur le sol états-unien des produits contenant des CFC dans les secteurs de l’alimentation, des médicaments, des appareils ménagers et des produits cosmétiques (à l’exception des inhalateurs doseurs), puis l’arrêt de toute production manufacturée de propulseurs aérosols aux CFC dans le pays[38].
Pourtant l’amendement stipule que "la preuve empirique de la destruction de l’ozone n’était pas requise pour activer une action réglementaire". Cette loi n’a donc pas été fondée sur une preuve d’un lien entre la couche d’ozone et les CFC. Malgré tout, ce texte rendait un peu stérile la poursuite de la controverse

4.2-  Le changement de stratégie de l’industrie américaine des CFC

L’étouffement de la critique scientifique sera également le résultat d’un changement graduel d’attitude de l’industrie des CFC qui finira par prend acte de l’inéluctabilité d’un abandon à court terme de tout CFC au vu de la mobilisation médiatique et politique pour la sauvegarde de la couche d’ozone au milieu des années 1980.
ar ailleurs, elle avait entamé, dès 1975 un processus de développement de substituts aux CFC (p 429). Les produits de substitution aux se devaient se vendre 15 fois plus chers que les CFC d’origine. Certains s’interrogent même sur le financement des ONG environnementales par des industriels : Edgar Bronfman, un des actionnaires principaux de Dupont de Nemours aurait fait de substantielles donations aux associations vertes aux États-Unis. Un des principaux héritiers de la famille ICI en Angleterre, Lord Peter Melchett, est directeur de Grenpeace dans ce pays[39].
Les industriels iront jusqu’à développer une recherche scientifique privée sur les impacts des CFC qui allaient plutôt dans le sens des experts internationaux. 
En 1989, lorsque les substituts au CFC se développent et commencent à être, à leur tour suspectés d’être également nocifs, 15 industries productrices d’ODP utilisent la même stratégie en constituant un consortium « Alternative Fluorocarbon Environmental Acceptability Study » (AFEAS)[40]. Ce consortium produit une étude sur les dangers  des substituts. Leur souci est, à l’évidence, de ne pas reproduire leur erreur antérieure, mais de générer une plus grande confiance des industriels dans la théorie de la destruction anthropique de l’ozone. Ils ont compris, par ailleurs, que c’était une stratégie efficace pour gagner la bataille mondiale de la production de substituts à « pouvoirs de destruction » (ODP) faibles.
Cette confiance amène d’ailleurs les États-Unis à souhaiter "harmoniser" par le haut les réglementations des CFC. Ils veulent amener Allemands, Français, Britanniques, Japonais, Soviétiques, etc. à s’aligner sur les objectifs de réductions nord-américains.  Or, il faudra pour cela que l’expertise de l’ozone se présente comme une science "universelle", "neutre", et non une science nord-américaine. Des scientifiques de certains pays sont donc invités aux ‘Workshops’ bien que les américains savent très bien que leur contribution sera marginale. On espère qu’ils pourront mobiliser leurs pays sur l’ozone, « adoucir les préjugés nationalistes » et servir d’ambassadeurs. Il s’agit, d’autre, de créer un sentiment d’appartenance à une élite, autour de la rédaction d’un grand rapport international soutenu par l’ONU. Des rencontres scientifiques internationales sur l’ozone qui se déroulent de manière ritualisée à partir de 1976-77 ont une fonction sociale évidente. Elles sont financées  par  l’ONU ou même parfois par la NASA elle-même.

4.3- La création de l’UNEP

Une nouvelle institution de l’ONU, le Programme des Nations unies pour l’Environnement (UNEP) est créé le 15.12.1972. En mal de reconnaissance, l’UNEP organise, à Washington en mars 1977, la première grande rencontre transnationale et "hybride" sur la couche d’ozone.
Il s’agit, non seulement d’aboutir à une standardisation accrue des instruments de mesures, mais également de "standardiser", d’homogénéiser, de faire converger les savoirs sur l’ozone. Ce but est imparfaitement atteint. A la fin des années 1970 et au début des années 1980, les projections de destruction anthropique d’ozone à l’aide de modèles numériques donnent des résultats souvent difficilement conciliables. Il en va de même au sujet des mesures spectroscopiques d’ozone (au sol, depuis l’espace). Tous ces ‘Workshops’ internationaux génèrent un sentiment d’appartenance à une communauté internationale et "écologique".
Les américains attirent des scientifiques aux ‘Workshops’ en faisant ressortir leur valeur professionnelle, déclarant que « les meilleurs scientifiques du monde s’y trouveraient »[41], et que ces rencontres donneraient naissance à "un document dont ils pourraient tous être fiers".  L’aspect vertueux d’un travail contribuant à la protection de l’environnement est bien sûr mis en avant et contribue à la procédure de consensus. Tout cela ne laisse plus de place au dissensus.

4.4- Le monopole américain des mesures satellitaires

L’avantage pris par la recherche états-unienne est patent : d’abord, en matière de développement des modèles numériques, qui impliquent de posséder des ordinateurs puissants, que l’on trouve notamment au LLNL et au NCAR ; ensuite et surtout, sur un plan instrumental, puisque la recherche états-unienne se trouve en capacité de déployer des technologies multiples, dont les plus coûteuses, pour mesurer par satellite les paramètres importants dans la science de l’ozone. Tout cela ne facilite pas l’émergence d’équipes pour contester les travaux de la NASA et de  la NOAA.

4.5- La fuite des « cerveaux » de l’ozone vers le GIEC

Au cours des années 1970-80, des chimistes de l’ozone se familiarisent avec la problématique du changement climatique. Lorsque le GIEC sera constitué, en 1988, certains d’entre eux, comme Susan Solomon, Robert Watson et Donald Wuebbles vont compter parmi les auteurs du premier rapport AR1 du GIEC.
D’autres scientifiques de l’ozone, révélés par l’expertise "à succès" de l’ozone, surent mettre à profit la nouvelle force qui était la leur, pour proposer des voies politiques à suivre en matière de réductions de GES, de géo-ingénierie, de pollution dans les villes, d’environnement global. C’est le cas de Paul Crutzen, de Mario Molina, de Susan Solomon, de Ralph Cicerone, ou encore de Michael McElroy.
Les rares experts qui contestent les modèles sur l’Ozone se retrouvent isolés et s’emploieront à utiliser leurs compétences pour contester l’inefficacité des modèles sur l’effet des Gaz à effet de Serre.
D’une certaine manière, le combat cessa faute de combattants. Cela ne servait pas vraiment l’émergence de la vérité scientifique sur les causes de variations de la couche d’ozone.

4.6- La signature des accords internationaux

Les controverses scientifiques au sujet de la destruction anthropique de l’ozone stratosphérique s’apaisent au début des années 1990. Jugeant que la gouvernance de l’ozone a été actée, en Occident, les médias, les « marchands de doute » et les scientifiques de l’atmosphère s’intéresseront de moins en moins à l’ozone et s'orienteront, faute de budgets, vers des études sur le changement climatique. Cela ne facilitait pas la poursuite de la controverse.

5- Un temps de prises de décisions politiques

5.1- Décisions politiques fondées sur des approximations

- Même dans le grand rapport international mis en place par la Convention de Vienne sur l’Ozone, WMO/UNEP/…, 1985, on pouvait lire que « aucune tendance "statistiquement significative" ne peut être dégagée des mesures par spectrophotomètres Dobson au sol dans la période 1970-1983, ni des mesures par ballons-sondes, ni des satellites. la menace d’une destruction (globale) d’ozone repose alors sur des modélisations numériques utilisant notamment l’hypothèse de Molina et Rowland. Par contre, ajoutent les experts internationaux, une preuve récente a été présentée, qui indiquait une diminution considérable de la colonne d’ozone antarctique printanière depuis 1968 ».
Il est symptomatique de voir que, même après que la signature de la convention de Genève sur l’ozone, qui prenait donc des décisions politiques en la matière, les rapports officiels reconnaissaient l’absence (WMO/UNEP, 1985)[42], de "tendance statistiquement significative". Ces rapports qualifient de simple "hypothèse" les travaux de Molina et Rowland. C’est pourquoi  ils ont recours à "une preuve récente a été présentée, qui indiquait une diminution considérable de la colonne d’ozone". Or un tel recours à l’observation des conséquences (épaisseur de la couche d’ozone) ne dit rien de la cause (CFC ou rayons cosmiques)

- Seuls les modèles post-1985 calculeront les destructions dites du trou d’ozone, aux pôles, mais également des destructions jugées beaucoup moins rapides, au niveau des moyennes et basses latitudes. Or, ce n’est que dans les années 2010 que Stephen Wilde constatera, parallèlement aux Oscillations Arctiques (AO) du Jet Stream, des oscillations de teneur en ozone en haute altitude au niveau de l’équateur et d’expliquer cette variation en fonction de l’activité solaire : quand le soleil est actif, on constate une phase positive de l’ozone stratosphérique à l’équateur et l’inverse en phase solaire inactive[43].

5.2- La Convention de Vienne

Elle est signée le 16.9.1987. Ses organes scientifiques sont essentiellement américains : le  CIAP[44] et la NAS (National Academy of Sciences)

5.3-  Le protocole de Montréal

Le "Protocole de Montréal relatif à des substances qui appauvrissent la couche d'ozone" est signé le 22.3.1985. Cette signature et celle de ses amendements ne se fit pas dans le contexte idéal qui a souvent été dépeint, mais toujours dans un climat de controverse scientifique.

Lire la suite