Climat : l’art et la science de l’ajustement des modèles

Dans son toujours excellent blog Judith Curry passe en revue un papier[i] qui fait suite à une réunion de travail entre spécialistes des modèles climatiques qui eut lieu en octobre 2014 à Garmisch-Partenkirchen, en Allemagne.

Toute modélisation de systèmes complexes nécessite une calibration, aussi appelée syntonisation, ajustement ou tuning, afin que les diverses parties qui la composent puissent livrer un résultat cohérent. Ainsi des fonctions de transfert arbitraires peuvent combler certains aspects inconnus ou trop complexes pour être calculés en détails. Aussi, les incertitudes liées au manque d’observations ou à leurs mauvaises qualités font que les paramètres d’ajustement ne peuvent pas être déduits de manière claire et précise.

Or les modèles climatiques sont parmi les entreprises de calcul les plus complexes qui soient, faisant appel à des phénomènes de mécanique des fluides et de thermodynamique qui sont à la fois non linéaires, donc sans solution mathématique explicite, et chaotiques, c’est-à-dire sensibles de manière peu prévisible à de faibles changements des conditions initiales. La quantité de variables et de paramètres impliqués et aussi la finesse de la grille de calcul tout autour de la terre et sur plusieurs couches d’atmosphère font que des compromis doivent être trouvés entre économie des moyens de calcul (taille des super-ordinateurs et durée des calculs) et exactitude des résultats attendus. Mais il faut aussi se rendre compte que même avec des machines d’une taille supérieure à celle de l’univers la qualité des résultats ne saurait dépasser les limites de notre ignorance ni celle des variations et imprécisions liés aux observations dont nous disposons.

Cet article vient comme une bouffée d’air frais dans une salle enfumée par les croyances et les volontés de pouvoir des uns et des autres. Même sans être soi-même un spécialiste on peut en comprendre les implications et le moins que l’on puisse en conclure c’est qu’il reste beaucoup de pain sur la planche des climatologues jusqu’à ce qu’ils soient capables de saisir eux-mêmes les vraies sensibilités du climat aux paramètres qui peuvent préoccuper, tels les aérosols, les nuages ou les gaz à effet dit de serre.

Un diagramme de cet article (Fig. 3) est révélateur :

models vs obsLa courbe noire représente les anomalies de température à la surface du globe telles qu’observées tout autour du monde puis compilées par le centre météorologique de Hadley au Royaume encore Uni ; c’est la série HADCRUT4, la seule comportant des données depuis la moitié du XIXème siècle. La période de référence pour une anomalie moyenne nulle est 1850-1899.
Les courbes grises sont les résultats de reconstructions historiques de l’ensemble des modèles associés au projet de comparaison entre modèles couplés CMIP5. La courbe rouge est celle du modèle GFDL-CM3, la verte et la bleue montre le résultat de configurations supposant un faible ou un plus fort refroidissement lié aux interactions entre aérosols et nuages, dont on ne sait pas grand-chose.

80% des modèles exagèrent le réchauffement en comparaison avec la réalité observée, dont beaucoup d’une manière excessive. Et dans un de ces cas, par un ajustement arbitraire d’un seul paramètre on constate que la syntonisation peut sembler bonne (courbe rouge) ou totalement en dehors de la réalité (courbes verte et bleue). On peut donc aussi obtenir un « bon » résultat pour de mauvaises raisons.

La question de validité du modèle doit se poser selon trois termes :

  1. Épistémique : sait-on tout ce qu’il faut savoir ?
    Le modèles est-il construit sur un ensemble complet et valable d’équations, de variables et d’interdépendances entre sous-modèles ?
  2. Incertitudes aléatoires : erreurs statistiques.
    Les données d’observation permettent-elle une vérification du modèle dans des limites de précision et exactitude utiles et acceptables ? Les scénarios choisis sont-ils réalistes et probables ?
  3. Intention : but poursuivi lors des ajustements.
    Le modèle répond-il de manière plus sensible aux choix des paramètres de syntonisation et à leurs valeurs qu’aux variables de base en fonction desquelles il a été construit ?

Sans donner de réponses claires à ces questions, toute prédiction ou projection (comme par exemple des calculs de scénarios d’émissions futures de gaz à effet dit de serre) se réduira à des conjectures inutilisables.

Pourtant la climato-crédulité, celle qui veut attribuer aux activités humaine la part prépondérante d’un réchauffement climatique qui n’aurait évidemment que des conséquences dramatiques, ne veut pas tenir compte de ces difficultés qui, par le jeu d’influences plus politiques que scientifiques, ont été vastement occultées, même et surtout par le GIEC qui n’en aura tenu aucun compte ni dans son rapport AR5 ni pour la préparation de la conférence de Paris en décembre 2015. Et pourtant ils savaient…

Les spécialistes auteurs de ce papier ont certainement des convictions mais leur propos est neutre et factuel. Le fait même de mettre en cause le parangon de perfection attribué aux extrapolations catastrophistes va certainement les projeter dans la catégorie du politiquement incorrect ou pire, celle du Nestbeschmutzer, du cracheur dans la soupe, car ils desservent clairement la causa climatica dont on sait maintenant qu’elle est sacrée, donc indiscutable.

 

[i]      Hourdin, F., T. Mauritsen, A. Gettelman, J. Golaz, V. Balaji, Q. Duan, D. Folini, D. Ji, D. Klocke, Y. Qian, F. Rauser, C. Rio, L. Tomassini, M. Watanabe, and D. Williamson, 2016:
The art and science of climate model tuning.
Bull. Amer. Meteor. Soc. doi:10.1175/BAMS-D-15-00135.1, in press. [lien au manuscript].


Merci de compartir cet article
FacebooktwitterlinkedinmailFacebooktwitterlinkedinmail

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.