Qu’est-ce qu’un modèle de climat ?
Le mot « modèle » désigne une approche scientifique très générale, consistant à définir une représentation simplifiée du monde réel, nécessairement réductrice, mais suffisante pour permettre un travail de réflexion, de compréhension, voire de prévision. Ce mot de « modèle » recouvre en fait des approches très différentes qui, d’un extrême à l’autre, peuvent être purement conceptuelles, s’écrivant avec des mots sans aucun recours aux mathématiques, ou, au contraire, purement statistiques et s’écrivant avec des chiffres sans le soutien d’aucune idée explicative. La modèlisation du climat a ceci de particulier qu’elle est à la fois conceptuelle, parce qu’elle s’appuie sur des lois physiques qui proposent une explication de l’évolution des systèmes naturels, mais qu’elle conduit aussi à des résultats chiffrés.
Le « système climatique » est le système créé par l’évolution interactive de l’atmosphère, des océans, des calottes glacaires, des systèmes hydrologiques continentaux, de la biosphère marine ou terrestre. Une multitude de modèles de différentes natures a été utilisée pour décrire le comportement du système climatique, depuis plus d’un siècle que son étude a commencé. L’observation de ce système nous montre qu’il comporte des éléments d’ordre, et ce sont ces éléments organisés que les modèles cherchent à reproduire. Dès le début du XXe siècle, par exemple, la classification du géographe allemand Wladimir Peter Köppen a permis de dresser des cartes des différents types de climat : climats secs, climats équatoriaux, etc. Plus récemment, l’apparition des images satellitaires a permis de visualiser de manière directe l’organisation à grande échelle de la circulation atmosphérique et, de manière plus indirecte, celle de la circulation océanique.
Dans ce système climatique, l’atmosphère joue un rôle déterminant en distribuant l’eau et la chaleur et donc, dans une très large mesure, la géographie des climats. Or les équations qui déterminent le mouvement de l’atmosphère, les équations de Navier-Stokes, ont été formulées au XIXe siècle. Il a donc été tentant, dès cette époque, d’essayer de reconstruire une planète « sœur » de la nôtre, une planète numérique, sur la base des équations fondamentales de la physique appliquées au mouvement de l’atmosphère.
Une des premières tentatives de modéliser ainsi le système climatique est régulièrement citée dans tous les ouvrages sur la recherche climatique : c’est celle de l’anglais Lewis Fry Richardson
Richardson, Lewis F., 1922: Weather prediction by numerical process, The University Press, Cambridge.
, publiée en 1922. Mais les moyens dont disposait Richardson étaient trop limités et les véritables avancées scientifiques ne sont venues que plus tardivement. De fait, la description de notre environnement au travers de modèles numériques réclame des capacités de calcul énormes, ressources qui ne se sont développées qu’à partir des années 1950 avec l’arrivée des premiers ordinateurs. Le progrès en matière de modélisation climatique a donc suivi l’augmentation de la puissance des ordinateurs. (Cette augmentation est colossale : les ordinateurs d’aujourd’hui sont environ un milliard de fois plus rapides que ceux des années 1960.)Mais les difficultés ne se sont pas limitées à des problèmes techniques : l’utilisation des équations elles-mêmes a posé un très grand nombre de problèmes théoriques ou conceptuels. Les équations de Navier-Stokes n’ont pas de solution mathématique connue : il s’agit là d’un des grands défis mathématiques du XXIe siècle, et cette situation oblige à résoudre ces équations en utilisant la « force brute » des ordinateurs. Ces équations sont « non-linéaires », ce qui signifie que toutes les échelles spatiales et temporelles des écoulements atmosphériques et océaniques interagissent. Ceci oblige à pondérer la « force brute » des machines par une bonne intelligence de ce que l’on cherche à simuler, en écrivant des équations adaptées.
La première étape du travail de modélisation consiste à couvrir la Terre d’un maillage tri-dimensionnel. On écrit alors, aux nœuds de ce maillage, des équations d’évolution qui permettent, d’un pas de temps à l’autre, de faire varier des paramètres tels que la pression, la température, les vents ou les courants.
Le « pas d’espace » des modèles – la résolution spatiale – a évolué au fil du temps : pour les modèles atmosphériques, il est passé de 500 km environ, dans les années 1970 ou 1980, à souvent moins de 100 km aujourd’hui. Les modèles d’océan ont souvent besoin d’un maillage plus fin (désormais de l’ordre de la dizaine de kilomètres) car la taille des tourbillons océaniques est plus faible que celle des grands systèmes dépressionaires ou anticycloniques que l’on trouve dans l’atmosphère. Le « pas de temps » des modèles atmosphériques doit au contraire être beaucoup plus petit que celui des modèles océaniques car les vents circulent beaucoup plus vite que les courants marins : les modèles atmosphériques évoluent souvent de demi-heure en demi-heure environ, et les modèles océaniques de jour en jour.
Cette approche permet ainsi de faire vivre une « planète numérique » : si on lui donne un état initial, cette planète va évoluer d’elle-même en suivant ses lois constitutives, et va créer son propre climat. Cette approche n’a bien sûr de sens que si le climat de la planète numérique est proche de celui de la planète réelle. Le pari peut paraître immense et beaucoup, dans les années 1960 ou 1970, le croyaient voué à l’échec. Comment est-il possible que la modélisation numérique permette de recréer, de manière réaliste et utile, les éléments statistiques principaux des circulations atmosphériques et océaniques sur des périodes longues de plusieurs décennies, comme le réclament les études climatiques ? Le caractère extrêmement sensible de ces aspects théoriques et numériques a été renforcé par la découverte de Lorenz en 1963, montrant que l’atmosphère n’est pas prévisible de manière déterministe au delà de quelques jours, parce que la croissance des petites échelles (créées, par exemple, par des battements d’aile de papillon) vient alors contaminer l’ensemble de sa circulation.
La réponse à ces questions s’appuie sur un fait que nous avons souligné : en dépit d’une composante chaotique qui rend les évolutions climatiques partiellement imprévisibles, les écoulements atmosphériques et océaniques présentent des éléments d’organisation très forts, qui, eux, peuvent être compris, analysés, simulés – avec l’espoir aussi de pouvoir évaluer leurs évolutions futures. Un coup d’œil à n’importe quelle image satellitaire montre des structures spirales de plusieurs milliers de kilomètres associées aux dépressions des moyennes latitudes. Dans les tropiques, l’air montre près de l’équateur, déterminant des zones de pluie intense, pour redescendre à des milliers de kilomètres de là, dans des régions où il détermine au contraire des déserts. Les éléments pour expliquer ces formes d’organisation se sont accumulés depuis le XVIIe siècle, car elles ont fait, dès cette époque, l’objet d’une très grande attention scientifique. On sait que les circulations atmosphériques et océaniques s’établissent en réponse à plusieurs forçages externes. Le premier d’entre eux est le contraste de température entre le pôle et l’équateur. Un autre élément d’organisation des circulations est la rotation de la Terre : près de l’équateur le sol tourne très vite d’ouest en est et entraîne l’atmosphère. Quand ces masses d’air se rapprocheront de l’axe de rotation de la Terre, aux hautes latitudes, elles seront animées par de forts vents d’ouest. Cette propriété, la même que celle qui fait qu’une patineuse à glace tourne de plus en plus vite sur elle-même quand elle replie les bras, s’appelle la conservation du moment cinétique.
La rotation de la Terre induit, par ailleurs, des forces appelées forces de Coriolis : ce sont celles qui font tourner les écoulements autour des basses pressions (dans le sens cyclonique, c’est-à-dire inverse aux aiguilles d’une montre, pour l’hémisphère nord) ou autour des hautes pressions (dans le sens anticyclonique). Les fluides géophysiques ont une autre propriété extrêmement importante : ils sont stratifiés, c’est-à-dire que leur densité décroît fortement avec l’altitude (pour l’atmosphère, qui est un fluide compressible, les choses sont un tout petit peu plus complexe). On peut montrer que la combinaison de ces lois physiques détermine, en partie, la dimension des systèmes météorologiques, qui est souvent de plusieurs milliers de kilomètres, et qui détermine à son tour une partie des circulations océaniques.
Cette connaissance des circulations atmosphériques et océaniques, très rapidement esquissée ici, repose sur des analyses initiées dès la première moitié du XXe siècle par des chercheurs comme le suédois Gustav Rossby ou l’américain Jules Charney, et elle a servi à établir les caractéristiques essentielles des premiers modèles. Les modèles atmosphériques globaux, par exemple, ont retenu depuis l’origine une grille de résolution dont le pas spatial était de 500 km environ : cette résolution, qui est allée ensuite en s’affinant, permettait déjà de résoudre les structures de quelques milliers de kilomètres que nous venons de décrire. Un pari explicite a été, dès l’origine, de penser qu’il était possible de décrire les petites échelles de la circulation atmosphérique ou océanique à partir des paramètres de grande échelle : ainsi un modèle atmosphérique incorpore-t-il des équations supplémentaires (que l’on appelle des paramétrisations) pour représenter l’effet collectif des nuages près du sol (les stratus), comme des grands nuages convectifs (les cumulonimbus), la présence de végétation, le débit des rivières, etc.
Le pari a rapidement été tenu et, de fait, dès les années 1970, il était possible de décrire les grands traits des circulations atmosphériques par des modèles numériques. Les contraintes imposées à l’atmosphère ou à l’océan numériques, telles que le chauffage radiatif ou la rotation de la Terre, étaient effectivement suffisantes pour générer des vents, des courants, des régimes de pluie ou des températures structurellement semblables à ceux de la planète réelle. Depuis cette époque, le gain en puissance de calcul a été considérable et il a permis des progrès dans tous les domaines. D’abord une capacité à mieux prendre en compte la géographie : montagnes et tracé des côtes. Ensuite une précision beaucoup plus grande dans la représentation de toutes les paramétrisations des processus d’échelle inférieure à la maille, atmosphériques comme océaniques.
L’allongement de la durée des simulations a aussi permis d’explorer le comportement de la planète numérique sur des périodes de plus en plus longues, et de tester la capacité des modèles à reproduire des climats passés. Par exemple, le dernier maximum glaciaire, il y a 21 000 ans, ou encore le climat chaud de l’Holocène entre 10 000 et 5 000 ans avant l’époque actuelle, quand le Sahara était humide. Mais le plus important a sans doute été de pouvoir passer d’une modélisation de la circulation atmosphérique à une représentation du système climatique complet : les modèles actuels associent l’atmosphère, l’océan et les continents, en prenant en compte leurs interactions physiques, chimiques et biologiques. Le travail qui a permis de passer de modèles essentiellement atmosphériques à des modèles que l’on appelle « Modèles du Système Terre » n’a pu être entrepris que par des équipes organisées. Il faut le travail de 50 à 100 personnes pendant une décennie environ pour développer de tels modèles, et il existe une vingtaine de laboratoires à l’échelle mondiale qui ont entrepris de relever ce défi.
La formulation des modèles climatiques suit des règles précises : elle s’appuie sur des choix mathématiques ou physiques, très nombreux, qui sont souvent étayés par des campagnes de mesures. Tout ceci permet de définir un jeu d’équations très complexe. (Les modèles climatiques sont des codes informatiques constitués d’environ un million d’instructions.) Ce jeu d’équations a une double validité :
- globale (on ne définit pas les nuages convectifs dans un modèle de manière différente sur l’Afrique et la Chine car la paramétrisation qui sert à les décrire doit avoir une portée générale) ;
- et applicable à des changements très variés (cycle diurne, cycle saisonnier, reproduction de climats anciens, capacité à simuler des évènements El Niño ou La Niña, etc.).
Contrairement à une idée souvent exprimée, il n’est pas facile d’optimiser les résultats d’un modèle en jouant avec les paramètres qui servent à le définir. Par exemple, on peut détériorer gravement les précipitations neigeuses sur les régions polaires en améliorant les circulations océaniques tropicales car il s’agit d’un système composé d’une myriade de processus interdépendants.
Le développement de la modélisation a été accompagné d’un effort international d’évaluation. Chaque groupe de modélisation participe ainsi à un protocole expérimental défini de manière internationale (expériences « CMIPCoupled Model Intercomparison Project» du Programme Mondial de Recherche sur le Climat), et les résultats de chaque modèle sont confrontés à la réalité par des groupes de recherche très nombreux (près d’un millier) qui ne font pas un travail de modélisation mais d’analyse des modèles, pour une région du monde ou pour un processus ciblé. Jusqu’à présent, il n’a jamais été possible de trouver un modèle universellement meilleur ou universellement moins bon que les autres : c’est très souvent la moyenne des modèles qui fournit le résultat le plus réaliste. Pour l’évaluation du climat futur, il n’existe pas de référence observée et c’est la dispersion des modèles qui fournit une estimation des incertitudes affectant le diagnostic scientifique actuel.