Publié par : Memento Mouloud | décembre 6, 2015

Climat : la fin du monde est reportée à une date ultérieure

Nous savions depuis les attentats du 13 novembre qu’aller faire ses achets de Noël dans un centre commercial ou se trouer les tympans en lissant sa petite barbe dans une salle de concerts faisaient de chacun d’entre nous, des résistants. A la lumière de l’échec programmé de la COP 21 qui accouchera d’une énième urgence citoyenne à fermer le robinet quand on se lave les dents et à préférer les bus de la RATP conduits par des salafistes issus de la diversité à nos quatre-roues diesels destructeurs, j’ai relu quelques articles publiés dans la Recherche et Pour la Science. C’est sans doute de la vulgarisation mais l’honnête homme est celui qui échappe à l’enfermement dans l’érudition ou l’expertise. A la fin de ce parcours, chacun jugera si cela l’intéresse ou le laisse grand actionnaire de la société de l’Humanité conservée dans le formol capitaliste des bonnes intentions. Ce qu’un participant à la COP appelait se partager le gâteau vert.

Liminaire

Le comportement de l’atmosphère terrestre est caractérisé par l’évolution dans l’espace et le temps de plusieurs variables : « vent, température, pression, densité de l’air, concentration des différentes phases de l’eau et de différents gaz ». Par convention, on identifie le climat aux conditions atmosphériques (température, humidité, pluviosité, nébulosité, ensoleillement, etc.), prévalant, en moyenne, dans une certaine région.  Le GIEC semble avoir étendu la convention au monde entier. Suivant l’échelle temporelle, les interactions entre l’hydrosphère, la cryosphère (glace continentale et marine), l’atmosphère et désormais les processus chimiques et biologiques ainsi qu’anthropiques jouent un rôle déterminant.

Le caractère apériodique des variations climatiques (cyclones, anticyclones, zone orageuse, etc.) soulève un premier problème de prédictibilité. La circulation atmosphérique alterne entre deux régimes distincts : des circulations zonales, symétriques autour du pôle et des circulations lobées. La transition entre ces deux modes s’opère en quelques jours et le motif persistant du mode lobé peut créer des blocages : périodes de froid ou sécheresses.

En 1973, Nick Shackleton avait constaté que le volume de la glace continentale avait suivi une évolution où contrastaient une périodicité moyenne (100 mille ans) et une composante apériodique de laquelle on peut déduire de larges écarts par rapport à l’évolution moyenne : selon Catherine Nicolis « cela reflète, pour le climat de la planète, la possibilité de basculer sur une durée de temps très courte à l’échelle géologique : de l’ordre de quelques milliers d’années. ». De même, à une échelle moindre, l’observation du régime des pluies dans une station de Mauritanie constatait la césure du milieu des années 1960 où on passait d’un régime de pluviosité normal à un régime très  faible. Des chercheurs en avaient conclu à la coexistence de deux attracteurs. Le second, celui du régime faible des pluies, étant ‘’déclenché » par les facteurs suivants : les mécanismes radiatifs, les phénomènes de transport ou les anomalies de température à la surface marine.

Les lois qui régissent le comportement de l’atmosphère sont celles de la dynamique des fluides, de la thermodynamique ainsi que celles relatives aux changements d’état de la matière (évaporation ou condensation de l’eau) et à l’interaction rayonnement-matière. Les équations différentielles qui expriment ces lois sont différentielles (les variables sont couplées entre elles) et non-linéaires (les effets ne sont pas proportionnels aux causes).

Les systèmes non-linéaires admettent, « au bout d’une durée plus ou moins longue » plusieurs solutions ou attracteurs. Lorsque les paramètres du système varient, on obtient une bifurcation qui est une modification qualitative du système qui change, par exemple, le nombre des attracteurs. Dès lors, le ‘’choix’’ entre attracteurs dépend « des écarts mêmes infimes, de sa position initiale ».

Il existe donc une double sensibilité : au paramètre (qui modifie le nombre d’attracteurs) et au choix lequel dépend de l’état initial. Or la première bifurcation est le point de départ d’une série de transitions successives qui aboutissent à un chaos déterministe. La conséquence est la suivante : « le devenir du système ne pourra être prédit à long terme ». Il s’agit donc  de s’entendre sur le long terme et de choisir un nombre de variables limitées : ici est l’arnaque, dans ce nombre limité de variables qui permet de calculer des séries chronologiques à partir de mesures prises à intervalles de temps réguliers. En effet, celles-ci permettent de caractériser de manière quantitative les propriétés du système. A partir de ce système à variables limitées, de ce simulacre algorithmique, on aurait pu calculer plutôt que de fabriquer une peur exponentielle, le temps de résidence du système autour d’un attracteur quelconque.

Il est d’ailleurs amusant de constater que Klaus Fraedrich, Michael Ghil, Grégoire et Claire Nicolis avaient suggéré dans les années 1980 que les « glaciations du Quaternaire relèvent également d’une dynamique chaotique, caractérisée par une prévisibilité limitée ».

2002

Dans un premier temps et pour le climat européen, il a fallu via des programmes tels que le PMIP établir des données sur la variabilité naturelle du climat dans le passé. On s’appuie  sur les sédiments marins et les carottes de glace polaire pour mesurer, notamment la composition isotopique de  l’oxygène (le rapport O18/ O16). On prétend que la dernière glaciation a atteint son maximum il y 20 mille ans. Depuis 10 mille ans, nous sommes entrés dans l’Holocène, une période interglaciaire. Il y a 6 mille ans, l’optimum climatique aurait été atteint.

Pour saisir les variations à l’échelle du continent, on s’appuie sur les couches de tourbe et de sédiments lacustres où l’on trouve les spores et les grains de pollens. Comme les pollens sont caractéristiques de certains taxons (ou familles de plante) ils enregistrent l’évolution de la végétation, reflet de la variation climatique puisque la végétation est déterminée par les conditions de température et le régime des précipitations. Le spectre pollinique établit l’assemblage végétal ou biome.

Très clairement, la documentation pollinique manque pour le dernier maximum glaciaire.

Pour établir un simulacre de climat passé on ajoute comme composantes : la température de surface des océans, la couverture de glace de mer, l’extension et l’altitude des calottes glaciaires, l’état du couvert végétal, la composition de l’atmosphère et le rayonnement solaire incident.

Le rayonnement solaire est connu et la teneur en gaz carbonique mesurée à partir des glaces de l’Antarctique.  Pour le maximum glaciaire, les analyses des microfossiles planctoniques prélevés dans les sédiments marins ont permis d’établir les températures de surface de l’océan. Le reste relève un peu de la science-fiction si bien que les résultats des simulations atteignent 10°C d’écart, autant dire qu’ils sont visiblement déficients.

Pour l’optimum climatique, on possède 343 séries polliniques, mais aucune ou presque pour les Balkans. D’après les simulations le « réchauffement » ne saurait être général, ni au niveau spatial, ni au niveau saisonnier. Très clairement les données polliniques et les simulations divergent. Or d’après les travaux sur les régions tropicales toute modification de la surface des océans et tout changement de végétation produisent des rétroactions. Un scientifique écrivait à propos du climat dans les régions méditerranéennes,  « nous n’avons pas encore compris tous les mécanismes responsables des variations de pollen observés ».

2007

Les modèles reposeraient sur les « lois fondamentales de la physique ou de la mécanique ». Or les lois de la mécanique des fluides sont non-linéaires et font intervenir toutes les échelles spatiales et temporelles. Aux petites échelles et sur des temps courts, prédominent les effets chaotiques. Le climat global serait déterminé par des circulations à grande échelle, « en partie prévisibles ». Tout le sel de l’affirmation est dans le « en partie ».

L’effet de serre n’est pas uniforme du fait de la « forme sphérique de la planète ». L’écoulement s’organise à l’échelle de milliers de kilomètres pour la troposphère et des centaines pour l’océan. Une circulation convective existe aussi dans l’océan. Les forces de Coriolis fixent la zone de descente de l’air entre 30 ° de latitude nord et sud, ce qui fixe la ceinture des grands déserts.

Les modèles climatiques apparient les équations du mouvement, celles de la mécanique des fluides et celles des échanges d’énergie (rayonnement solaire, émission terrestre de rayonnement infrarouge, cycle de l’eau, etc.). Le modélisateur, se prenant, pour Eole, joue avec les variations de paramètres.

Il semble que l’effort ait porté sur la durée des simulations et non sur leur géographie, ce qui est contradictoire avec l’ambition de couvrir toutes les échelles spatiales, mais passons.

Le climatologue opère l’intégration dans le temps des équations atmosphériques ou du modèle couplé océan-atmosphère, le hic c’est qu’il délaisse les conditions océaniques initiales, « ce qui pose un problème car on les connaît mal », litote pour dire qu’on les fixe donc arbitrairement. Le modèle du climatologue calculerait une « nouvelle statistique d’événements météorologiques et océaniques » caractérisés par des moyennes, des variabilités et l’occurrence de situations extrêmes jusqu’aux échelles intrasaisonnières.

La modélisation sur le climat s’attacherait à évaluer l’effet respectif des circulations à grande échelle et des turbulences de petite échelle. Le problème c’est qu’elle suppose que les « propriétés statistiques des petites échelles » sont déterminables à partir des conditions atmosphériques ou océaniques à grande échelle. « Cette hypothèse se révèle bien vérifiée a posteriori, mais, malgré tout d’une manière imparfaite, qui constitue une limitation intrinsèque des modèles ». Il est donc à noter que les modèles climatiques ont réduit quatre incertitudes, celle chaotique sur les « turbulences » à petite échelle, celle sur les conditions océaniques initiales, sur l’impact géographique différencié, enfin celle sur les nuages qui constituent un « facteur d’in certitude majeur » auquel sont dévolus trois satellites et un Earth Simulator japonais.

Dans tous les cas, la paramétrisation des échelles nécessite l’emploi de satellites, de campagnes d’observation des systèmes nuageux ou des études des effets sur le sol. Ainsi il est toujours loisible d’accorder les modèles et les données observées. CQFD.

Selon les études du GIEC à cette date, le doublement de la teneur en CO2 devait conduire à un réchauffement global de 2 à 5 degrés.

Le Programme de recherche climatique mondiale piloté par l’Organisation météorologique mondiale suit et compare les modèles si bien que sont nés des modèles du Système Terre qui ajoutent aux processus physiques déjà incertains des processus chimiques et biologiques qui le sont encore plus. Le PIGB (Programme International géosphère biosphère) sous la tutelle de l’ICSU (Conseil International pour la Science) en est le promoteur, le GIEC, son support de lancement.

2015

« La température moyenne à la surface de la Terre a augmenté moins vite durant la dernière décennie qu’au cours de la décennie précédente. Néanmoins, le terme de ‘’pause’’ est trompeur, car la température a continué de croître ; il s’agit plutôt d’un ralentissement. Par ailleurs, des études récentes le mettent même en cause »

Donc la pause est comme le chat de Schrödinger, un coup ici, un coup là-bas. La pause qui n’existe pas selon Michaël Mann aurait tout de même des facteurs (fantômes ?) : l’éruption du volcan islandais Eyjafjallajökull ou la baisse de l’activité solaire voire la « variabilité annuelle de la quantité de chaleur absorbée par les océans ». Puis Michaël se ravise, si la pause n’existe pas c’est du fait d’une illusion projective La Niña, succédant à el Niño, en 1998. De plus, on a multiplié les mesures prises par les bouées, ce qui constituerait un biais. On a envie de lui répondre, si c’est un biais, la converse marche aussi et les anciennes mesures sur bateaux, toujours plus chaudes que sur les bouées, sont déficientes. Dans tous les cas John Lyman avait observé, au début des années 2000, une baisse de la température des eaux superficielles des océans.  Lui aussi avait été atteint par une série de biais. Désormais, il n’y a plus baisse mais ralentissement du réchauffement, le calibrage et la paramétrisation ressemble donc à une marche en ordre serré. Dans les faits, on observe des pauses, qui n’existent pas, précédentes. Les unes dans les années 1940, les autres, dans les années 1970. Elles seraient dues à des instabilités océaniques de longue durée, dites atlantiques multidécennales.

Le réchauffement n’étant pas une question mais un fait (sur une échelle de 1400 ans à rapporter à la durée de notre épisode interglaciaire), les chercheurs en sont venus à quantifier une sensibilité climatique à l’équilibre (ECS : Equilibrium climate sensitivity). La concentration atmosphérique de dioxyde de carbone à l’ère pré-industrielle était « d’environ 280 parties par millions (ppm) ». Dans cette phrase c’est l’environ qui interroge. On en vient au cœur du modèle. « Les résultats des diverses simulations diffèrent quant à leurs effets précis, en particulier pour la couverture nuageuse ». L’en particulier indique que ce n’est pas le seul effet mesuré en toute imprécision. D’autres « rétroactions présentent plusieurs incertitudes ».  Les modèles sont incertains mais ils marchent. On en vient donc au vieux coup de la prophétie rétrospective.

Les deux pères fondateurs et mages de la discipline seraient Syukuro Manabe et Richard Wetherald dont l’article paru en 1967 dans The Journal of the atmospheric Sciences serait l’évangile du désastre à venir ou plutôt l’invitation à ce que le Comité scientifique consultatif du président Johnson appelait une « immense expérience géophysique » aux « coûts économiques et humains extraordinaires ».

Le GIEC serait comme le CERN, « l’exemple à suivre d’une organisation internationale rationnelle et efficace ». Rappelons que Phil Jones a édifié son graphique de température sur le principe suivant : puisque les températures réelles observées et la croissance des cernes d’arbres divergent,  à partir des années 1960, il suffit de remplacer les cernes d’arbres par les températures réelles à partir de cette même date.  Dans les courriels dérobés en 2009, on note que des membres du GIEC, cet exemple à suivre,  se réjouissent de la mort de leurs adversaires, les traitent de merde ou menacent de leur casser la gueule, mésaventure qui manqua de peu d’arriver à Benoît Rittaud sur le plateau de France-Culture. Le même Phil Jones, à la fois exemplaire, rationnel et efficace, demandait à ses interlocuteurs d’effacer tous leurs courriels ou refusait de fournir des données à ses adversaires. Il est à noter que l’institution exemplaire a défendu pendant deux ans, la thèse absurde de la fonte des glaciers himalayens en 2035.


Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Catégories

%d blogueurs aiment cette page :