ENSM-SE / processus naturels / terre_ronde

CHAPITRE 5

L’enveloppe gazeuse de la Terre

le couple atmosphère – hydrosphère

Structure thermique et chimique verticale de l'atmosphère

retour

 

 précédent      chapitre                             

 

                                ( Composition ) précédente      page       suivante ( Stratification électromagnétique )

 

plan

 

 

 B - Structure thermique et chimique verticale de l'atmosphère

Les pionniers de la recherche dans le domaine atmosphérique, à l’articulation du XIX° et du XX° siècle furent tout d’abord les aérostiers, dont certains, victimes de leur curiosité, décédèrent en raison du froid et de la raréfaction de l’air au-delà de 7500m. L’histoire retient aussi L. Teisserenc de Bort et les “ emmêlés ” de ses cerfs-volants avec l’administration du télégraphe, et G. Hermite, qui mit au point les premiers ballons sondes. Avec eux, l’ère de la mesure des paramètres atmosphériques devenait journalière.

Fig. 2 : structure verticale de l’atmosphère terrestre.

La courbe de la température en fonction de l’altitude (Fig. 2) permet de distinguer :

1 -    La troposphère

2 -    La Stratosphère

3 -    La mésosphère

4 -    La thermosphère

1 - La Troposphère

a - Troposphère et phénomènes climatiques

Son épaisseur varie de 8 Km au pôle en hiver (air froid et dense) à 16 km à l’équateur (air chaud et léger); elle contient 75% de la masse de l’atmosphère et quasi 100% de la vapeur d’eau. Tropos veut dire changement; la troposphère est le siège des phénomènes météorologiques. Elle constitue la zone convective de l'atmosphère.

La température au sol est en moyenne de +13°C. En un point donné, elle est liée à l’ensoleillement et à la quantité d'IR réémis par la Terre.

Anaxagore, au ~V° siècle, reprenant les écrits de Thalès de Milet (~VII°), remarquait déjà que l’air chaud s’élève, que les nuages se forment lorsque l’air refroidit. Il admettait ainsi que la température s’abaisse avec l’altitude. On sait que l’air chaud s’élève en premier lieu par décompression adiabatique. La convection continue aussi longtemps que les particules montantes sont plus chaudes que l’air environnant. Puis, lorsque la température a suffisamment baissé, la condensation de la vapeur d’eau commence, et la chaleur latente libérée relance la machine, accélérant ainsi de nouveau l’ascension de l’air.

Au sommet de la stratosphère la température cesse de décroître (tropopause) et se stabilise autour de -50 à -80°C. Le gradient moyen de température est de l’ordre de -6°.Km-1. La tropopause peut être mise en évidence lors du développement de très gros nuages d’orages dont l’ascension vient “ buter ” sur cette couche limite; ces nuages constituent alors une magnifique enclume qui vient s’étaler sous la tropopause.

b - Troposphère, siège de l’effet de serre

Le terme “ serre ” n’a pas été judicieusement choisi, car dans une serre, la paroi de verre joue un rôle primordial en interdisant le transfert de chaleur vers l’extérieur (les IR), mais pas le passage des longueurs d’ondes visibles. La chaleur accumulée dans la serre résulte donc essentiellement du fait que les IR émis par le sol ou les plantes sont réfléchis par le verre, alors que l’insolation directe traverse normalement les parois de la serre. L’atmosphère terrestre, elle, n’a pas de couvercle, et le mécanisme de l’effet de serre est un peu différent.

Le bilan énergétique de l’atmosphère repose sur deux paramètres fondamentaux, sa composition (nous y reviendrons) et la distance du soleil.

En effet, les planètes du système solaire étant en équilibre thermodynamique (leur température moyenne annuelle est “ constante ”), les lois du rayonnement du corps noir, établies à la fin du XIX°, leur sont applicables), comme elles le sont au soleil :

1 -    la loi de Planck : elle exprime le fait que l’intensité du rayonnement émis par le corps en équilibre en fonction de sa longueur d’onde passe par un maximum (fig. 3a cas du Soleil, 3b cas de la Terre);

Cas du Soleil

Fig. 3a1 : Spectre solaire comparé à l’émission d’un corps noir à 5770K (en jaune), T° de la chromosphère

Le spectre réel (courbe noire) montre des creux profonds, lés aux absorptions élémentaires de son atmosphère. Lire MC - Atm - Rayonnement solaire - Bantegnie.htm

 

Fig. 3a2 : à 5770°K, Le Soleil émet principalement dans le visible, 0.4 à 0.7 mm et l’IR

 

Cas de la Terre

Fig. 3b1 : Spectre du corps noir à 256K,  T° d’émission de la Terre

Les longueurs d’onde du visible sont hors du champ d’émission de la Terre qui émet dans les IR; Lire MC - Atm - Emission - Autixier.htm

Fig. 3b2 : à 256°K la Terre n’émet que des IR dans la gamme 3  à 20 mm                        

 

2 -    la loi de Wien : elle exprime le fait que la longueur d’onde maximale émise par le corps noir est inversement proportionnelle à sa température d’émission;          

lmoy = 2900/T,

l exprimé en microns et exprimé en K. Autrement dit, plus un corps est chaud plus la fréquence de sa couleur démission est élevée (Fig. 3a-b, Soleil et Terre ; Fig. 4a, principaux objets cosmiques).

Fig 4a : Relation couleur-température du corps noir, d’après J.Y. Daniel 1991;

Rayonnement à 2K, fossile du Big Bang. Etoiles : Betelgeuse, rouge ; Soleil, Jaune. Cyg X1 Rayonnement  X de la constellation du Cygne, trou noir potentiel.

 

En effet, plus la fréquence d’une radiation est élevée, plus son énergie est importante.

3 -    La loi de Stephan-Boltzman nous dit que pour un corps noir de rayon R, la luminosité L (voir définition Chp. 1A), à la température T est égale à 

L = 4pR2 . s T4    avec

la cte de Stephan s = 5.67 10-8 SI (erg.s-1.cm-2/K-4).

Pour le Soleil, R = 700 000 Km, T°surface= 5770K,

la luminosité Ls = 3.8 1026 w m‑2.

On appelle “ Constante solaire ” le flux solaire Cs reçu par une surface plane située à la distance d du Soleil,

Cs = Ls/(4pd2).

Cette constante solaire n’est d'ailleurs pas strictement constante. Les mesures montrent des variations de l’ordre de 0.1% en relation avec la surface cumulée des taches solaires.

Pour la Terre, située 150 106 Km, Le flux solaire calculé est de 1360 w m-2. Puisque l’on considère les planètes comme des corps noirs sphériques à l’équilibre, l’énergie qu’elles émettent est égale à celle qu’elles reçoivent : pour une planète de rayon Rp, située à la distance d du soleil, la température d’équilibre sera Tp et le bilan s’écrit :

Cs* pRp2 = 4pRp2 s Tp4

(NB. Surface réceptrice = jour = pRp2 ; surface rayonnante = 4pRp2). Le flux solaire reçu par la Terre (par unité de surface) est donc égal à Cs/4 — soit 340 w m-2 en moyenne Cela représente environ 10 000 fois la chaleur dissipée par les enveloppes rocheuses par unité de surface! — et le flux rayonné par la Terre à la température TT , appelé émittance (voir définition Chp. 1A), est de la forme

s TT4

L’atmosphère et la surface terrestre réfléchissent vers l’espace respectivement 87 W.m-2 et 21 W.m-2 =108 W.m-2 soit 31% de l’énergie reçue. Cette fraction de l’énergie renvoyée vers l’extérieur définit l’albédo a de la planète (=0.3) [1] :

1 -     6% du rayonnement incident est réfléchi par les molécules de l’atmosphère. Dans le visible, entre 400 (bleu) et 700nm (rouge), les molécules étant petites devant la longueur d’onde (<0.1l), il s’agit principalement d’une diffusion de Rayleigh, selon laquelle le nuage électronique de la molécule oscille autour de son noyau dans le plan de vibration de la radiation incidente. Le dipôle ainsi créé rayonne, l’intensité de son émission varie selon l’angle entre direction d’émission et onde incidente (Cos2q) et elle est fonction de l’inverse (à la puissance 4 !) de la longueur d’onde de la radiation incidente (1/l4) :

I= I0 * Cte * (1+Cos2Q)/ l4.

Le Bleu est donc beaucoup plus diffusé que le rouge. Plus le regard s’éloigne de l’axe des rayons du Soleil et moins les photons qui viennent frapper la rétine proviennent directement du Soleil. La lumière erçue est alors de plus en plus d’origine diffusée. Loin de l’axe du rayonnement solaire, le ciel apparaît donc bleu. Avec l’altitude et selon cette direction, le nombre des molécules diffractantes diminuant, le ciel apparaît d’un bleu d’autant plus sombre. Lorsque l’œil regarde dans la direction du Soleil, à midi, la quantité d’atmosphère traversée est minimale et la lumière perçue est blanche. A l’inverse, au levant ou au couchant, le rayonnement perçu a traversé une longueur d’atmosphère beaucoup plus grande ; il a donc subi une dispersion maximale qui diminue d’autant la quantité de bleu par rapport au rouge.

2 -     20% du rayonnement reçu est diffusé par les nuages. Les goutelettes d’eau sont de taille très supérieure aux longeurs d’ondes du visible est la diffusion n’est pas de type Rayleigh mais de type Mie. L’enveloppe de la diffusion de Mie est d’autant plus colinéaire de la direction incidente que la particule diffusante est grande (Fig. 4b). Cette diffusion n’est pas fonction de la longueur d’onde reçue, raison pour laquelle les nuages nous apparaissent blanc, ou gris neutre, en fonction de la quantité de lumière qui les traverse.

http://hyperphysics.phy-astr.gsu.edu/hbase/atmos/imgatm/mie.gif

Fig. 4b : enveloppe des diffusions de Rayleigh et de Mie

http://hyperphysics.phy-astr.gsu.edu/hbase/atmos/blusky.html

3 -     4% de la lumière réfléchie vers le cosmos provient du sol. Les meilleurs « réflecteurs » sont les corps blancs ou clairs, la neige et la plupart des sols dépourvus de végétation. L’albedo varie donc avec la latitude (Fig. 4c) et la saison, en particulier en raison de la variation de la surface de la banquise, qui diminue significativement l’albedo moyen du pôle nord par rapport à celui de l’Antarctique (Fig. 4c). En raison de la dissymétrie de la planète L’albédo de la Terre est maximum durant l’hiver de l’hémisphère Nord et minimum durant l’été, il varie entre 0.2 et 0.3. On perçoit ici l’effet rétroactif d’un changement climatique éventuel (variation de la surface réfléchissante des calottes glaciaires) ou de la déforestation.

http://www.climatedata.info/Forcing/Forcing/albedo_files/BIGw01-average-albedo.gif.gif

Fig. 4c : albédo annuel moyen  versus latitude de l’Antarctique (à gauche) à l’Arctique (à droite)

http://www.climatedata.info/Forcing/Forcing/albedo.html

Connaissant l’albédo de la Terre (a), on peut en déduire que la valeur du flux qu’elle reçoit réellement vaut

Cs/4 (1 – a) = 340 *0.7 = 238 w m-2

et le bilan radiatif de la Terre s’écrit schématiquement :

Flux reçu  =   Flux émis

Cs/4 (1 – a) = s.T4

D’où TT= [(238/ s]-4= [(238/ 5.67 ]-4 102 =254.7K

 soit -18.3°C.

A cette T° d’équilibre, la Terre émet essentiellement dans le domaine des IR, en 5 et 50 mm (Fig. 3b)

La différence entre sa température d’équilibre théorique (-18°c) et sa température moyenne (+13°c) impose que la Terre tire de l'énergie d’une autre source. L’énergie interne dissipée par la Terre (Chp. 1) est très insuffisante pour justifier une telle différence, la source d’énergie réside donc nécessairement dans son atmosphère. Il convient toutefois de rester prudent, pour plusieurs raisons :

1 -     Le calcul de la température d’équilibre présenté ici est un modèle largement utilisé, quoique très simplifié. Nous avons raisonné à partir d’un flux que recevrait un disque perpendiculaire au flux, et non une demi-sphère exposée au flux.

2 -     La quantité totale reçue calculée est donc bien satisfaisante, mais ensuite nous calculons une température moyenne comme la racine (quatrième !) de ce flux moyen, alors qu’il serait plus rigoureux de sommer les températures calculées en chaque point de la demi-sphère exposée, en fonction du flux réel reçu par chaque surface unitaire non perpendiculaire au flux sauf sur le plan de l’écliptique.

3 -     Par ailleurs, il n’est pas tenu compte de la rotation terrestre, ni de l’inclinaison de son axe et de l’excentricité de la révolution terrestre. En résumé, notons que cette valeur de -18°C n’est pas exacte mais qu’elle suffit à notre propos.

Nous avons vu que 30% du rayonnement est directement réfléchi par le globe terrestre (albédo). A ce phénomène de diffusion du rayonnement incident s’ajoutent des absorptions dans l’atmosphère (note infrapaginale). Les absorptions de rayonnement sont principalement le fait des molécules qui constituent l’atmosphère. L'absorption du rayonnement provoque la transition d'un atome ou d'une molécule d'un état d'énergie stable vers un état d'énergie plus élevé (excité) sous l'action d'un photon incident d'énergie hn. Pour que l'absorption ait lieu il faut donc que le quantum d'énergie hn corresponde à la différence entre deux niveaux permis par les règles de la mécanique quantique: c'est ce que l'on appelle une raie d'absorption (Fig. 5a). En revenant à son niveau d'énergie initial, soit directement, soit par étapes, la matière émettra à son tour un rayonnement de même énergie.  

Fig. 5a : spectre des raies d'absorption des gaz atmosphériques.

Limites rouges : le domaine des l courtes reçues du Soleil

Limites bleues : le domaine des l longues émises par la terre

Si l’atmosphère est transparente aux longueurs d’ondes incidentes venant du Soleil, il absorbe au contraire fortement les IRs réémis par la Terre. Les principaux absorbants dans cette gamme d‘ondes sont des molécules gazeuses, qui jouent donc un rôle dans l'énergétique de l'atmosphère. Les molécules triatomiques, vapeur d'eau (H2O), dioxyde de carbone (CO2), ozone (O3) ont un spectre d’absorption énergétique beaucoup plus riche que les molécules diatomiques dioxygène (O2) et azote (N2) que l’on peut considérer comme n’étant pas à effet de serre. Il existe toutefois d’autres molécules diatomiques, comme le monoxyde de carbone (CO) ou d’azote (NO) qui elles aussi absorbent le rayonnement Terrestre. La nature multi-élémentaire favorise leur comportement. En effet, le dipôle électrique qu’elles constituent peut comme pour les triatomique entrer en résonnance pour certaines fréquences avec le rayonnement électromagnétique IR. En outre, les molécules poly atomiques (CH4, CFC) et de nombreux aérosols ont un pouvoir absorbant très élevé : on appelle « gaz à effet de serre » (GES) les gaz fortement absorbants.

Le spectre du rayonnement solaire est caractérisé par des longueurs d’ondes courtes, dans la gamme 0.1 à 5 mm couvrant le domaine des UV, du visible et un peu les IR ; l’essentiel du rayonnement est compris en 0.3 et 1.5mm (Fig. 3a, et 5a). On nomme souvent ce rayonnement provenant du Soleil « Downwelling Shortwave Radiation (DSR) Flux ». La figure 5b illustre la répartition de l’énergie reçue sur Terre un jour d’équinoxe à 12h GMT.

 

Fig. 5b : Down-welling Surface Short-wave Radiation Flux

http://landsaf.meteo.pt/algorithms.jsp?seltab=1

Dans ce domaine de longueurs d’onde, il n’y a pas d’autres raies d’absorption de gaz atmosphériques autres que  celles de l’eau, tant dans la basse atmosphère (troposphère) qu’en altitude (fig. 5a). Il s’ensuit donc une absorption minimale du flux solaire, et ces absorptions ne sont pas totales. Dans le domaine 1.5-5mm, le CO2et le méthane sont présents, mais dans un domaine de très faible intensité du flux solaire. Par contre, dans la bande spectrale de l’émission du corps noir terrestre, 5-50mm, le nombre des raies des gaz atmosphériques est beaucoup plus important, et leur capacité d’absorption devient très importante, en particulier dans les couches basses et denses de l’atmosphère (Fig. 5a) où seules trois bandes d’énergies ne sont pas totalement absorbées, ouvrant autant de fenêtres ouvertes vers le cosmos :

1 -    8-9 mm;

2 -    10-14 mm;

3 -    18-30 mm.

Plusieurs faits importants sont à noter:

1 -    L’absorption d’une longueur d’onde λ donnée par un GES donné est fonction de la concentration en ce GES dans l’atmosphère, jusqu’à une concentration limite correspondant à l’absorption totale de cette λ ; au-delà, la largeur de la bande d’absorption s’élargit légèrement mais une augmentation de la concentration n’aura qu’un effet mineur, l’ensemble des photons de cette λ étant déjà absorbés par l’atmosphère. La figure 5c montre que pour CO2 la saturation de la bande d’absorption à 15mm est atteinte vers 200 ppmV. On devrait donc s’attendre à ce que la saturation étant atteinte, un accroissement de la teneur en CO2 dans l’atmosphère soit sans effet de serre supplémentaire.

 

a) CO2 : L’absorption vers 15mm ne croît presque plus au-delà de 200 ppmV dans une atmosphère sèche, et dès quelques ppm en atmosphère humide.

b) H2O : L’absorption dans la bande 8-20 mm varie d’abord très vite dans les basses concentrations en H2O de la colonne atmosphérique (exprimées ici en masse par unité de surface de la colonne) puis moins vite, jusqu’aux fortes teneurs en eau. valeur moyenne à la surface du globe, 20 kg/m2

D’après L’effet de serre atmosphérique : plus subtil qu’on ne le croit !

JL Dufresne & J. Treiner 2011

Fig. 5c : absorption du CO2 et de H2O.

Comme le montrent JL Dufresne & J. Treiner 2011, il faut considérer que l’atmosphère à une épaisseur donnée, et voir « comment le rayonnement correspondant à l’absorptivité totale est-il émis vers l’espace ? » Revenons à la figure 5a. Elle montre qu’en effet, le rayonnement émis par la surface de la Terre (λ>5mm), est totalement absorbé par la basse atmosphère, sauf dans la fenêtre de transparence entre 8 et 13 mm. Les molécules de GES excitées réémettent dans les λ qui leur sont propres, dans toutes les directions. Comme l’expriment les auteurs, « il en est ainsi  de proche en proche en montant en altitude. » Intéressons-nous comme le proposent les auteurs aux radiations émises vers le haut (Fig. 5d1) « Vient un moment où la quantité de gaz absorbant située au-dessus de la couche émettrice considérée devient suffisamment faible pour que le rayonnement qu’elle émet puisse s’échapper vers l’espace…

Représentation schématique du rayonnement émis vers le haut par la surface (altitude 0) et par l’atmosphère pour 4 altitudes. Le somment de l’atmosphère à l’altitude Z. Les formes en triangle schématisent la diminution progressive de l’intensité du rayonnement avec l’altitude, du fait de l’absorption par l’atmosphère, pour un rayonnement émis à la base du triangle. JL Dufresne & J. Treiner 2011

Fig. 5d1 : couche aveugle et altitude d’émission (low GES).

… Ainsi, pour chaque λ, on peut décomposer de façon schématique l’atmosphère en deux couches. Une première, aux basses altitudes, pour laquelle le rayonnement qu’elle émet n’atteint jamais l’espace. Cette couche est dite aveugle, elle ne voit pas l’espace et réciproquement elle n’est pas vue depuis l’espace. La seconde couche est constituée de l’atmosphère au‑dessus de la précédente. Le rayonnement qu’elle émet vers le haut atteint l’espace. C’est cette couche qui est vue depuis l’espace. On peut définir une altitude moyenne, à laquelle le rayonnement qui atteint l’espace a été émis. Cette altitude  est appelée altitude d’émission[1], Ze … » En suivant les auteurs, on admettra que le rayonnement émis par l’atmosphère vers le cosmos l’est depuis cette altitude moyenne de la couche visible, et que « la puissance émise dépend de la température à cette altitude » à la puissance 4 de la température  (s.T4). Dans ces conditions que se produit-il lorsque la quantité de GES augmente ?  La figure 5d2 permet de saisir qualitativement l’impact de cet accroissement

Idem, représentation du rayonnement émis vers le haut avec une concentration plus forte en GES que dans la figure 5d1. JL Dufresne & J. Treiner 2011

Fig. 5d2 : couche aveugle et altitude d’émission (high GES).

Statistiquement, une radiation absorbable l émise vers le haut croisera plus tôt (donc plus bas) la trajectoire d’une molécule de GES. Donc l’épaisseur d’atmosphère à traverser pour une absorption totale de cette l sera plus faible — dans la figure les triangles figurant l’altitude maximum atteinte par une radiation sont donc plus petits que dans la figure 5d2 —  impliquant une diminution de la couche visible depuis le cosmos, donc une élévation de l’altitude moyenne d’émission Ze. Puisque le gradient de température est négatif dans la troposphère, la température à la nouvelle altitude est plus basse que précédemment, et la puissance émise vers le cosmos décroit, rompant l’équilibre du bilan radiatif  au profit de la puissance reçue. « Conséquence : le haut de l’atmosphère se réchauffe, et du fait des mouvements de convection, cet échauffement se propage à toute l’atmosphère, en maintenant constant le gradient vertical de température jusqu’à ce qu’un nouvel équilibre soit atteint »

 

2 -    Dans le domaine de l'émission terrestre (5-50 mm; Fig. 3b et 5a), les fréquences absorbées par H2O (en bleu pâle) le sont à 100%; une augmentation de la teneur en eau de l'atmosphère serait donc sans répercutions sur l'effet de serre pour ces λ. En outre l'atmosphère terrestre est globalement proche de la saturation en H2O. Il n’y a pas grand-chose à redouter d’une augmentation de la teneur en eau. Le problème avec H2O est celui de l’éventuelle fermeture de l’importante fenêtre de transparence dans la bande spectrale 8-13 mm. Rappelons que la figure c à droite montre que dans cette région la saturation n’est pas atteinte brutalement aux basses teneurs, mais que la courbe est régulièrement croissante pour ces l. La figure 5e montre que le doublement de la masse d’eau dans la colonne atmosphérique, de 20 à 40 kg.m-2 fermerait significativement cette fenêtre de transparence.

Dépendance de l’absorption des IRs  en fonction de la concentration en H2O dans une colonne d’atmosphère, exprimée ici en masse par unité de surface de la colonne. Valeur moyenne à la surface du globe, 20 kg/m2JL Dufresne & J. Treiner 2011

Fig. 5e : Absorption par H2O dans la bande IR 8-20 mm.

 

3 -    Le CO2 (en violet) peut par contre absorber encore une part importante du rayonnement IR dans la fenêtre 12-16 mm, dans la troposphère en particulier. Une augmentation de sa teneur dans l'atmosphère se traduit donc automatiquement par un accroissement de l'effet de serre. La concentration en CO2 étant naturellement très basse, l’activité humaine (CO2 d’origine industrielle, de chauffage, transport) modifie significativement sa teneur et provoque nécessairement un accroissement de l’effet de serre. Pour l’essentiel de la communauté scientifique, les effets du CO2 anthropique sont maintenant considérés comme indiscutables, même s’il existe encore ici ou là quelques chercheurs arcboutés sur leurs observations, rebelles face à ce consensus, nous y reviendrons.

4 -    Le CH4 (en vert) peut lui aussi absorber une part importante du rayonnement IR dans la fenêtre 8-10 mm. Le méthane est un produit qui provient naturellement de la décomposition de matières organiques dans des conditions réductrices (c'est le gaz des marais et des terrains humides 1.5 à 3 G.Tonnes/an). Il voit sa concentration augmenter fortement avec l'accroissement des surfaces consacrées à la riziculture (actuellement 2 à 3.5 G.T/an), et aussi (même si ceci peut apparaître plus anecdotique) avec l'augmentation du cheptel ruminant, dont la fermentation entérique est un producteur important de CH4 (1G.T/an!). Son effet ne peut donc que se surajouter à celui du CO2, nous aurons donc à y revenir.

5 -    L’O3 troposphérique (en jaune brun dans la figure 5a, le pic à basse altitude est légèrement décalé vers la droite et n’est pas superposé au tireté brun, …imprécision de la figure origine) pose un problème comparable à celui de l’eau, la bande 10-12mm étant d’ores et déjà presque totalement absorbée. D'origine anthropique elle aussi, l’ozone troposphérique reste limitée aux bassins industriels et aux mégalopoles. Il en résulte une augmentation locale de la température, mais qui restera faible. Son inconvénient majeur n’est donc pas un accroissement important de l’effet de serre il mais réside dans son impact sur la santé humaine, en raison de l’irritation des voies respiratoires qu’elle provoque.

En conclusion, c’est donc une fraction importante de l’énergie émise par le corps noir terrestre qui est ainsi absorbée par l’atmosphère. Cette énergie ne peut être rétrocédée qu’avec retard au cosmos. Il s’ensuit l’instauration d’un équilibre dynamique conduisant à une élévation de la température de –18°C à +13°C : c'est cela que l'on nomme «effet de serre».

Reprenons en détail le schéma de bilan énergétique terrestre de Ramanathan et al. (Fig. 6a).

 

Fig. 6a: L’effet de serre d’après Ramanathan et al

Sur les 345 W.m-2 reçus par la Terre dans les UV, le visible et le proche IR, ce sont finalement 169 W.m-2 seulement qui sont absorbés par la surface du sol :

1 -   Une partie de l’irradiation directe, 68 W.m-2, est absorbée par l’atmosphère dans les nuages et lors de la photodissociation de l’oxygène dans le processus de fabrication de l’ozone ; cette chaleur est restituée à terme par l’atmosphère, dans toutes les directions. De la sorte, on peut admettre qu’une ½ est renvoyée vers le cosmos et l’autre ½ est transmise à la surface du globe (Fig. 6b) ;

 

Fig. 6b: L’effet de serre, représentation simplifiée

2 -   Une partie est réfléchie, 108 W.m-2 (albédo #30%), par l’atmosphère ou par la surface du globe, sans absorption par l’atmosphère transparent pour ces longueurs d’ondes, comme suit:

a)  87 W.m-2 sont renvoyés par l’atmosphère et les nuages ;

b)  21 W.m-2 sont renvoyés par le sol terrestre.

La valeur mesurée du rayonnement émis par la surface terrestre est de 390 W.m-2 (en rouge dans la figure 6a) ; à la température de -18°C ce rayonnement se situe exclusivement dans les IR. D’après ces valeurs tirées de Ramanathan et al., la surface du globe dégage donc un excédent de chaleur par rapport à ce qu’elle reçoit directement du Soleil et indirectement de l’atmosphère, excès  que l’on peut estimer à 390 -169 -(68/2) = 187 W.m-2. D’où provient-il ?

Considérons que les 169 W.m-2 transmis par le Soleil à la surface du globe y sont totalement convertis en ondes longues, infrarouges réémis vers notre atmosphère. Selon Ramanathan et al.,  20 W.m-2 sont perdus directement dans le cosmos et le reste, 149 W.m-2, est absorbé par l’atmosphère. En effet, si celui-ci est largement transparent aux UV et au visible incidents, il ne l’est que faiblement aux IR[2].

Comme dans le cas des 68 W.m-2 cédés par le rayonnement Solaire incident, cet excédent de 149 W m-2 rétrocédé à l’atmosphère sera perdu à terme par celle-ci, pour ½ vers le cosmos, et pour ½ renvoyé vers la surface ; cette dernière fraction sera à son tour réinjectée vers l’atmosphère — fraction qui ne peut être mesurée directement mais que l’on peut calculer et que l’on nomme Downwelling Longwave Radiation (DLR[3], Fig. 6c) Flux — où elle subira le même sort, rendant ¼ au cosmos et ¼ au globe, puis ⅛, etc. (voir représentation simplifiée Fig. 6b) ;

 

Fig. 6c: Downwelling Longwave Radiation (DLR) Flux

http://toyo.mediasfrance.org/?GEOLAND-Project,100

l’ensemble  tend vers un excédent total à l’équilibre de 149 W.m-2 venant de la surface terrestre, plus 34 W.m-2 issus de la fraction incidente cédée à l’atmosphère, soit 183 W.m-2 , un total voisin de l’excès de 187 W.m-2 que nous avons estimé à partir de Ramanathan et al. Le flux thermique d’ondes longues (DLR) provient essentiellement de la couche riche en vapeur d’eau, donc proche de la surface, avec environ un tiers émis par la tranche des 10 premiers mètres et de 80% par la tranche 0- 500 mètres.

Un simple bilan entre la chaleur incidente entrant dans le système Terre + atmosphère (= 345 -108 = 237 W.m-2) et la chaleur émise vers le cosmos par le même système ( = 149 +68 +20 = 237  nous montre que ce schéma de fonctionnement très approximatif est néanmoins suffisant.

 L’excédent permanent de 187  W m-2 à l’équilibre que nous explicitons ainsi ne correspond qu’à la fraction rayonnement intervenant dans le bilan terrestre. Selon Ramanathan et al., il faut ajouter à cette fraction les contributions liées aux transferts de chaleur latente et de chaleur sensible traversant l’interface entre le globe (continents-océans) et l’atmosphère :

1 -   90 W m-2        de flux de chaleur latente ; pour les auteurs, les changements d’état de l’eau dans le champ de gravité jouent un rôle prépondérant dans le transfert de chaleur entre la surface terrestre et l’atmosphère ; L’évaporation de l’eau contenue dans le sol permet de transférer un excédent de chaleur de la surface terrestre (géosphère ou hydrosphère) vers l’atmosphère, et inversement, la condensation ou la congélation (plus la gravité ici aussi), sont le moteur du transfert de chaleur de l’atmosphère vers la surface. Les flux de chaleur latente sont particulièrement forts au-dessus des courants marins chauds comme le Gulf Stream et au-dessus des forêts tropicales humides, couplant les cycles d’énergie et d’eau.

2 -   16 W m-2 de chaleur sensible ; pour les auteurs, les échanges de chaleur sans changement de phase entre la surface du globe et l’atmosphère au sein du système Terre est donc significatif ; les flux de chaleur sensible sont importants au-dessus de terres arides, où l’eau (exclusivement vapeur) transfère en convectant de la chaleur à travers l’interface, aidant ainsi à réguler la température des deux réservoirs.

On peut donc évaluer à 187 +90 +16 = 293 W m-2 la chaleur qui est cédée temporairement à l'atmosphère. L’équilibre dynamique ainsi obtenu correspond à ce que nous nommons effet de serre.

c – Réchauffement climatique ou « global warming ».

Toutes les fenêtres d’énergie ouvertes vers le cosmos n’étant pas entièrement saturées par les GES, on comprend que les climatologues recherchent parmi ceux-là les responsables du changement climatique observé de nos jours, en corrélation avec les variations de leurs concentrations mesurées dans l’atmosphère.

La démarche écologique apparue au sein des pays industrialisés durant les dernières décennies et l’ouverture au monde de l’ensemble des populations, en particulier grâce au racourcissement des tremps de transport, sont concomitantes. En effet les antipodes longtemps distants de plusieurs mois de navigation sont maintenant à peine éloignés de 24h de vol. Ce lointain inaccessible, juqu’alors présent seulement dans nos livres, est devenu en quelques années une partie de notre réalité quotidienne. Parallèlement, l’immensité du monde est devenue jardin et le cultivateur cueilleur chasseur pêcheur que nous sommes encore a réalisé que la ressource n’est pas inépuisable.

 L’impact longtemps ignoré de l’industrialisation de nos activités, source de notre bien-être, nous est devenu évident, questionnant en retour l’immense bond technologique et scientifique opéré durant les XIX° et XX° siècle. Ainsi donc Science et Technique qui mettaient notre planète au creux de notre main étaient en quelque sorte irrespectueuses de notre devenir ? A refuser de nous considérer comme partie intégrante de la nature, nous n’avons pas voulu voir l’effet, si positif pour nous, du développement de notre mode de vie sur notre planète. Et puisqu’il fut « visiblement positif » pour les pays industrialisés, comment ne servirait-il pas de modèle à tous ceux qui n’ont bénéficié à ce jour que du loisir de nous observer ? La mondialisation des échanges et des matières, le déplacement des usines du monde depuis quelques décennies, sont en train de nous montrer la nécessité d’une gestion coordonnée des besoins, des ressources, des produits et des déchets. L’eau en est l’exemple type qui, parce que vitale, nécessitera la mise en œuvre d’un droit d’accès pour tous. Parce qu’universelle (climatologie à l’échelle des continents, bassins versants transfrontières etc.) elle exigera une gestion commune et une protection partagée. La prise de conscience de la finitude de notre planète et de ses ressources est douloureuse, nos habitudes de fragmenter l’information pour aborder les problèmes par spécialités sont très ancrées, notre propension à dénoncer le bouc émissaire est intacte, au point que même si l’analyse systémique des milieux permet d’entrevoir différents modèles prometteurs de « développement soutenable », l’évidente causalité humaine des dégats engendrés sur les espaces dits « naturels » peut engendrer des peurs irrationnelles que nous chercherons ici à éviter.

Ainsi, sur la très médiatique question du changement climatique, la causalité humaine est maintenant très généralement considérée comme entendue. Malgré la complexité des processus mis en œuvre et une méconaissance encore très importante de notre atmosphère, le coupable est, pour un grand nombre de climatologues, le relargage inconsidéré des GES.

Mais la géologie, qui nous renseigne sur le passé de la Terre, nous informe que le climat terrestre à toujours varié et donc qu’il faut se garder de penser qu’il aurait existé un point climatique d’équilibre dont nous serions en train de nous éloigner ! Elle nous renseigne sur les variations majeures subies par notre planète (Chp 5.F) et enregistre bien les phénomènes périodiques jusqu’à une périodicité pluricentenale. Pour les oscillations plus courtes, la géologie devient déficiente, sauf exception telles que l’enregistrement annuel des variations sédimentaires dans les varves[4].

La climatologie prend alors le relais, mais n’oublions pas qu’avant les observations satellitaires (environ 30 ans en matière de climatologie) notre méconnaissance des espaces océaniques était quasi-totale. N’oublions pas non plus que nombre de phénomènes océano-atmosphériques présentent des périodes longues, souvent pluridécénales, voire pluricentenales. La mesure rigoureuse des nombreux paramètres mis en œuvre, à l’échelle des processus mis en jeu (celle de la planète, via les satellites), couvre donc seulement quelques périodes des cycles les plus rapides, et pour beaucoup seulement une petite partie des cycles pluridécennaux. En outre, nombre de phénomènes encore mal compris ne sont probablement pas pris en compte comme il conviendrait. Il en est ainsi par exemple de la formation des nuages et du rôle joué par le rayonnement cosmique dans la condensation, nous y reviendrons.

En outre l’acquisition même des données est déjà en soi bien souvent une gageure. Prenons en exemple la mesure de la température sur la Terre. Avec l’arrivée de la mesure satellitaire, la couverture du globe en nombre de points de mesure est devenue nettement plus homogène. Pour autant, les valeurs sont obtenues à partir de satellites différents, qui prennent en compte des corrections variées. Cela conduit à des sets de données tels ceux sur l’anomalie de température (établie par rapport à une moyenne antérieure), dont la valeur pour la dernière décennie varie de 0.2°C à 0.55°C  (cf. Chp.5.B.c.4). Certes, nos computeurs de plus en plus efficaces sont capables de reconstruire le passé récent que nous avons échantillonné, et c’est bien le moins que l’on peut attendre de modèles créés à partir de ce dernier. Mais qu’en est-il de leur valeur prédictive, puisque leur validation ne devrait être effective en principe qu’au-delà de plusieurs cycles observés et correctement modélisés ? Dès lors faut-il sans doute rester prudent et considérer que même si toute une communauté scientifique établit à partir des mêmes données des modèles cohérents entre eux, il peut être prématuré de parler de consensus scientifique ? A ce titre , on rappellera que nombre d’articles scientifiques, issus de chercheurs qualifiés de climato-sceptiques (plus de 30000 dans le monde se qualifient ainsi eux-mêmes) sont encore publiés dans les revues à comité de relecture, garantes de leur contenu. De plus une lecture attentive du dernier rapport scientifique du GIEC, loin du foin médiatique que provoque la réunion de la 21° COP en France en décembre 2015, permet de mieux en cerner les principales incertitudes, qu’il reprend d’ailleurs lui-même dans ses dernières pages pp 114-115, comme suit :

RT.6 Principales incertitudes

Cette dernière section du Résumé technique donne un bref aperçu des principales incertitudes concernant la compréhension du système climatique et la capacité de prévoir des changements découlant de l’action de l’homme. Cet aperçu n’est pas exhaustif et ne présente pas en détail la base des conclusions déduites. On trouve celle-ci dans le corps du Résumé technique et dans les chapitres associés indiqués entre accolades.

RT.6.1 Principales incertitudes concernant l’observation de l’évolution du système climatique

• On n’accorde qu’un degré de confiance moyen à faible au rythme d’évolution du réchauffement de la troposphère et de sa structure verticale. Les évaluations du rythme de réchauffement de la troposphère englobent les évaluations du rythme d’élévation de la température en surface. On accorde un faible degré de confiance au rythme et à la structure verticale du refroidissement de la stratosphère. {2.4.4}

• On accorde un faible degré de confiance à l’évolution des précipitations terrestres à l’échelle du globe avant 1951 et un degré de confiance moyen à leur évolution par la suite, en raison du caractère incomplet des données disponibles. {2.5.1}

• Les observations portant sur la variabilité et les tendances des nuages sur le plan mondial se prêtent à de nombreuses interprétations, d’où le faible degré de confiance qui leur est associé. {2.5.6}

• On accorde un faible degré de confiance à la tendance mondiale à la sécheresse ou à l’absence de précipitations observée, en raison de l’absence d’observations directes, d’incertitudes et de choix méthodologiques et d’incohérences géographiques des tendances. {2.6.2}

• On peut dire avec un faible degré de confiance que toute évolution à long terme (centennale) signalée concernant les caractéristiques des cyclones tropicaux est robuste, si l’on tient compte de l’évolution passée de la capacité d’observation. {2.6.3}

• Il est impossible actuellement de tirer des conclusions solides quant à l’évolution à long terme de la circulation atmosphérique à grande échelle en raison de la grande variabilité des échelles interannuelle à décennale et des différences qui existent entre les jeux de données. {2.7}

• On observe des variations entre les évaluations mondiales des températures sous la surface des océans selon le moment et la période, ce qui laisse penser que la variabilité d’échelle inférieure à la décennie des températures et du contenu thermique de la couche supérieure des océans (de 0 à 700 m) est toujours mal caractérisée dans les relevés historiques. {3.2}

• Au-dessous d’une profondeur de 700 m, l’échantillonnage dans l’espace et dans le temps est trop fragmentaire pour que l’on puisse évaluer, sur le plan mondial, la température et le contenu thermique annuels avant 2005. {3.2.4}

• Au-dessous d’une profondeur de 2 000 m, la couverture en matière d’observations océaniques reste limitée, ce qui gêne non seulement la production d’évaluations mondiales plus précises et fiables de l’évolution du contenu thermique et de la teneur en carbone des océans, mais également la quantification de l’apport du réchauffement des couches profondes des océans à l’élévation du niveau de la mer. {3.2, 3.7 et 3.8; encadré 3.1}

• Le nombre de séries chronologiques d’observations continues permettant de mesurer l’importance des caractéristiques de la circulation océanique liées au climat (comme la circulation méridienne océanique de retournement) est limité et les séries chronologiques existantes sont toujours trop courtes pour que l’on puisse évaluer les tendances décennales et à des échéances plus longues. {3.6}

• Les données disponibles pour l’Antarctique ne permettent pas d’évaluer l’évolution de nombreuses caractéristiques des glaces de mer (épaisseur, volume, etc.). {4.2.3}

• Sur le plan mondial, la perte de masse due à la fonte des fronts de vêlage et au détachement d’icebergs n’a pas encore fait l’objet d’une évaluation exhaustive. C’est dans l’Antarctique que l’incertitude quant à la perte de masse des glaciers est la plus élevée et l’observation des interactions glace-océan aux alentours des deux inlandsis reste insuffisante. {4.3.3 et 4.4}

RT.6.2 Principales incertitudes concernant les causes du changement climatique

• Les incertitudes quant aux interactions aérosols-nuages et au forçage radiatif associé restent importantes. Il en résulte que les incertitudes liées au forçage dû aux aérosols sont celles qui contribuent le plus à l’incertitude globale quant au forçage anthropique net, bien que certains des processus atmosphériques en jeu soient mieux compris et que l’on dispose d’une surveillance mondiale par satellite. {2.2, 7.3 à 7.5 et 8.5}

• Il est probable que la rétroaction des nuages est positive, mais sa quantification reste difficile. {7.2}

• Les reconstructions paléoclimatiques et les modèles du système Terre indiquent l’existence d’une rétroaction positive entre le climat et le cycle du carbone, mais on accorde un faible degré de confiance à l’importance de cette rétroaction, en particulier pour les terres émergées. {6.4}

RT.6.3 Principales incertitudes concernant la compréhension du système climatique et son évolution récente

• La simulation des nuages par des modèles de circulation générale couplés atmosphère-océan s’est légèrement améliorée depuis le quatrième Rapport d’évaluation, mais elle n’en demeure pas moins problématique. {7.2, 9.2.1, 9.4.1 et 9.7.2}

• Les incertitudes quant à l’observation des variables climatologiques autres que la température, les incertitudes quant au forçage dû notamment aux aérosols et la compréhension limitée des processus en jeu continuent de gêner l’attribution causale des changements pour de nombreux aspects du système climatique. {10.1, 10.3 et 10.7}

• L’évolution et la variabilité interne du cycle de l’eau sont toujours mal modélisées, ce qui limite la confiance qu’on peut accorder à l’évaluation de leur attribution. En outre, les incertitudes en matière d’observation et l’effet important de la variabilité interne sur les précipitations observées interdisent une meilleure évaluation des causes de l’évolution des précipitations. {2.5.1, 2.5.4 et 10.3.2}

• Les incertitudes des modélisations dues à la résolution des modèles et à l’intégration des processus pertinents prennent de l’importance à l’échelle régionale et les effets de la variabilité interne deviennent plus sensibles. Ainsi, l’attribution des changements observés à des forçages externes d’échelle régionale continue à poser des problèmes. {2.4.1 et 10.3.1}

• La capacité à simuler des variations de fréquence et d’intensité des phénomènes extrêmes est limitée par la capacité des modèles à simuler l’évolution moyenne des principales caractéristiques de façon fiable. {10.6.1}

• Pour certains aspects du système climatique (évolution de la sécheresse, évolution de l’activité des cyclones tropicaux, réchauffement de l’Antarctique, étendue des glaces de mer en Antarctique, bilan de masse de l’Antarctique, etc.), on accorde un faible degré de confiance à l’influence de l’homme en raison d’incertitudes en matière de modélisation et du faible degré de cohérence entre les études scientifiques. {10.3.1, 10.5.2 et 10.6.1}

RT.6.4 Principales incertitudes concernant les projections mondiales et régionales relatives au changement climatique

• D’après les résultats des modèles, on accorde un degré de confiance limité à la prévisibilité des températures en moyenne annuelle et décennale, tant pour la moyenne mondiale que pour certaines zones géographiques. Les résultats multi-modèles concernant les précipitations indiquent une prévisibilité généralement faible. Les projections à court terme concernant le climat sont également limitées par l’incertitude des projections quant au forçage naturel. {11.1, 11.2, 11.3.1 et 11.3.6; encadré 11.1}

• On accorde un degré de confiance moyen aux projections à court terme concernant le déplacement vers le nord de la trajectoire des tempêtes et des vents d’ouest dans l’hémisphère Nord. {11.3.2}

• On accorde généralement un faible degré de confiance aux projections à l’échelle du bassin des tendances significatives concernant la fréquence et l’intensité des cyclones tropicaux au XXIe siècle. {11.3.2 et 14.6.1}

• Les projections quant à l’évolution de l’humidité des sols et au ruissellement ne sont pas robustes dans de nombreuses régions. {11.3.2 et 12.4.5}

• Divers phénomènes ou composantes du système climatique risquent de subir des modifications brusques ou non linéaires, mais on accorde un faible degré de confiance à la probabilité d’occurrence de nombre d’entre eux au XXIe siècle, qui fait l’objet d’un faible consensus. {12.5.5}

• On accorde un faible degré de confiance à l’ampleur des pertes de carbone dues aux émissions de CO2 et de CH4 dans l’atmosphère du fait du dégel du pergélisol. On accorde un faible degré de confiance aux projections concernant les futures émissions de CH4 issues de sources naturelles en raison de l’évolution des zones humides et ru rejet d’hydrates de gaz par les fonds marins. {6.4.3 et 6.4.7}

• On accorde un degré de confiance moyen aux projections des modèles de la dynamique des inlandsis quant à l’élévation du niveau de la mer au XXIe siècle et un faible degré de confiance à leurs projections au-delà de 2100. {13.3.3}

• On accorde un faible degré de confiance aux projections des modèles semi-empiriques quant à l’élévation du niveau moyen de la mer à l’échelle du globe et la communauté scientifique n’est arrivée à aucun consensus en ce qui concerne leur fiabilité. {13.5.2 et 13.5.3}

• On accorde un faible niveau de confiance aux projections concernant de nombreux aspects des phénomènes climatiques qui influent sur l’évolution du climat régional et notamment sur l’évolution de l’amplitude et de la configuration spatiale des modes de variabilité du climat. {9.5.3 et 14.2 à 14.7}

 Si à tous ces bémols introduits par le GIEC dans ses conclusions, on ajoute qu’en science les faits sont toujours opposables aux théories – un seul fait, observé en un seul lieu par un seul scientifique, peut suffire à mettre à bas une théorie, s’il s’avère être incontournable, correctement observé et interprété – le lecteur comprendra qu’un retour sur les faits me soit apparu nécessaire.

Force est donc de reposer ici cette question. Comment le climat a-t-il évolué ? Cette évolution est-elle synchrone de l’industrialisation (depuis1850) ? L’évolution des marqueurs du climat est-elle conforme à celle des GES, le CO2 en particulier, mais aussi les autres gaz dont l’eau (de loin la plus abondante) et ceux, beaucoup moins abondants mais dont le rôle peut aussi être primordial en raison de leur fort pouvoir de réchauffement (tableau 2).

Tableau 2 : Potentiel de réchauffement planétaire (PRP) et durée de vie dans l'atmosphère des GES.

             GES                          Formule               PRP              Durée de vie

                                                                                                      dans l'atmosphère

Dioxyde de carbone

CO2

1

Variable 50-200

Vapeur d’eau

H2O

8

1 semaine

Méthane

CH4

21

12 ± 3

Oxyde nitreux

N2O

310

120

Hydro fluorocarbures (HFC)

HFC-23

CHF3

11 700

264

HFC-32

CH2F2

650

6

HFC-41

CH3F

150

4

HFC-43-10mee

C5H2F10

1 300

17

HFC-125

C2HF5

2 800

33

HFC-134

C2H2F4

1 000

11

HFC-134a

C2H2F4

1 300

15

HFC-143

C2H3F3

300

2

HFC-143a

C2H3F3

3 800

4

HFC-152a

C2H4F2

140

48

HFC-227ea

C3HF7

2 900

37

HFC-236fa

C3H2F6

6 300

209

HFC-245ca

C3H3F5

560

7

Hydrocarbures perfluorés (HPF)

Perfluorométhane

CF4

6 500

50 000

Perfluoroéthane

C2F6

9 200

10 000

Perfluoropropane

C3F8

7 000

2 600

Perfluorobutane

C4F10

7 000

2 600

Perfluorocyclobutane

c-C4F8

8 700

3 200

Perfluoropentane

C5F12

7 500

4 100

Perfluorohexane

C6F14

7 400

3 200

http://www.ec.gc.ca/pdb/ghg/inventory_report/2003_report/c1_f.cfm

http://www.riaed.net/spip.php?article448

Rappelons la concentration en vapeur d’eau est de 5400 ppmV. Cette valeur moyenne n’a pas grande signification car, nous l’avons souligné, cette concentration varie beaucoup d’un point à un autre. Celle du CO2 atteint maintenant 380 ppmv. En termes de potentiel de réchauffement planétaire (tableau 2) le CO2 représente donc environ 1% de celui de la vapeur d’eau. Celui du CH4, présent en moyenne à 1.8 ppmv dans notre atmosphère en représente environ 0.1%, et celui de N2O (0.32 ppmv) environ 0.2%. L’effet de serre responsable de la température moyenne terrestre de 13°C calculée précédemment (Chp 5.B.1.b) trouve donc bien son origine, très majoritairement, dans la vapeur d’eau atmosphérique.

Le fait que la covariation de la température moyenne avec la concentration en CO2 soit globalement évidente est considéré de nos jours comme la preuve que le CO2 anthropique est la cause principale de l’augmentation de la température terrestre. Les paléoclimatologues ont montré depuis environ 15 ans que des évolutions climatiques majeures se sont produites bien avant l'ère industrielle ; les courbes d’évolution (e.g. J.R. Petit et al. 1999, Fig. 7a1) sont caractéristiques.

les mesures ont été effectuées dans une carotte de glace de l'antarctique (Vostok).

http://www.grida.no/publications/vg/climate/page/3057.aspx

Fig. 7a1 : évolution de la teneur en CO2 et de la Température de l'air depuis 400 000 ans;

 

Le climat terrestre, enregistré par la composition des glaces de l’inlandsis (rapport 18O/16O retranscrit en évolution des températures) et celle des bulles d’air piégées (concentration en CO2), apparaît cyclique à l’échelle de la centaine de milliers d’années (cf. § F4b, ce chapitre). On observera aisément dans la figure 7 la covariation de la température et le CO2, elle est remarquable à cette échelle, comme le montre la superposition de la courbe du CO2 (rouge) sur celle des températures (en bleu). Lorsque l’on entre dans un interglaciaire, la remontée de la température et l’augmentation du CO2 atmosphérique  sont très clairement corrélées. Par contre les chutes de la température du début des périodes froides sont beaucoup plus rapides que les diminutions de la concentration en CO2. Le retard  à la baisse du CO2, qui apparaît être d’au moins 10000 à 20000 ans, contraste avec la quasi simultanéité des deux phénomènes lors des réchauffements. Toutefois, et ce point est essentiel, ces covariations lors du réchauffement sont elles aussi non synchrones. L’augmentation de la température précède l’augmentation de teneur en CO2 ; le décalage est à peu près constant, de quelques centaines d’années (moins de 1000 ans ; Nicolas Caillon et al 2003). Ce phénomène n’est pas observable à l’échelle de la figure 7a1). Lors de ces paléovariations, la teneur en CO2 de l’atmosphère a donc été le corollaire et non la cause de l’augmentation de la température (Fig. 7a2).

http://joannenova.com.au/globalwarming/graphs/vostok-ice-core-250000%20med.jpg

Fig. 7a2 : On observe un décalage de 8 siècles environ entre augmentation de température et enrichissement de l’air en CO2

Mais cela ne signifie pas que l’inverse soit impossible, c’est ce qui se passerait actuellement[5]. Le même diachronisme température-teneur existe aussi pour le méthane (CH4) dans les glaces. L’augmentation en CH4 de l’atmosphère avec le réchauffement à la fin des périodes froides est attribuée à la fonte du permafrost. Lors des épisodes de refroidissement et de gel du sous-sol, le stockage cryosphérique du dioxyde de carbone et du méthane serait un processus beaucoup plus progressif.

Les différences essentielles qui accompagnent l’évolution de l’atmosphère actuelle par rapport à celle de l’atmosphère ancienne résident donc d’abord i) dans le fait que l’augmentation actuelle de la température est considérée comme induite par celle de la concentration en GES et ii) dans le fait que les deux phénomènes sont quasi synchrones à l’échelle de l’activité humaine.

Néanmoins les climatologues Norvégiens O. Humlum, K. Stordahl et J.E. Solheim ont montré en 2013 dans la revue Global and planetary change que, comme les carottes glaciaires mais à l’échelle de l’année, les variations de la teneur en CO2 de l’atmosphère sont en retard sur les variations des  températures de la planète. Dans cette étude, parallèlement aux séries de valeurs sur le CO2 atmosphérique et les températures globales, les auteurs ont utilisé différentes séries de données. Concernant les températures, ils utilisent 3 séries de données sur la température de l'air à la surface de la Terre, HadCRUT3, GISS et NCDC; la série UAH des températures de la tranche atmosphérique basse troposphère ; la série HadSST2 relatives aux températures de surfaces des océans. Ils utilisent aussi les données sur la concentration en CO2 de la couche de sub-surface (« mixed layer ») moyenné à l'échelle du globe et les données du CDIAC relatives aux émissions de CO2 anthropique. Enfin, pour évaluer le rôle potentiel des  éruptions volcaniques, ils ont aussi utilisé les données GWP. A l’exception des données CDIAC relatives aux émissions de CO2 anthropique, toutes les séries de données utilisées ici montrent des cycles annuels, comparables à ceux de la série bien connue des teneurs en CO2 de l’atmosphère du Mona Loa (Fig. 7b).

Fig. 7b : évolution de la teneur en CO2 de l’air du Mona Loa de 2009 à 2013.

http://www.esrl.noaa.gov/gmd/ccgg/trends/

La conclusion essentielle des auteurs (Fig. 7c) est qu’ils observent bien une corrélation entre les séries de données des températures et les données sur les teneur en CO2, mais que cette corrélation est maximale lorsque l’on fait correspondre aux températures les taux de CO2 avec un retard, de  11 à 12 mois par rapport à la température globale de la surface des océans, et de 9 à 10 mois par rapport à la température de l'air en surface du globe ou de la tranche basse troposphère. Ils notent enfin dans leur abstract que si la corrélation entre les variations des températures océaniques et celles du CO2 atmosphérique est forte, elle ne suffit pas  pour expliquer l’ensemble des variations observées. Ils soulignent par ailleurs qu’ils n’obtiennent pas de corrélation significative entre les séries de températures et la série de données relatives au CO2 anthropique. Il semble donc exister, à cette échelle de temps aussi, un diachronisme entre variation de température en variation de la teneur en CO2 suggérant que les variations de CO2 dans l’atmosphère sont pilotées par les variations de température. Dès lors, la question de l’impact des activités humaines pourrait-elle sembler résolue ?

 

Fig. 7c : évolution décalée de la teneur en CO2 de l’air et des températures de l’air.

En vert, variation annuelle (par exemple janvier 2000 moins janvier 1999) de la concentration globale de CO2 dans l'atmosphère (données NOAA) ;

en bleu , même variation annuelle de la température globale de surface de la mer (données HADSST2) ;

en rouge même variation annuelle de la température de l'air à la surface du globe (données HadCRUT3).

La figure du haut montre les valeurs mensuelles non filtrées.

La figure du bas montre valeurs filtrées (DIFF12 étant, pour chaque série de données, la différence entre la moyenne des 12 derniers mois et la moyenne des 12 mois précédents).

La réponse n’est pas si simple, comme en témoigne la coévolution de l’augmentation du CO2 dans l’atmosphère et la diminution du d13C dans la figure 7d-1.

 

Fig. 7d-1 : covariation du taux de CO2 (orange) avec d13C (bleu)  de 1980 à 2012.

Valeurs du CO2 aux dates extrêmes 15/01/1980 et 15/01/2012,  338 et 393 ppmV,  calées sur les valeurs du d13C Keeling et al.

http://scrippsco2.ucsd.edu/data/flask_co2_and_isotopic/monthly_iso/monthly_mlo_c13.csv

La valeur du d13C de l’atmosphère — écart entre le rapport isotopique mesuré du Carbone 13C/12C et la valeur choisie en référence[2]  — dépend de l’équilibre dynamique autour duquel évolue la composition de l’atmosphère. Cet équilibre dépend d’une part de la nature et de l’abondance des émetteurs de carbone vers l’atmosphère, et d’autre part de la nature et de l’activité des puits de carbone, qui soustraient du carbone de l’atmosphère vers d’autres réservoirs récepteurs.

Réservoirs émetteurs et réservoirs récepteurs sont souvent les mêmes, mais à des époques différentes. Ainsi, la végétation qui grandit stocke du carbone via la photosynthèse, alors que cette même végétation enrichit l’atmosphère en carbone lors d’un incendie. De même, dans le transfert océan-atmosphère du CO2, le fait que la température déplace l’équilibre entre les concentrations en CO2 de l’eau et de l’air qui la surmonte implique qu’un océan qui refroidit est capable d’absorber du CO2 dissout en provenance de l’atmosphère, alors que lorsqu’il se réchauffe, il doit relarguer une partie de son CO2 dissout vers l’atmosphère. De plus, chacun des réservoirs évoqués ici, quel qu’il soit, sera capable d’échanger du carbone avec un autre réservoir, avec des proportions des isotopes 13C et 12C, spécifique de cet échange. En effet, le mode de sélection des isotopes d’un élément donné dépend de la réaction qui conduit au transfert d’un réservoir vers un autre. Par exemple, la végétation qui absorbe de CO2 de l’atmosphère pour effectuer la photosynthèse privilégie plus le stockage du 12C que celui du 13C. Mais il existe différents types de plantes, dont le fonctionnement diffère.

Chez les plantes en C3[3], l’ouverture variable des stomates en fonction de l’humidité joue un rôle essentiel dans le fractionnement du 13C. Il est fort si les stomates sont fermés : le d13C est alors de l’ordre de ‑12.5. Il est beaucoup plus faible lorsque les stomates de la plante sont ouverts (pas de manque d’eau) et le d13C descend au-delà de -35 ‰. Au lieu d’une ouverture variable des stomates pour s’adapter à un déficit hydrique important, nombre de plantes des pays secs et chaud (savane, prairie inter-tropicale) utilisent un cycle passant par la synthèse d’acide oxalo-acétique, composé à 4 C : on parle de plante en C4. Chez ces dernières, le d13C est homogène et de l’ordre de ‑15‰. Cet exemple illustre bien comment chaque réservoir de carbone va posséder une signature isotopique particulière. Ainsi, la figure 7d-2 tirée de la thèse de S. Bernard 2004 montre que le méthane CH4 provenant de matériaux tels que la biomasse utilisée comme combustible (la forêt) ou les hydrocarbures fossiles (gaz et pétrole de nos voitures) présentent une valeur de d13C élevée (négative mais « proche » de la valeur zéro de la PDB) alors que le CH4 provenant de rizières ou de marais présente une valeur nettement plus faible (donc plus négative). La constitution en carbone de l’atmosphère est donc dépendante de l’ensemble des sources qui y contribuent. On observe dans la figure 7d-2 que la valeur moyenne estimée du d13C des contributeurs de méthane à l’atmosphère terrestre est plus basse que la valeur moyenne estimée de l’atmosphère.

Fig. 7d-2 : signature isotopique des sources de CH4 Thèse S. Bernard

Ce biais (flèche verte) résulte du fait que la signature isotopique des puits de méthane est plus basse que la moyenne des émetteurs, privilégiant ainsi la soustraction de 12C de l’atmosphère par rapport au 13C. Les séries de mesure sur les bulles de glaces conduisent à une reconstruction des valeurs atmosphériques depuis 1850, qui montrent (Fig. 7d-3) que la diminution régulière du δ13C (pente -0.0045‰ /an) depuis l’époque pré-industrielle jusque vers 1960, s’est brusquement accéléré et conserve depuis cette nouvelle pente  (‑0.02‰), jusqu’en 2000 d’après la figure et 2012 d’après la figure 7d-1.

Fig. 7d-3 : covariation du taux de CO2 (pâle) avec d13C (foncé) de 1850 à 2000.

Extrait de Tagliabue et Bopp, 2008, du Laboratoire d’océanographie et du climat. Les Segments rouges ajoutés ont une de pente -0.0045‰ /an jusqu’en 1960 et -0.02‰ de 1965 à 2000

Ainsi éclairée la coévolution de l’augmentation de la teneur en carbone atmosphérique avec l’abaissement du rapport d13C confirme que le phénomène est ancien et qu’une partie du carbone atmosphérique est bien d’origine humaine, via l’utilisation des énergies fossiles et la combustion de la biomasse. Le rapport 2007 du GIEC faisait déjà état d’une contribution de l’ordre de 5% au CO2 atmosphérique. Faut-il y voir la causalité des variations récentes du climat et conclure, à l’inverse de l’observation du diachronisme avec les variations de température, que c’est le CO2 qui provoque le réchauffement climatique observé au XX°siècle et non l’inverse ?

Le débat est complexe et d’autant plus difficile que l’amplitude des variations historiques du CO2 est, elle aussi, souvent mal connue par nos contemporains. En se basant sur les mesures effectuées dans les glaces de l’Antarctique et du Groenland, on dit souvent que les valeurs maximales « naturelles » de CO2 n’avaient jamais dépassé 300-320 ppmv (Fig. 7a et 8b), valeur que nous avons atteinte en 1900 sur la courbe de la figure 12d (p. 115) et que nous avons largement dépassées depuis. Aussi, la concentration actuelle en CO2 dans l’atmosphère de 370-380 ppmv a-t-elle été souvent considérée comme le témoin irréfutable de l’impact de l’activité humaine. La concomitance avec l’ère industrielle de cette ultime et brutale variation (# 200 ppm) est indubitable (Fig. 8a1)

Fig. 8a1 : variation de la teneur en CO2 pour les 20 000 ans BP

d’après le rapport du GIEC 2007, données Antarctic (violet) et actuelles (vert puis rouge) ; report des limites ci-dessous (vert)

Dire que cette valeur n’a jamais été dépassée mérite néanmoins d’être nuancé :

1 -   Concernant la période industrielle, nombre de voix discordantes se font entendre ; prenons pour exemple  E.G. Beck, 2007 (cf. fig. 11c), qui considère que les courbes d’évolution du CO2 atmosphérique sont insuffisamment renseignées par l’étude des glaces et qu’il faut prendre en compte l’ensemble des données historiques fiables. Ainsi, les données sur les glaces du Groenland (GISP2) sont certes moins complètes que celle tirées des glaces de l’Antarctique (Vostok, Fig. 8a2) mais elles montrent que dans la période 10000 à 12000 ans BP, la teneur en CO2 de l’atmosphère a atteint plusieurs fois 320-325 ppm, ce qui correspond dans l’augmentation moderne du CO2 à la teneur atteinte aux environs de 1970 dans la figure 11b, et à quasiment 1W. m-2 en terme de contribution de chaleur (« radiative forcing » dans la figure 8a-1) par rapport à l’état pré-industriel, c'est-à-dire environ ⅔ du réchauffement  climatique attribué à notre espèce.

Fig. 8a2 : variation de la teneur en CO2 pour les 20 000 ans BP

Données NOAA GISP2 Groenland (vert) et Antarctic (rouge).

 

2 -   Concernant toute l’histoire de la Terre (Fig. 8b), depuis  l’explosion de la vie (600 Ma., début du Primaire) jusqu’à la deuxième partie du tertiaire, les paléoclimatologues ont montré que l’atmosphère terrestre a connu des teneurs en CO2 beaucoup plus élevées que de nos jours (Fig. 8b) qui apparaissent difficilement corrélables aux températures et aux niveaux des océans.

Fig.8b : RCO2 = Rapport des teneurs de CO2 avec le niveau de concentration de1900.

En effet, au début du Primaire, lors de l’explosion de la vie Cambrienne et de sa diversification, la teneur en CO2 de l’atmosphère était 20 fois supérieure à la concentration actuelle. Elle l’était 5 fois seulement au Crétacé, pour  des températures de 9-10°C de plus qu’aujourd’hui (Scortese et Mc Kerrow, ou S. Manoliu et M. Rotaru Fig.81). Arrêtons-nous sur les derniers 100 Ma. Le climat terrestre a considérablement changé durant cette période. On se situe jusqu’à la fin du Paléocène dans une période de température décroissante mais encore chaude, sans incidence notable de l’accident à 65Ma de la météorite de Chixculub, tenue pour responsable de la crise du vivant entre crétacé et Tertiaire. Durant cette période, le continent indien s’est détaché et remonte vers le nord, créant l’océan indien, et progressivement  le bloc Antarctique-Australie prend une position quasi polaire. Avec l’Oligocène, on entre dans la période froide, marquée par l’existence de calottes polaires. Dans la figure 9, issue de IPCC 2010, sont représentées la teneur en CO2 et l’étendue des glaciations d’après Crowley 1998 (exprimée en latitude, en bleu) pour les derniers 400 Ma.

 

Fig. 9 : Température de l’Océan et Concentration en CO2 dans l’atmosphère depuis 65 Ma, in IPCC AR4 Chp 6.

La teneur en CO2 est représentée pour différents proxies compilés par Royer 2006, et l’on y retrouve (en vert) le domaine plausible  (en rose dans la figure 8b) tiré du modèle GEOCARB III[6] de Berner et Kothavala (2001).  La chute de la  température, d’abord douce durant l’Oligocène, devient abrupte à 33.7 Ma. Cette transition est appelée « Eocène-Oligocène Boundary » (EOB). Elle est accompagnée d’une diminution très importante de la concentration atmosphérique en CO2. Une fois encore, un diachronisme léger apparaît entre la cassure de la courbe de la température et celle de la courbe du CO2 la plus précise, celle du phytoplancton (Fig. 9). Notez aussi que la présence de calottes glaciaires, banquises ou inlandsis, n’est pas une constante de l’histoire de la Terre. Au contraire, les périodes sans glaces polaires ont été nettement plus longues que les 3 périodes présentant des pôles englacés, i) quelques Ma autour de 350 Ma, ii) 330à 270, la plus longue, et iii) les 30 derniers Ma. Concernant  cette dernière période, Y. Lagabrielle et al. (2009) ont mis en évidence le rôle de l’isolement progressif du continent Antarctique et sa migration vers le pôle (ouverture du passage de Drake entre 43 et 10 Ma, §E5, Fig. 52a) dans la dernière entrée en glaciation de la Terre (Fig. 52b).

Dans les figures 7 et 9, la température n’est pas mesurée directement mais monitorée par des proxies, mot anglais utilisé pour qualifier des variables capables de donner l’image d’une autre variable dont la mesure directe est impossible. Par exemple, on utilise le rapport 18O/16O (d18O) de la glace, parce qu’il est largement dépendant de la température qui règne au moment de la formation de la glace. Le fonctionnement de ce proxi est le suivant (Fig. 10a).

Fig. 10a : Effet des précipitation sur les rapports d2H et d18O,

(based on Hoefs 1997 and Coplen et al. 2000).

in Géologie isotopique 2005 et http://www.sahra.arizona.edu/programs/isotopes/oxygen.html

Nous avons vu (Chp. 2.C.2) que le rapport 18O/16O est fractionné significativement lors de l'évaporation et de la précipitation; l’isotope léger étant favorisé dans l’état gazeux. L'eau du réservoir atmosphérique se trouve ainsi déprimée en isotopes lourds 18O et D (d18O et dD <0, Fig. 10a) par rapport à l'eau du réservoir océanique, et l'eau de pluie (ou la neige) est enrichie en isotopes lourds par rapport à l'eau atmosphérique. Avec le transport de l'air à travers les cellules convectives (Hadley, Ferrel, et cellule polaire, cf. § 5.D) et les précipitations successives qu'il peut subir pendant son transport, l’air évaporé sous les basses latitudes voit ainsi son rapport 18O/16O décroître en remontant vers le nord (Fig. 10b).

 

Fig. 10b : carte des dD et d18O pour les précipitations en Amérique du Nord ;

observer la distillation isotopique SE - NW depuis le golfe du Mexique, précipitations qui couvrent l’essentiel du territoire contrairement aux pluies du Pacifique.

in Géologie isotopique 2005 et http://www.sahra.arizona.edu/programs/isotopes/oxygen.html

Vient s’ajouter l’effet de la température de l’atmosphère, qui exerce un contrôle très fort sur la composition isotopique de l’eau de pluie. Avec l’augmentation de la température, les précipitations s’enrichissent linéairement (0.5‰ par C° pour d18O) en isotopes lourds 18O et 2H (D) par rapport aux léger 16O et 1H (Fig. 10c). Lorsqu’il atteint une latitude suffisamment haute, cet air précipite finalement en neige et constitue un réservoir solide (apparenté à la géosphère) aux propriétés isotopiques très différentes de celles de l'océan au-dessus duquel il s’était évaporé. Durant les périodes glaciaires, le stockage d'un énorme volume de glace provoque en corollaire un enrichissement de l'eau océanique en 18O par rapport à 16O. Inversement pendant les périodes chaudes, un déstockage de 16O a lieu.

Fig. 10c : Enrichissement linéaire en isotopes lourds avec la température.

in Géologie isotopique 2005 et http://www.sahra.arizona.edu/programs/isotopes/oxygen.html

 

(Clark and Fritz 1997, p. 37, as compiled in Rozanski et al. 1993, modified by permission of American Geophysical Union).

Variation du d18O d’une pluie subissant une distillation de Rayleigh. Conditions initiales : eau vapeur est

d18Ovapor = -11‰,  T° = 25°C. Température finale -30°C.

à 0°C, le fractionnement neige- eau vapeur remplace le fractionnement liquide-vapeur.

Les lignes pointillées relient d18O de précipitation et température de condensation.

in Géologie isotopique 2005 et http://web.sahra.arizona.edu/programs/isotopes/oxygen.html

Dans le cas de mesures faites à partir de sédiments, le proxi d18O utilisé est celui de la mesure sur des coquilles fossilisées. Les organismes tirant leur coquille du réservoir océanique, on considère qu’il s’agit d’un processus de fractionnement d’équilibre chimique (cf. Chp. 2.C.2.a). La valeur recherchée étant celle de la température de surface de la mer à l’époque de la construction de ces coquilles, on utilise surtout les espèces planctoniques pélagiques (vivant à la surface loin des côtes) et on élimine les espèces benthiques (vivant sur le fond) qui donneraient la température du fond de l’océan au moment considéré.

Grâce à l’étude de ces derniers, on observe dans la figure 9 que la température des eaux de l’océan profond mondial est passée de 12°C avant l’ouverture du passage du Drake (Eocène), à environ 2°C, température actuelle, après cette ouverture[2]. La chute de la concentration en CO2 atmosphérique à cette époque apparaît ici comme une conséquence de l’évolution du climat induite par la tectonique des plaques et non comme une cause.

Y a-t-il un hiatus entre i) les modèles climatiques actuels qui nous promettent une augmentation de 6°C pour seulement un  doublement de la teneur actuelle en CO2 et ii) la paléoclimatologie qui nous informe de variations bien moindres ? entre i) le discours qui affirme que les températures actuelles sont responsables de la disparition irréversible d’une banquise garante de la circulation océanique et ii) la paléogéographie qui nous renseigne sur le rôle à long terme de la distribution des masses continentales ? entre i) l’affirmation que les teneurs actuelles en CO2 de notre atmosphère sont sans précédent, qu’elles nous entraînent vers des augmentations de température irréversibles préjudiciables à la vie et ii) l’histoire de la vie sur la Terre?

Hiatus ? Peu importe, le fait est réel, le climat terrestre change, il a toujours changé. Il convient d’essayer d’évaluer la part humaine dans ce « dérèglement ». Nous comparerons donc les courbes de l’évolution récente de la température de notre atmosphère avec celle de trois groupes de paramètres essentiels :

1 -    la concentration de l’atmosphère en GES : CO2, CH4, SO2 et N2O ;

2 -    l’émission du CO2 liée la consommation des énergies fossiles, ou bien (très similaire) la production des combustibles fossiles, depuis le début du XVIII°.

3 -    l’activité de notre étoile, dont nous savons qu’elle procure l’essentiel de l’énergie disponible dans notre atmosphère ; si les conditions de distance au Soleil et de luminance de celui-ci sont les facteurs clef qui ont permis l’apparition de la vie sur Terre on peut supposer que des fluctuations, mêmes mineures, de ces paramètres peuvent influer sur le climat.

 

GES majeur : le Dioxyde de Carbone

Considérons tout d’abord le GES principal, le CO2. Le cycle du carbone (Fig. 11) est le reflet de l’équilibre dynamique qui s’opère entre les différents réservoirs, y compris les transferts résultant de l’action de l’homme. L’équilibre décrit dans cette figure est celui des années 90. Les masses de CO2 contenues par chaque réservoir ou sous-réservoirs (e.g. océans de surface, moyen et profond) sont aussi figurées ainsi que leurs échanges. Dans la figure, les flux dépendant de l’activité humaine (ou plus exactement ayant fortement grossi depuis la révolution industrielle) sont figurés en rouge, les autres, considérés comme naturels sont figurés en noir. Les flèches montantes représentent les transferts vers l’atmosphère et les flèches descendantes figurent les puits qui extraient du CO2 atmosphérique vers les autres réservoirs.

Fig. 11 : le cycle du carbone.

quatrième rapport du GIEC (2007),

 

La première remarque est que la masse de CO2 contenue dans l’atmosphère (597 + 165 = 762 Giga-tonnes), comparée à celles de la géosphère (combustibles fossiles restant = 3700-244) et surtout de l’océan (plus de 40 000 Gt), mais aussi et cela est moins intuitif, à celle de la seule masse de carbone de la biosphère végétale (environ 2 300 Gt), est de presque 10 fois à 100 fois plus petite que les autres.

La seconde remarque est qu’au regard des estimations de flux présentées dans la figure 11, l’incidence de notre activité sur le contenu de l’atmosphère varie considérablement selon le réservoir considéré. Elle est faible dans les flux net globaux entre atmosphère et végétation — de l’ordre du % : (+1.6 / + 119.6) et  (-2.6/ -120.2) — mais elle est forte dans les flux net globaux entre atmosphère et océan — de l’ordre de 30 % : (+20 / + 70.6) et  (-22.2/ -70) — et vis-à-vis des combustibles fossiles, elle n’agit qu’à sens unique — +6.4 Gt/an, estimé à un total de +165 Gt pour l’ère industrielle — ce que traduisent clairement les courbes de teneur atmosphérique en CO2 (Fig. 12 a, b) et les 2 ruptures de pente de 1850 et 1960, Fig. 12d et 17 p.120). Si l’impact humain est considérable en terme de flux pour les échanges océan-atmosphère, il l’est beaucoup moins en terme de bilan, car le CO2 est un gaz très soluble dans l’eau et dont les concentrations dans l’océan sont largement gouvernées par un cation abondant le calcium, qui peut précipiter sous forme de carbonate solide, la calcite. C’est ce mécanisme qui, ajouté à l’extraction de la calcite par les organismes vivant (coquilles, récifs), permet la soustraction de 0.2 Gt/an de l’océan vers les sédiments. On notera que l’équilibre décrit dans la figure 11 conduit à un bilan global — naturel + humain = +70.6 +20 –70 –22.2 = -1.6 Gt/an — de l’ordre de  1% seulement des échanges océan-atmosphère, témoignant ainsi de leur plasticité.

Comparons ce bilan de 1.6 Gt/an à la masse de carbone de l’océan, 40000 fois plus grande. Comparons la teneur en CO2 de l’atmosphère actuelle (et son enrichissement net de 6.4 Gt/an) à celle de l’ère primaire, 5 à 10 fois plus forte à l’Ordovicien (Fig.8a). A cette époque,  il y a 450 Ma environ, les espèces de vertébrés explosent dans l’océan « malgré » le taux élevé de CO2. Malgré cette forte teneur, il va se produire à cette époque une glaciation majeure ! Et « malgré » encore ce CO2,  le monde végétal va coloniser les continents, jusqu’à offrir à la Terre vers 350 Ma l’une des périodes les plus favorables au stockage du carbone, le Carbonifère. Ne peut-on raisonnablement s’attendre à ce que d’aussi faibles variations   actuelles de notre atmosphère n’induisent autre chose qu’un ajustement des équilibres impliqués dans le cycle du carbone ?

Il n’en reste pas moins que la combustion des ressources fossiles a élevé le taux de CO2 dans l’atmosphère de 21% en 150 ans. Nous étions en mai 2013 sur le point de dépasser la barre symbolique des 400 ppmv. La concentration atteignait 392.41 ppmv en Août 2012 dans l’atmosphère du Mona Loa (http://www.esrl.noaa.gov/gmd/ccgg/trends), soit 1.34 ppm de plus qu’en Août 2011… On ne voit aucune inflexion dans l’augmentation du CO2 atmosphérique depuis 1995 (Fig. 12a, régression linéaire R2 = 0.9983).

Fig. 12a : CO2 de l’air,  données NOAA, depuis 1995.

Données du Mona Loa (4170m), Hawaï, les valeurs utilisées sont les moyennes annuelles.

Cette apparente linéarité, souvent mise en avant, n’est en fait due qu’au laps de temps des observations choisi. Si l’on prend  l’ensemble des mesures acquise par la NOAA sur le Mona Loa, qui débutent en 1959 (Fig. 12b), on observe qu’une augmentation quasi constante « fit » remarquablement (régression du 2° degré, R2 = 0.9993) le trend du CO2 atmosphérique pour toute la période 1959 à nos jours. En retour sur la figure 12a, notez qu’une régression du 2° degré sur ce petit segment de données apporte un léger bénéfice par rapport à la régression linéaire, R2 = 0.9991, confirmant que l’accélération constante du taux de CO2 dans l’atmosphère reste de règle, malgré les différents accords pris à grand renfort de médiatisation. Ces 2 régressions au 2° degré, sur 20 et 55 ans, passent quasiment par les même minima, 1919-292ppmv et 1922‑299 ppmv.

Fig. 12b : CO2 de l’air,  données NOAA, depuis 1959.

Données du Mona Loa (4170m), Hawaï, les valeurs utilisées sont les moyennes annuelles.

A ce stade de l’analyse, il n’est peut-être pas inutile de rappeler l’ensemble des efforts consentis depuis plus de 30 ans. Les informations qui suivent sont tirées de la librairie du citoyen, documentation française,

  http://www.ladocumentationfrancaise.fr :

·     1979, Genève, 1° conférence mondiale sur le changement climatique. Lancement d’un Programme de recherche climatologique mondial.

·     1987, Montréal, décision d’interdire la production et l’utilisation des CFC ;

·     1988, création du GIEC = IPCC (en anglais), chargé du suivi scientifique des processus de réchauffement climatique ;

·     1990, La Haye, les états européens s’engagent à stabiliser leurs émissions de CO2 au niveau de 1990 d’ici à 2000 ;

1° rapport du GIEC : bilan des connaissances scientifiques.

·     1992, Rio, 1° sommet de la terre, 131 chefs d’Etat adoptent l’Agenda 21[7], l’objectif de la convention Climat, ratifiée par 50 Etats, est de stabiliser les concentrations atmosphériques des GES à un niveau « qui empêche toute perturbation humaine dangereuse du système climatique ».

·     1995, Berlin : 1ère Conférence des Parties à la Convention Climat (COP 1) ; adoption du principe des quotas d'émissions de GES.

2° rapport du GIEC : confirmation du rôle des activités humaines sur les changements climatiques. Prévisions d’ici à 2100 : réchauffement moyen de 1 à 3, 5°C; montée du niveau de la mer de 15 à 95 cm.

·     1996, Genève, 2° conférence mondiale sur le changement climatique, COP2.

·     1997, New-York, dit Rio+5, 2ème sommet de la terre, désaccord entre l’Union européenne et les Etats-Unis sur la réduction des GES.

Kyoto, 3° conférence mondiale sur le changement climatique, COP3. Adoption du dit « protocole de Kyoto » qui engage les 38 pays industrialisés (Etats-Unis, Canada, Japon, pays de l'UE, ancien bloc communiste) à réduire les émissions de GES de 5.2% en moyenne d’ici 2012, par rapport au niveau de 1990.

·     1998, Buenos Aires, 4° conférence mondiale sur le changement climatique, COP4. les pays industrialisés, seuls concernés dans un premier temps par le Protocole de Kyoto, adoptent un plan d’action destiné à relancer les mesures décidées à Kyoto. Les Etats-Unis signent le Protocole de Kyoto.

·     1999, Bonn, 5° conférence mondiale sur le changement climatique, CPO5.

·     2000, La Haye, 6° conférence mondiale sur le changement climatique, COP6. Echec à trouver un accord sur la mise en œuvre des mesures adoptées à Kyoto.

·     2001, 3° rapport du GIEC.G.W. Bush s’oppose au Protocole de Kyoto et refuse la réglementation des émissions de GES.Marrakech, 7° Conférence des Nations unies sur les changements climatiques, COP7. Des moyens techniques et financiers sont débloqués en faveur des pays en développement.

·     2002, New Delhi, 8° Conférence des Nations unies sur les changements climatiques, COP8.  L'Union européenne, puis le Japon ratifient le protocole de Kyoto.

·     2003, Milan, 9° Conférence des Nations unies sur les changements climatiques, COP 9.  

·     2004, Buenos Aires, 10° Conférence des Nations unies sur les changements climatiques, COP 10.  La Russie ratifie le protocole de Kyoto.

·     2005, Montréal, 11° Conférence des Nations unies sur les changements climatiques, COP 11.  Entrée en vigueur du protocole de Kyoto signé en 1997. Il a donc été ratifié par 141 pays dont 36 pays industrialisés, à l'exception des Etats-Unis et de l'Australie (soit 1/3 des émissions de GES). Ils sont néanmoins tenus de réduire de 5.2% leurs émissions de CO2 et de cinq autres GES.

·     2006, Sydney, 1° réunion du Partenariat Asie-Pacifique sur le développement propre et le climat. Ce Partenariat, formé en juillet 2005, regroupe les Etats-Unis, l'Australie et quatre pays d'Asie : Chine, Japon, Inde et Corée du Sud, soit ½ des émissions de GES dans le monde. Objectif de ce Partenariat « que la lutte contre le réchauffement climatique ne freine pas la croissance économique ».

Nairobi, 12° Conférence des Nations unies sur les changements climatiques, COP 12.  La révision du protocole de Kyoto (fondée sur le 4° rapport du GIEC, à paraître en 2007) commencera en 2008, pour définir les implications du protocole au-delà de 2012.

·     2007, 4° rapport du GIEC. Il établit la responsabilité humaine dans le réchauffement climatique. Perspectives pour la fin du XXI° siècle : augmentation moyenne de 1.8°C à 4°C, pouvant aller j’à 6.4°C ; hausse du niveau des océans de près de 60 cm ; généralisation de vagues de chaleur et d'épisodes de fortes précipitations. Il met en garde contre les conséquences « soudaines », voire « irréversibles » du réchauffement en cours.

Bali, 13° Conférence des Nations unies sur les changements climatiques, COP 13.  Elle met en place une « feuille de route » devant aboutir en 2009, à Copenhague, à un nouveau traité, qui prendra la suite du Protocole de Kyoto, qui vient à échéance en 2012.  Les parties reconnaissent que « des réductions sévères des émissions mondiales devront être conduites ».

·     2008, Bangkok, 161 pays ouvrent un nouveau cycle de négociations pour répondre aux objectifs fixés par la feuille de route du traité de Copenhague.

Poznam, 14° Conférence des Nations unies sur les changements climatiques, COP 14.  Création d'un Fonds d'aide aux pays pauvres menacés par les conséquences du réchauffement, 80 millions de dollars.

Bruxelles, l’UE adopte un « paquet énergie climat », plan de lutte pour la période 2013-2020, objectifs : diminution de 20% des émissions de GES, augmentation à 20% de la part des énergies renouvelables et amélioration de 20% de l’efficacité énergétique de l’Union européenne.

·     2009, Bonn, 2° réunion, 183 pays participent à la feuille de route pour le traité de Copenhague. Le Brésil, la Chine, l’Inde et l’Afrique du Sud ne souscriront pas au futur traité et refuseront des objectifs domestiques de baisses de leurs propres émissions, tant que les pays industrialisés n’auront pas adopté les réductions préconisées par le GIEC, soit moins 40% en 2020 par rapport à 1990.

Copenhague, 15° Conférence des Nations unies sur les changements climatiques, COP 15.  193 pays réunis adoptent un texte juridiquement non contraignant, mis au point par les Etats-Unis et 4 pays émergents, la Chine, le Brésil, l'Inde et l'Afrique du Sud. Ce texte affirme la nécessité de limiter le réchauffement planétaire à 2°C par rapport à l’ère préindustrielle mais ne comporte aucun engagement chiffré de réduction des émissions de gaz à effet de serre.

·     2010. Cancun, 16° Conférence des Nations unies sur les changements climatiques, COP 16. 192 pays mettent en place à la quasi-unanimité (sauf la Bolivie), une série de mécanismes financiers pour lutter contre le réchauffement climatique et promouvoir l'adaptation à ses effets. On voit ici apparaître la notion de mitigation. un « Fonds vert » est créé pour soutenir les projets, programmes et politiques d'adaptation des pays en développement. La mise en place du mécanisme REDD (Ressources pour le développement durable) qui consiste à rémunérer financièrement les populations locales impliquées dans la gestion des forêts. Rien pour prolonger le protocole de Kyoto au-delà de 2012.

·     2011, Durban, 17° Conférence des Nations unies sur les changements climatiques COP 17. Elle se conclut sur la mise en œuvre d’une nouvelle feuille de route, en vue d’un accord prévoyant d’établir d’ici à 2015 un pacte global de réduction des émissions des GES, avec une entrée en vigueur prévue à l'horizon 2020. D’ici là, la feuille de route prévoit la prolongation du protocole de Kyoto. Le texte englobe pour la première fois tous les pays dans la lutte contre le réchauffement climatique, y compris les plus gros pollueurs, la Chine, l'Inde et les Etats-Unis... Ni contrainte juridique, ni hausse du niveau des mesures pour réduire les émissions de GES ne sont prévues… gaz à effet de serre, afin de limiter le réchauffement sous le seuil de 2°C. le « Fonds Vert » est officiellement créé.

·     2012, Doha, 18° Conférence des Nations unies sur les changements climatiques, COP18, dit aussi Sommet de la terre « Rio + 20 ». Le rapport « Geo-5 » montre que, sur 90 objectifs prioritaires définis en 1992, seulement 4 ont connu des progrès significatifs, dont celui relatif à la couche d’ozone. Geo-5 confirme que l'objectif de réduction des émissions de GES n'a pas connu de progrès et que ceux-ci devraient doubler d’ici 2050.

·      2013, Varsovie, la 19° Conférence est un éclatant succès affirmé dans le communiqué de presse final: «Warsaw has set a pathway for governments to work on a draft text of a new universal climate agreement so it a ppears on the table at the next UN Climate change conference in Peru. This is an essential step to reach a final agreement in Paris, in 2015 ».

(http://unfccc.int/files/press/news_room/press_releases_and_advisories/application/pdf/131123_pr_closing_cop19.pdf)

·         2014, Lima, la 20° Conférence est dans l’ombre de la prochaine, à Paris en 2015 «"Lima is a crucial moment to reach a climate agreement in 2015. », qu’en dire de plus ? 

·         2015, Paris, la 21° Conférence a abouti à un accord qualifié d’historique, qualitativement meilleur que  l’accord de Kyoto,  mais non contraignant…

·         2016, Marrakech la 22° Conférence conclut sur la hausse des T°, du CO2, la montée des eaux, le recul des glaces: les indicateurs du réchauffement planétaire sont plus alarmants que jamais… Paris accord historique ?

En résumé, concernant le CO2 — cible principale du GIEC et des Etats participants à la lutte contre l’augmentation des GES, responsables du changement climatique — la totalité des résultats obtenus par l’ensemble des conférences, conventions ou accords conduits depuis plus de 30 ans est résumée par la figure 12b, aucune inflexion dans la courbe ! Que de dépenses et d’énergie dissipées pour un résultat parfaitement nul...

Nous avons vu que les mesures de concentration en CO2 dans l’air du Mona Loa permettent, pour les 60 et quelques dernières années, d’accéder à une valeur moyenne annuelle de l’atmosphère. Pour les années qui précèdent, on recourt le plus souvent aux mesures de concentration des gaz des bulles de la glace. Pourtant, des mesures de teneur de CO2 dans l’air étaient effectuées dans les laboratoires de chimie des pays développés. Ces mesures opérées au XIX° par des chimistes n’ont pas été utilisées dans les études sur le changement climatique. Les méthodes employées à l’époque sont encore considérées comme précises (± 6 ppmv en 1857) et elles nous offrent une image avec un pas de temps (Fig. 12c, courbe bleue) que les glaces ou les sédiments ne peuvent atteindre (petites + dans la figure). Mais elles ne couvrent que les régions économiquement développées à l’époque. D’une part elles ne peuvent être considérées comme des moyennes planétaires et d’autre part les régions couvertes étaient potentiellement polluées.

Fig. 12c: CO2 de l’air d’après E.G. Beck (2007)

Détaillons la courbe de concentration en CO2 atmosphérique, depuis les premières valeurs reconnues comme acceptables (1812) à nos jours. L’utilisation des données des glaces de l’Antarctique permettent une reconstruction malgré tout assez fine de l’évolution de la concentration.

Avant 1850, la courbe du CO2 montre une croissance très lente (Fig. 12c et Fig. 17, p. 120). Si son origine est humaine, elle est sans doute liée à l’accroissement régulier de la biomasse cultivée et utilisée comme combustible.

La première rupture de pente se situe vers 1850. De 1850 à 1950 environ, (Fig. 12d et Fig. 17, données GIEC)  l’augmentation du CO2 est encore presque linéaire mais elle est un peu plus forte que précédemment. Cela suggère que la teneur en CO2 dans l’atmosphère augmente peu après le décollage de la consommation de charbon.

Fig. 12d : Evolution de la concentration en CO2 de l’atmosphère depuis l’ère industrielle ;

sources Moa Loa et bulles d’air dans la glace de l’Antarctique

La 2° rupture de pente se situe vers 1950-1960 dans les figures 12d et 17, elle paraît assez brutale ; il est à noter que le minimum calculé de la courbe de régression du 2° degré de la figure 12b sur les valeurs du Mona Loa se situe sur la courbe à 306.4 ppmv, à la date 1922. Figuré en vert sur la figure 12d, il est, aux erreurs près, parfaitement « raccord » avec les valeurs de la fin de la période précédente, confirmant que la 2° rupture de pente doit se situer à peu près à cette période. Cela semble bien devoir être mis en relation avec l’explosion de la consommation de pétrole et de gaz (voir Fig. 17, World Energy consumption). L’accroissement de la consommation de charbon reste quant-à elle à peu près linéaire depuis le creux de production de la fin de la 2° guerre. La corrélation positive entre la concentration en CO2 atmosphérique et dilapidation des ressources fossiles apparaît donc clairement établie et non équivoque : actuellement, au moins 25% du CO2 atmosphérique — (390–306)/390 ppmv — aurait une origine anthropique. En outre, le décalage dans le temps du point de rupture dans les 2 courbes implique que la dispersion dans l’atmosphère terrestre du CO2 est très rapide et n’excède pas 5 à 10 ans. En corollaire, l’influence des phénomènes volcaniques sur la concentration du CO2 atmosphérique est non observable sur ces courbes. Elle est probablement masquée par notre activité.

Quant-à la distribution spatiale du CO2 dans l’atmosphère terrestre, la représentation largement diffusée de l’évolution dans le temps de la moyenne annuelle des concentrations sur le Mona-Loa pourrait  laisser croire à une homogénéité spatiale et temporelle qui n’a rien d’exact. La variation saisonnière (été CO2 pauvre / hiver CO2 riche) est la plus connue ; elle est souvent présentée (sinusoïde, e.g. Fig. 12d) pour  les mesures sur le Mona Loa. La variation spatiale, quoique largement documentée, est plus rarement présentée.

Dans sa représentation matricielle (Fig. 12e), on observe très nettement la dissymétrie nord-sud qui reflète la distribution des masses continentales et l’opposition des saisons été-hiver.

Fig. 12e : distribution spatiale et temporelle du CO2

dans l’atmosphère, pour les années 1999 à 2006,.NOAA.

Noter la faible amplitude des variations saisonnières en hémisphère Sud et l’inversion nord-sud ; noter le gain pluriannuel de la concentration ;

http://www.esrl.noaa.gov/gmd/ccgg/about/global_means.html

Confirmant ce fait, l’amplitude de la sinusoïde de période annuelle, très faible aux latitudes sud, s’inverse en traversant l’équateur et croît très vite pour devenir maximum au niveau tropical. Elle reste ensuite très marquée jusqu’à une latitude élevée. Une telle représentation ne tient pas compte d’éventuelles variations longitudinales. Cette hétérogénéité nord-sud et cette oscillation annuelle résultent bien sûr principalement du cycle naturel du carbone ; dégagement de CO2 par la respiration de la biosphère (massivement continentale) et inversement de la photosynthèse végétale qui opère un pompage du CO2 atmosphérique, essentiellement continental et dont l’activité saisonnière s’inverse entre les 2 hémisphères. La figure 12e montre que l’amplitude de la variation annuelle est, au maximum d’environ 15 ppmv, et que cette variation ne masque pas la tendance à l’augmentation moyenne décrite plus avant. La figure nous informe aussi sur l’homogénéisation de notre atmosphère : i) le contraste entre les 2 hémisphères montre la relative étanchéité des deux réservoirs, qui ne sont pas homogénéisés à l’échelle annuelle ; ii) le contraste saisonnier, en particulier dans l’hémisphère nord, montre que le CO2 dégagé par la respiration est largement et rapidement soustrait de  l’atmosphère, dont le niveau bas en concentration se situe au niveau de celui de l’hémisphère sud.

Y-a-t-il un impact du CO2 atmosphérique sur le recul de la banquise ? Si corrélation n’est pas raison, force est de constater dans la figure 12f que, sur 30 ans de mesure, la courbe de la surface de la banquise à son minimum annuel (août-septembre) — décroissante d’année en année, en noire — est semblable à la courbe du CO2 — croissante d’année en année, l’axe du temps est présenté en sens inverse, orange — même si la courbe de tendance du CO2 est plutôt du second degré quand on admet pour l’aire de la banquise Arctique que la régression est linéaire. Nous reviendront sur ces aspect plus loin  (voir § Chp.5.B.1.c.4).

Fig. 12f : CO2 et Surface de la banquise Arctique vs temps

 

Le Méthane

Les rapports du GIEC indiquent que la concentration atmosphérique mondiale de CH4 est passée d’environ 715 ppb à l’époque préindustrielle à 1 732 ppb au début des années 1990, pour atteindre 1 774 ppb en 2005. notez l’unité, 1 ppb = 1.10-3 ppm. La figure 13a (empruntée au Trinitry College) reprend les données des auteurs de «  A Compendium of Data on Global Change[4]. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, TN, USA. ».

CH4 graph

Fig. 13a : Courbe d’évolution des teneurs en CH4 dans l’atmosphère ; notez l’unité, 1 ppb = 1.10-3 ppm

http://www.csiro.au/greenhouse-gases/

 

Ces mesures effectuées dans les carottes de glace montrent une teneur constante entre 1000 et 1700, puis un accroissement très fort à partir de l’ère industrielle. L’apparente constance préindustrielle est toutefois un leurre, dissipé par la figure 13b qui montre que si le CH4 est un GES puissant (dont la teneur actuelle équivaut à 35-40 ppm de CO2, cf. tableau 2), il est aussi naturellement très dépendant du climat. En effet, la première source de méthane réside dans la biochimie des zones humides naturelles (actuellement >30% des émissions), à l’origine des variations observables dans la figure 13b (oscillation entre 350 et 700 ppb). Les autres sources sont principalement agricoles, et l’on retrouve dans l’atmosphère récente l’augmentation de la consommation de biomasse méthanogène, le riz en particulier (qui dégage autant de méthane que la moitié de l’ensemble des zones humides naturelles, soit environ 15%) et celle de l’élevage bovin souvent mis en cause (actuellement environ 15%). Vient enfin la contribution industrielle via les combustibles fossiles, contribution désormais majeure (environ 20%).

 

http://www.institut-polaire.fr/var/plain/storage/images/media/images/evolution_gaz_a_effet_de_serre_epica/14663-1-fre-FR/evolution_gaz_a_effet_de_serre_epica.jpg

Fig. 13b : Synchronisme des variations de teneur en CO2 et en CH4 avec le climat

http://www.institut-polaire.fr/ipev/actualites/scientifiques/publications/une_premiere_l_evolution_des_gaz_a_effet_de_serre_sur_800_000_ans

Comme pour le CO2, qui, lui aussi, présente depuis 1850 une causalité humaine, on observe une covariation étroite de la concentration en CH4 (et du CO2) avec l’évolution de la population mondiale (Fig. 13c).

Fig. 12c : Evolution de la concentration en CH4 de 1850 à 2010

Comparer la morphologie des courbes d’évolution des teneurs en GES : celle du CO2 pour la période 1850-1990 (tireté gris)

et celle de N2O pour la période 1850-2000 (tireté vert) sont ajustées, sans échelle, à celle du CH4 pour la même période.

Dans le cas du CH4,  celle-ci s’interrompt vers 1990. Le taux d’accroissement de la teneur en CH4 chute alors et devient même quasi nul entre 2000 et 2007. Puis, le méthane est reparti brutalement à la hausse. Pour les auteurs, la première raison de l’arrêt de la croissance de la teneur en CH4 réside dans l’amélioration des pratiques agricoles. Quant à son redémarrage en 2007, les variations imputables à notre espèce ne pouvant excéder quelques % par an, un tel comportement doit avoir des causes naturelles ?

Les variations à long terme du CH4 atmosphérique sont liées à l’extension du permafrost (ou pergelisol[3]), essentiellement developpé en région Arctique. Les climatologues estiment qu’il contiendrait encore 30% (ou plus, sous forme d’hydrates de gaz) de tout le carbone stocké dans les sols de la planète. Par conséquent, sa fonte par augmentation de l’effet de serre pourrait être suivie d’émissions à grande échelle de méthane ou de dioxyde de carbone, provoquant un feedback positif important sur les températures. Le sol gelé des hautes latitudes de Sibérie et d’Alaska est donc le sujet de nombreuses études.

Selon S. Kultti, P. Oksanen et  M. Väliranta (2004) dans leur étude sur la limite des arbres, du pergélisol et la dynamique climatique dans la région des Nenets (Arctique de l'Europe de l'Est), au sortir de la glaciation  (= début de l’holocène) « la région é été occupée par une forêt mixte d'épinettes et de bouleaux, qui a duré jusqu' à environ 5 000 ans avant notre ère… … Les conditions étaient alors exemptes de pergélisol au moins jusqu' à 4500 BP… … Les températures estivales ont été d'environ 3-4 °C plus élevées entre 8900 et 5500 BP qu'aujourd'hui… … Le pergélisol s’est développé ensuite et sa dernière phase de développement remonte au petit âge glaciaire ». On voit donc dans ce cas que : a) la cause  de la fonte de la glace du sol suit la remontée de la température à la fin de l’ère glaciaire ; b) la température dans la région Arctique a été nettement supérieure à l’actuelle pendant plusieurs millénaires, sans induire de feedback catastrophique et sans empêcher le retour d’un froid relatif jusqu’au petit âge glaciaire. On retrouve des observations et conclusions comparables dans  le travail récent de A.B. Kristina Sannel, L. Hempel,  A. Kessler & V. Proskienis (2017) qui abordent le développement holocène du pergélisol dans les tourbières subarctiques du nord de la Suède, et pour qui «  le démarrage des tourbières a eu lieu entre 10 000 et 9600 BP, peu après le retrait de la calotte glaciaire, et les tourbières sont restées exemptes de pergélisol dans la majeure partie de l'Holocène ». Là encore « le pergélisol s'est développé entre environ 600 et 100 BP ». On notera enfin que l’on retrouve des observations similaires pour le Canada dans le Rapport technique thématique n° 9 des Conseils canadiens des ministres des ressources, 2010, où l’on note : « Dans des conditions plus chaudes du milieu de l’Holocène, entre 6 000 et 9 000 ans passés, la limite sud du pergélisol était au nord de son emplacement actuel et les couches actives[4] étaient généralement plus épaisses. Après cette période douce, le froid qui s’est installé a provoqué une nouvelle augmentation de la superficie du pergélisol il y a environ 3 700 à 5 000 ans. Au cours du Petit Âge glaciaire, soit entre les années 1550 à 1850, sous des températures environ 1 °C plus basses qu’aujourd’hui, le pergélisol s’étendait plus au sud ». Ajoutons à cela qu’en 2008, Mat Rigby et al. ont montré que l’augmentation du CH4 était générale sur la planète, alors que le permafrost susceptible de dégeler est essentiellement situé en zone Arctique. Depuis lors, Dlugokencky et al. 2009, puis  Bousquet et al. 2010, ont montré que la reprise de l’augmentation de la teneur en CH4 est due très probablement d’abord, en 2007, à une suractivité des zones humides nordiques, puis, en 2008, à une suractivité des zones humides tropicales nord et sud.

Ainsi nous pouvons conclure avec Dlugokencky et al.que « nous n’avons sans-doute pas encore activé le fort effet de feedback climatique » attendu avec la fonte du permafrost. Cela est d’autant plus vraisemblable que l’anomalie de température stabilisée depuis 1998 n’offre pas de différence entre avant et après 2007. Enfin, cette ré-augmentation des émissions pourrait aussi provenir de l’accroissement de la consommation de combustibles fossiles depuis 2006 dans le Nord de l'Asie. La question est encore largement ouverte…

Le CH4 présente plus encore que le CO2, un fort contraste entre les hémisphères nord et sud (Fig. 13d).

http://www.noaanews.noaa.gov/stories2006/images/methane-global-distribution-05-2006b.jpg

Fig. 13d : distribution spatiale et temporelle du CH4  dans l’atmosphère, pour les années 1984 à 2010,NOAA.

Noter la faible différence d’amplitude des variations saisonnières entre  hémisphère Sud et Nord par rapport au CO2.

Noter l’inversion nord-sud ; noter la stabilisation de l’accroissement pluriannuel de la concentration entre 2000 et 2006 et son redémarrage en 2007

http://www.noaanews.noaa.gov/stories2006/s2709.htm

La variation saisonnière est à peu près de même amplitude dans  les 2 hémisphères. Elle est moins importante que celle du CO2 (en hémisphère nord) mais reste significative et légèrement décalée par rapport à la sinusoïde du CO; pour l’hémisphère nord toujours, le maximum se situe vers mars et le minimum vers août. Le CH4 est presque principalement produit en hémisphère nord, puis transféré pour partie vers le sud. Le puits majeur d’absorption du CH4 est la réaction avec l’oxygène excité O (1D) +  CH4 Þ   OH + CH; nous verrons au paragraphe stratosphère que cette réaction joue un rôle important dans le cycle de l’ozone (O3). Le second puits de méthane est le radical hydroxyle OH; dans la stratosphère, très sèche,  CH4   +  OH- Þ  CH3 + H2O. Cette réaction d’oxydation du méthane conduit donc à la production d’eau, qui est aussi un GES, moins puissant et aux effets limités.  La durée de vie du CH4 dans l’atmosphère est d’une dizaine d’années.

 Le Protoxyde d’Azote et le Dioxyde de Soufre

La concentration atmosphérique globale de N2O est passée de 270 ppb à l’époque préindustrielle à 319 ppb en 2005 (GIEC 2007, Fig. 14-a), équivalent à 100ppm de CO2 (pouvoir réchauffant = 310 fois celui du CO2, tableau 2). Le protoxyde d’azote gazeux naturel provient des océans ; d’origine biologique il est produit par dénitrification dans les milieux anaérobies et par nitrification dans les milieux aérobies. 1/3 seulement des émissions totales de N2O sont anthropogéniques. Le « fit » de la courbe du N2O avec celle de la croissance démographique est donc logiquement moins bon que celui du méthane et le « décollage de la courbe ne se produit que vers 1900. Le tiers d’origine humaine provient d’une part des sols agricoles et l’alimentation du bétail et d’autre part de l'industrie chimique.

Fig. 14a & b : Evolution de la concentration en N2O et en SO4 depuis le début de l’ère industrielle

Noter que les ruptures de pente dans l’évolution de ces 2 GES ne sont pas simultanées

Les contributions anthropiques aux aérosols (essentiellement des sulfates, du carbone organique, du carbone noir, des nitrates et des poussières) produisent globalement un effet de refroidissement sur le climat. La courbe de la concentration en SO4 dans les glaces (Fig. 14-b) est le reflet direct de sa concentration dans l’atmosphère. Sa forme est si particulière qu’elle ne peut être corrélée à la production  d’aucun des combustibles fossiles. On admet généralement une origine industrielle au soufre atmosphérique, même s’il existe des incertitudes considérables sur les quantités totales de SO2 émises (et de et NOx d’ailleurs). On suppose que les émissions naturelles représentent 25 à 50% des émissions totales de SO2. Néanmoins, la brutale inflexion observable vers 1950 est en accord avec la 2° rupture de pente du CO2 (Fig. 17 p 120)  et surtout avec l’explosion de la production des combustibles fossiles.   La diminution du taux de soufre dans l’atmosphère depuis les années 90 est le fruit des efforts des pays dits développés pour réduire leurs émissions, en Europe en particulier.

Impact des GES sur la T° globale

Comment se traduisent ces évolutions des GES sur la température? Avant de discuter le détail de la courbe d’évolution des anomalies de température (écart à la moyenne des températures de la période 1951-1980,  définie comme la normalité), précisons l’origine des données utilisées dans les figures 16 et 17, qui sont semblables à celles des différents rapports du GIEC pour le XX° siècle :

i)      pour l’ère industrielle les courbes ont été construites avec l’outil interactif du site web http://www.woodfortrees.org. ;

ii)    le set de données HadCRUT, qui couvrent la période la plus longue (en rouge), est issu de 4349  stations de mesures de la température de surface (un peu plus depuis 2006),  fut publié pour la 1° fois en 1994 par P .D. Jones ; les actuelles versions HadCRUT3-CRUTEM3 font place en 2012 à une version CRUTEM 4 (voir site du Met Office Hadley Centre observations datasets www.cru.uea.ac.uk) ;

iii)  la 2° longue série de données de températures de surface moyenne de la planète, GISTemp (en vert), provient de la NASA (Goddard Institute for Space Study, http://data.giss.nasa.gov/gistemp);

iv)   le set de données « UAH satellite temperature » provient de l’Université d’Alabama,  site interactif (http://discover.itsc.uah.edu) permettant la reconstruction des variations annuelles de la température ; les valeurs ne sont plus des mesures de la température mais le résultat de calculs de la température à partir de mesures satellitaires de la radiance du sol dans différentes longueurs d’onde ;

v)     le set de données RSS de Remote Sensing System provient des sondes MSU Microwave Sounding Unit embarquées sur les satellites en orbite polaire de la NOAA ; il s’agit là encore de mesures indirectes de la température de surface.

L’avantage des mesures satellitaires est l’excellente couverture (homogénéité des mesures) qu’elles offrent par rapport aux réseaux de stations essentiellement continentales (e.g. Fig.15). En outre, elles permettent de déceler plus facilement les points chauds que produisent souvent les activités humaines et donc de s’en affranchir, reproche souvent adressé par les scientifiques critiques à la communauté du GIEC. Hélas leur entrée en action est récente (courbes bleue et violette) et ne permet pas de couvrir l’ensemble des variations observées.

 Global map of weather stations

Fig. 15 : réseau des stations de mesures de la température de surface, set de données HadCRUT.

A droite, http://www.giss.nasa.gov/research/features/200711_temptracker/

A gauche, Etat en 2005. P. Brohan et al. Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. Les points verts représentent les stations abandonnées en 2005 ; bleus, les stations nouvelles ; rouges les stations faisant l’objet de modifications mineures ; noirs, le reste des stations.

Dans la figure 17, le set des températures RSS a été pris en référence et les autres courbes sont décalées pour offrir le meilleur « fit », respectivement de 0.12, -0.24 et -0.15°C pour UAH, GISTemp et HadCRUT. En effet, chaque set ne prenant pas la même valeur en référence pour le calcul de l’anomalie, il est nécessaire de décaler les différentes courbes (offset).

La courbe de température concernant la période anté industrielle n’est pas reportée sur la figure 17. Il est en effet difficile de trouver pour les XVIII° et XIX° siècles des illustrations cohérentes et d’égal niveau de détail avec cette période récente dans la littérature. Les courbes de températures sont le plus souvent des reconstructions basées sur différents proxies, pro parte des données sur les glaces et pro parte des sets de données sur les cernes de croissances des arbres. On se reportera donc pour cette époque à la figure 18b tirée du 1° rapport du GIEC 2001 en raison de sa cohérence avec les écrits historiques plutôt qu’à la courbe en crosse de hockey du rapport de 2007 (fig. 18a) objet de controverses, et à la figure 19 tirée de Moberg et al. 2005.

Il est intéressant de noter que l’augmentation de température de l’hémisphère sud (Fig. 16a) durant le XX° siècle a été beaucoup plus linéaire que celle de l’hémisphère nord (Fig. 16b). C’est cette dernière qui marque de son empreinte la courbe d’évolution globale (Fig.17). Le rôle, naturel ( ?), anthropique ( ?), et à quel degré ( direct? Indirect ?) des masses continentales dans les changements climatiques pourrait donc être essentiel.

Fig. 16a : Augmentation quasi linéaire de la température de l’hémisphère Sud depuis 1930. 

Fig. 16b : contraste avec le tracé en dents de scie de la courbe de l’hémisphère Nord.

http://data.giss.nasa.gov/gistemp/graphs_v3

Dans la figure 17, on peut placer sur la courbe des températures globales au moins 3 points d’inflexions (voire 4, flèches rouges) et décomposer ainsi la courbe des températures en 4 périodes, voire 5 (?) :

i)      l’avant « changement »,

ii)    le démarrage du changement climatique,

iii)  la rémission temporaire,

iv)    la reprise du réchauffement, et peut-être

v)      la 2° rémission …? temporaire …?

 

Fig. 17: Courbes d’évolution des GES, actualisées sur http://www.esrl.noaa.gov/gmd/ccgg/iadv/, de la production de combustibles fossile, des caractéristiques solaires, de la température et du niveau de la mer.

 

1 -   Episode-1 : l’avant 1910-20. La température du XIX° siècle, moins froide que celle du XVIII° (Fig. 18a), apparaît  stable. Cette stabilité se poursuit jusqu’au début du XX°, au Nord comme au Sud ; la température n’augmente absolument pas avant 1910 (point 1 de la courbe Fig. 17, 1930 en hémisphère sud),  c’est à dire au moins 60 ans après la première rupture de pente dans la courbe de concentration en CO2 atmosphérique. Pourtant, la consommation de charbon a régulièrement augmenté pendant ce temps! Le ½ siècle est une durée bien trop grande pour admettre que ce retard est simplement lié au temps de transfert et d’homogénéisation du CO2 de l’atmosphère,  qui est de l’ordre de 10 ans. Cette valeur de 10 ans est précisément le retard observable au décollage de la courbe du CO2 de l’hémisphère sud par rapport à celui de l’hémisphère Nord  producteur du CO2 anthropique. Faut-il supposer que les conditions naturelles durant cette période sont celles d’un refroidissement global qui masque le forçage anthropique (l’effet de serre dû à l'homme) débutant durant cette période ? Il faut aussi prendre en compte de temps de saturation des puits de CO2, assurant la soustraction du CO2 produit — passage du réservoir atmosphère vers la géosphère (via l’océan ou pas) — pour lequel nous avons noté le rôle clef de la photosynthèse. Auront-ils mis 50 à 60 ans pour se saturer, rendant alors seulement  la hausse du CO2 observable, au nord d’abord, puis 10 ans plus tard au sud ?

Courbe en crosse de hockey, modèle de Mann 2001, in rapport 2007

Fig. 18a: ci-dessous, courbes de température des rapports IPCC de 1990 et 2001 pour le dernier millénaire ;

Courbe du premier rapport du GIEC

 

2 -   Episode-2 : 1910-1945. Le changement climatique démarre en 1910-1920 par une augmentation régulière de la température jusqu’en 1945 (points 1 et 2 de la courbe Fig. 17, flèches rouges et pointillés rouges). Ce démarrage en 1910 ne correspond  à aucune des 2 ruptures de pente dans l’évolution des GES (CO2 en particulier, flèches violettes Fig. 17), ni à l’augmentation brutale de la consommation des ressources fossiles, dont l’inflexion se situera plus tard (vers 1960, avec la 2° inflexion du CO2, Fig. 17). Il faut donc admettre que le forçage anthropique a dû augmenter lentement de manière continue durant l’ensemble des périodes 1 et 2. Si l’hypothèse proposée pour l’épisode 1 —masquage du forçage anthropique pendant que les GES émis croissent lentement jusqu’à ce que la saturation du puits de CO2 ait été atteinte (fin de la 1° période) — est valide, on peut s’attendre à ce que toute nouvelle augmentation de GES se traduise ensuite (épisode 2) par une montée de la température, ce qui est la cas. Si l’hypothèse d’un masquage du forçage anthropique durant l’épisode 1 par des conditions naturelles de refroidissement global est valide, sachant que le forçage anthropique a dû augmenter lentement durant les 2 épisodes, l’augmentation de température en 2° période suppose que les conditions naturelles se sont modifiées — diminution ou arrêt du refroidissement naturel global, voire réchauffement — de telle sorte qu’elles cessent de masquer le forçage anthropique, et donc la température augmente.

3 -   Episode-3 : 1945-1975. Entre les points 2 et 3 de la courbe de température de la figure 17, la température marque un palier, voire un léger abaissement. L’évolution durant cet épisode est donc similaire de celle de l’époque relativement froide ante-1910. Pourtant, le point d’inflexion commun aux courbes de teneur en CO2 et de consommation des ressources fossiles est franchi vers 1955-1960, avec une rupture de pente très marquée pour le CO2, GES majoritaire (hors l’eau). En outre, durant cette période, l’injection de méthane dans l’atmosphère continue à s’accroître massivement, jusqu’en 1985. Il devient difficile de rejeter l’hypothèse de variations significatives des conditions naturelles, à nouveau orientées vers le refroidissement — voire encore plus froides que durant la période historique ante-industrielle indemne de forçage anthropique — et masquant complètement le forçage anthropique qui pourtant se renforce régulièrement. Parmi les gaz suivi dans la figure 17, seul le soufre pourrait avoir un effet de refroidissement (Noter que les aérosols dispersés par nos industries contribuent aussi à refroidir l’atmosphère). Mais, outre le fait que la courbe du SO4 est mal expliquée, la contribution du soufre atmosphérique reste marginale.

4 -   Episode-4 : 1975-1998 ou 2000 ? Après 1975, la courbe des températures est repartie à la hausse régulière, au moins jusqu’en 1998 (la  dernière décennie paraît à nouveau échapper à la hausse, voir plus loin). La pente moyenne de ce 3° épisode est un peu plus forte que celle de la période 1910-1945 ; l’interprétation de ces 2 segments de  la courbe donne 0.015°C.a-1 et 0.022°C.a-1 respectivement[5]. Regardons l’enveloppe de la consommation des ressources naturelles de la figure 17 durant les épisodes 3 et 4. On observe que l’augmentation brutale de la consommation en 1960 est synchrone de celle de la concentration du CO2 atmosphérique. Par contre, si la pente de la courbe de consommation tend à s’amortir vers 1985, celle du CO2 continue sons ascension régulière. Néanmoins, la pente de la consommation reste considérablement plus forte ici que durant  la première période de réchauffement. L’augmentation de CO2 —rappelons qu’elle correspond à constante — est aussi beaucoup plus forte durant ce second épisode de réchauffement que durant le premier. Devons-nous alors supposer que le forçage anthropique est devenu tel qu’il dépasse le masquage envisagé précédemment ? Le masquage naturel s’est-il effondré parce que les conditions climatiques naturelles sont redevenues moins froides ? Durant les 2 épisodes de réchauffement observés, les conditions climatiques naturelles ont-elles seulement cessé de masquer le forçage anthropique ou ont-elles contribué au réchauffement ? Le forçage anthropique n'est-il qu'une fraction, significative et dans quelle mesure, des changements observés?

5 -   Un répit de 15 ans maintenant terminé ? En 1998 a commencé un second palier d’une quinzaine d’années dans le réchauffement. La figure 18b présente les sets de données retenus dans la figure 17 durant cette période inachevée. Rappelons que l’anomalie représente l’écart entre une valeur donnée et la moyenne interannuelle et prise en référence. Depuis 2014, les 4 courbes de température semblent repartir à la hausse, en particulier dans les enregistrements de Gistemp et de Hadcrut, avec un pic très élevé en 2016. Cela veut-il dire que le réchauffement climatique ré-accélère, ou bien observe-t-on là l’influence d’un ENSO avorté durant l’hiver 2014-2015, puis devenu particulière fort durant l’hiver 2015-2016 ?

Définies par rapport à la température moyenne d’une année prise en référence. Les différentes courbes, GISTemp, HadCRUt, UAH et RSS sont présentées ici avec un offset permettant le meilleur fit avec  la moyenne WTI (WoodForTrees Index non figuré) :GISTEMP -0.40, HADCRUT4GL -0.27, RSS -0.10, UAH 0  noter la forte anomalie enregistrées en 2015-2016.

Réactualisez la figure avec le calculateur du Woodfortree.org http://www.woodfortrees.org/plot

Fig. 18b : courbes des anomalies de température globale en °C.

De toutes façons, si l’augmentation de l’anomalie a effectivement cessée pendant cette décennie, ces années sont restées les plus chaudes que l’on ait connues et la teneur en CO2 a continué à croître… Il apparaît donc intéressant de comparer l’accumulation du CO2 dans l’atmosphère, non pas à la courbe de température dans le temps — donnée in figure 17 ou ci-après (figure 19a), anomalie annuelle tirée de la table de la NOAA annexe) en moyenne glissante sur 3ans — mais à l’accumulation de l’anomalie résiduelle de température (voir ci-après) dans le temps, calculée à partir des valeurs de la NOAA, comme suit :

Fig. 19a : 1882-2009, courbe de l’anomalie de température (par rapport à la moyenne de 1900-2001).

- Dans cette table, l’anomalie moyenne mensuelle présentée est la différence entre la température moyenne mensuelle et la moyenne globale pour la période 1900-2001.

- Afin de comparer entre elles les évolutions de ces anomalies mensuelles (de janvier à décembre), nous avons d’abord calculé l’anomalie résiduelle mensuelle — différence entre d’anomalie mensuelle et l’anomalie minimum du même mois pour la période 1880-2011 — puis  nous avons cumulé les résidus de chaque mois. Il apparaît dans les figures 19b que les hivers cumulent une anomalie plus forte que les étés. Contrairement aux attentes des modèles qui prévoient «  un accroissement sensible de la fréquence des événements extrêmes » (CNRS Press, 2 décembre 2013), le changement climatique s’accompagnerait d’une réduction du contraste entre été et hiver ?

Fig. 19b : anomalie de température résiduelle cumulée (moyennes mensuelles 1880-2012)

 

- L’utilisation conjointe des données de la NOAA et de celle de Moberg et al. (2005) permet de représenter l’anomalie résiduelle cumulée versus la teneur du CO2 atmosphérique depuis l’optimum médiéval jusqu’à nos jours. L’ « anomalie » de température représentée (Fig.19c, 1 point tous les 5 ans), est la différence entre la température moyenne sur 9 ans (de n-4 à n+4) et la valeur la plus basse.

Fig. 19c : anomalie de température résiduelle cumulée (abscisse) en fonction de l’anomalie cumulée en CO2.

évolution entre 1000 et 1800 en bleu, et depuis 1805 en rouge

 

Il en est de même pour la définition de l’ « anomalie » de CO2.  On distingue 2 domaines : en bleu, les points figurant les anomalies cumulées jusqu’en 1800 ; en rouge depuis 1800, période du démarrage industriel. On observe bien un changement de régime vers 1800, l’ « anomalie cumulée » de CO2 augmentant ensuite plus fortement que l’anomalie cumulée de température. Approche-t-on de la saturation des raies du CO2 encore sensibles aux IRs ?

ü Les mêmes données autorisent une reconstruction des évolutions de la température et de la teneur en CO2 (Fig. 19d) étendant celle de la figure 17 au dernier millénaire. on observe la baisse régulière de la température depuis la période chaude autour de l’an mil, appelée « optimum médiéval », puis un minimum  entre 1600 et 1700 connu sous le nom de « Petit âge glaciaire », suivis de la remontée de la température avec une pente relativement constante jusqu’en 1850.

Fig. 19d : évolution de la température et du CO2 durant le dernier millénaire.

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/moberg2005/nhtemp-moberg2005.txt

La figure confirme ainsi i) que les variations de la température durant cette période sont importantes, ii) que l’on n’y observe pas de corrélation entre teneur en CO2 et température de l’atmosphère, iii) que les variations de teneur en CO2 sont faibles par rapport à l’augmentation qui va suivre. On retrouve bien le 1° point de rupture dans la pente de la courbe du CO2 vers 1845 (Cf. Fig. 17) la température remonte avec une pente un peu plus forte, depuis le creux de 1837 jusqu’en 1975. Pendant cette période, la variation de CO2 devient homothétique de celle de la température. Noter qu’à cette échelle, le palier de température 1945-1975 disparaît dans les variations à petite échelle, tant pour les données NOAA (en vert) que celle de Moberg et al. (en bleu). 1960 constitue le 2° point d’inflexion pour le CO2. A cette échelle, l’homothétie avec les températures reste remarquable jusqu’à nos jours, à cela près que les deux courbes, projetées dans un même espace de variation, se rejoignent progressivement suggérant encore une fois que, à pas de temps égal, l’augmentation de température devient plus faible que l’augmentation de CO2. La stagnation des températures durant la dernière décennie n’est pas visible à cette échelle.

Au regard de ces résultats, on est tenté d’attribuer à l’augmentation de CO2 atmosphérique la totale explication de notre anomalie de température résiduelle cumulée. C’est précisément ce que font les experts du GIEC à travers l’utilisation de la courbe d’évolution du d13C du méthane (anthropique), dont la figure 7d3 p.109 rend compte. Mais c’est peut-être aller trop loin car, comme nous l’avons déjà signalé, les raies d’absorption des IRs par le CO2 sont peu nombreuses, déjà largement saturées, et l’augmentation de température semble devenir moins rapide que celle de la teneur en CO2. Au-delà de la concentration saturante d’une molécule donnée, tout ajout supplémentaire de cette molécule dans l’atmosphère est sans effet. Reste aussi à comprendre pourquoi malgré un accroissement continu des GES depuis 10 ans le forçage anthropique le plus puissant à ce jour est-il illisible sur les courbes de température moyenne globale ces 10 dernières années, comme il l’a été pendant 30 ans de 1945 à 1975 ? Quelle est la contribution réelle du forçage anthropique dans les variations climatiques ?

La question est complexe et les modèles climatiques de l’IPCC (GIEC) sont utilisés pour simuler les changements de température dus à la fois à des causes naturelles et à des causes anthropiques. Les simulations sont représentées dans la figure 20 par la bande grise, la courbe rouge est celle des températures observées:

1 - Dans la figure a) les modélisations sont effectuées avec les forçages naturels seulement, c'est-à-dire en ne prenant en compte que l’impact des variables naturelles, dont par exemple la variation du rayonnement solaire et de l'activité volcanique.

atm anom t model ipcc fnu 2006

Fig. 20a : modèles de réchauffement IPCC forçage naturel

 

2 - Dans la figure b) les simulations sont effectuées avec les forçages anthropiques, tenant compte des GES et des aérosols sulfatés (estimation). Si le début du siècle semble assez bien modélisé, il est à remarquer que les valeurs des températures obtenues pour les deux modèles a) naturel pur et b) anthropique seul, se situent en dessous de la courbe des températures observées (en rouge) pour la seconde moitié du 20°siècle.

atm anom t model ipcc fau 2006

Fig. 20b : modèles de réchauffement IPCC forçage anthropique

 

3 - Dans la figure c) On parvient en combinant les deux modèles (en faisant varier les proportions des 2 forçages comme suggéré dans nos 4 périodes) à caler l’ensemble sur la courbe des mesures. La prédiction serait-elle à notre portée ?

atm anom t model ipcc fna low 2006

Fig. 20a : modèles de réchauffement IPCC combinaison des forçages naturel et anthropique

Nous avons vu que la courbe des températures moyennes subit une inflexion forte suggérant qu’il y a peut-être eu vers 1998 (point 4 de la Fig. 17 et Fig. 18b) un point d’inflexion marquant l’entrée dans une nouvelle période d’arrêt de l’augmentation de la température, comparable à la période 1945-1975. Certes la courbe de la concentration en méthane dans l’atmosphère s’était amortie progressivement depuis 1985, mais celle du CO2 continue sa croissance régulière et aucun modèle ne prévoyait un tel palier… Alors il n’y a bien sûr pas consensus sur cette inflexion. Et la querelle fait rage, entre « climato-sceptiques » partisans d’une contribution anthropique somme toute modérée — et largement modulée par les processus naturels, mal identifiés peut-être — et tenants du tout anthropique.

De fait, l'approche de ces processus très complexes nous a déjà montré combien l’interaction des nombreux paramètres rend la prévision délicate, jusque dans le choix des sources de données. Ainsi, comme le soulignent nombre de sceptiques — tel le polémique  C. Allègre (2007) mais aussi le très documenté ouvrage de Hacène Arezki (2011) — les moyennes à l’échelle de la planète sont difficiles à établir en raison de l’importance de la variabilité horizontale et verticale de la température dans la troposphère et de l'impact de l'urbanisation sur les continents qui doit nécessairement être pris en compte. A ces difficultés de sélection des données, s'ajoute i) le choix peut-être parfois discutable, et discuté, de quelques contributions au travail d'évaluation du GIEC —par exemple des travaux de la WWF ou de l’ICIMOD (International Centre for Integrated Mountain Development Hinu-Kush/Himalaya  http://www.icimod.org qui produisent une littérature dite "en demi-teinte" ; on appelle ainsi des rapports qui n’ont pas été évalués par des revues internationales à comité de lecture — et ii) un contrôle, qui n’est pas sans faille, des chiffres publiés, parfois faux et alors l'objet de polémiques.

Conscients de ces défauts avérés, l'ONU et le GIEC ont demandé en 2010 une expertise des méthodes utilisées au Conseil Inter-Académique[6] (10 institutions dans le monde). Parmi les principales remarques formulées par l’IAC, — tirées de la version française du « Report New release » sur le site de l’IAC, en bleu ci-après — il en est qui permettent sans doute de mieux comprendre le débat, trop vif et même parfois insultant, souvent mal argumenté, soulignons:

1 -  La « réponse lente et inadéquate du GIEC aux révélations d’erreurs dans la dernière évaluation", ainsi que "les plaintes sur le fait que ses dirigeants ont outrepassé le mandat du GIEC pour être en conformité avec la politique au lieu de prescrire la politique dans leurs commentaires publics ».

2 - L’échéance fixée à la position de directeur du GIEC, dont  « la limite actuelle de deux mandats de six ans est trop longue. Le président du GIEC et le directeur exécutif, ainsi que les coprésidents des groupes de travail, ne devraient pouvoir remplir qu’un mandat de façon à maintenir une variété de perspectives et une approche neuve pour chaque évaluation. » L’IAC ajoute qu'il faut « développer une politique rigoureuse sur les conflits d’intérêt, applicable à toute la haute direction du GIEC et à tous les auteurs, aux éditeurs de révisions, et au responsable de direction quant au contenu du rapport ». Il s'agit donc bien d’éviter la mainmise de groupes d'intérêt sur la rédaction des rapports du GIEC.

3 - L'IAC affirme « qu’une exécution plus poussée des procédures de passage en revue pourrait minimiser le nombre d’erreurs. À cette fin, le GIEC devrait encourager les éditeurs de revue à exercer pleinement leur autorité pour assurer que tous les commentaires du passage en revue soient pris en considération de façon adéquate. Ces éditeurs de revues devraient également assurer que les controverses authentiques sont bien reflétées dans le rapport, et obtenir satisfaction pour qu’une considération appropriée soit donnée aux visions alternatives correctement documentées. Les auteurs de vérification devraient explicitement documenter que la gamme complète des points de vue et réflexions scientifiques a été prise en considération. » L’IAC souligne aussi « l’utilisation de la littérature dite en demi-teinte provenant de sources non publiées ou non examinées par des pairs a été controversée, bien que souvent de telles sources d’informations et de données soit valables et appropriées pour être incluses dans le rapport d’évaluation… …les auteurs ne suivent pas les consignes du GIEC pour l’évaluation de telles sources ». Il a donc recommandé que ces consignes soient «  rendues plus spécifiques »  et soient « strictement appliquées, afin d’assurer que la littérature non publiée et non examinée par des pairs soit répertoriée de façon appropriée ». On voit donc ici que le contenu de certains articles utilisés ne tenait pas compte des critiques scientifiques que leur avaient fait les comités de lecture des revues auxquelles ils ont été soumis. On comprend aussi que des avis divergents ont été occultés. Quant-à la littérature en demi-teinte elle est qualifiée de souvent (donc pas toujours) valable et appropriée. Voilà bien ce que, suivant E. Morin on pourrait qualifier d’« usage dégradé de la raison »…

4 -  L'IAC appelle enfin à plus de cohérence entre les différents groupes de travail dans la caractérisation de l’incertitude. Il dit du rapport du groupe de travail II, pris en exemple qu’il « contient beaucoup de déclarations qui se sont vues attribuer un niveau de confiance élevé mais pour lesquelles il y avait peu de preuves. »

On voit combien il est essentiel de présenter dans un poly les différents points de vue. La figure 18a, qui reporte les courbes de température des 2 rapports IPCC de 2001 (courbe a) et de 1990 (courbe b) illustre comment l’inquiétude légitime au plan humain d’un changement climatique a pu conduire à plus de 10 ans d’errements scientifiques. La courbe de 2001 (connue sous le nom de courbe en crosse de hockey), due à James Hansen du Goddard Institute, ne montre plus le pic de chaleur des XI° au XIII° siècles bien marqué dans celle de 1990. Cet optimum médiéval n’aurait jamais dû être occulté. Comme le montre la figure 19d il est d’amplitude comparable au réchauffement actuel, et surtout il est connu de longue date et largement documenté :

1 - On connaît dans les années 90 l’épopée Viking au « Pays Vert[7] », leur implantation Viking en 982 Certes l’optimum médiéval n’est pas une période d’une douceur homogène, mais les chroniques médiévales sont connues, qui relatent nombre d’étés chauds en Europe au XII° XIII° siècles et des évènements hivernaux certes exceptionnels mais toutefois marquants, comme une cueillette de fraises à Noël (1116), la  floraison de roses en janvier. Ils témoignent aussi de la culture de la vigne dans le nord de l’Angleterre, ou de l’ouverture régulière du Saint-Gothard à la circulation. Le recul généralisé des glaciers en Europe depuis le début du millénaire jusque vers 1350, historiquement étayés, est quant-à lui l’indicateur d’une globalité du réchauffement, bien sûr contestée par les tenants de la crosse de hockey, arguant entre autres de la non contemporanéité précise entre les évènements d’outre-Atlantique et européens.

2 - L’histoire du refroidissement, elle aussi relatée par les chroniqueurs de l’époque, commence au Groënland à la fin du XII° siècle, avec la disparition des colonies Vikings. Elle se poursuit en Europe, avec une dégradation brutale du climat en quelques décennies au début du XIV° siècle. La disparition de la vigne anglaise n’est pas seulement due au mariage en 1124 du futur roi d’Angleterre Henry II avec Aliénor d’aquitaine qui apporta en dot la région viticole déjà très développée des vins de Bordeaux, elle est aussi climatique[8]. Elle est en effet aussi liée au Petit âge glaciaire,  qui atteint son apogée trois siècles plus tard. Vers la fin du XVI° et jusqu’au milieu du XVII°, l’avancée des glaciers alpins menaçant alors des villages. Leur recul entrecoupé d’avancées a commencé vers 1750.

Que nous enseignent les archives glaciaires ?

Le fort bruitage observé sur les rapports isotopiques de l’oxygène dans les échantillons de glace de subsurface du Groënland (GISP2) ne permet pas d’exploiter le proxi 18O/16O en dessous de 10K.ans BP. Aussi, T. Kobashi et al. (2009, Geophysical Research Letter) ont-ils utilisé les rapports de l’azote (15N/14N) et de l’argon (40Ar/36Ar). Grâce à ceux-ci, outre des périodicités pluridécennales dont nous retrouverons des équivalents dans l’étude des interactions océan-atmosphère (Chp 5 §E), les auteurs ont reconstruit l’augmentation de température de la période 1900-1950, jusqu’à -30°C environ au Groenland, puis la décroissance de 1950 à 1975 (fig. 21a haut).

Fig. 21a : températures du Groenland reconstruites à partir des isotopes de l’azote et de l’Argon

 Depuis 1840, en haut et depuis l’an 1000 au milieu :

en bleu les températures reconstruites avec les isotopes de l’azote et et l’argon  et l’erreur 1s;

en noir, pour comparaison, les températures de l’air du Summit, reconstruite en moyenne glissante (10ans) avec la méthode gaz antérieure ;

en rouge les mesures actuelles in situ (moyennes lissante sur 10 ans d’après Stearns and Weidner, 1991; Shuman et al., 2001; Steffen and Box, 2001) .

En bas depuis 4000 ans : la courbe verte représente la moyenne glissante sur un siècle.

  

Les informations des figures 17 à  20 sont donc une nouvelle fois confirmées, par une technique différente. Mais surtout, cette étude, en remontant plus loin dans le temps, confirme la réalité au Groenland du petit âge glaciaire entre 1700 et 1800 et de l’optimum médiéval vers 1100 (Fig. 21a milieu), confirmant ainsi que les caractéristiques climatiques tirées de la littérature historique européenne ont une représentativité plus large, probablement extensibles à l’hémisphère nord au moins. Enfin La figure 21a bas confirme qu’à l’échelle des variations millénales le réchauffement actuel ne semble pas exceptionnel.

Nous sommes sortis du dernier épisode climatique froid (le Dryas) vers 11000 ans BP (Fig. 21b) de manière très brutale.

 Persistent multi-decadal Greenland temperature 2

Fig.21b : Courbe des températures construite à partir des isotopes des gaz des bulles dans les glaces,

Données NOAA, GISP 21° valeur : 95 ans BP, T° -31.59°C

ftp://ftp.ncdc.noaa.gov/pub/data/paleo/icecore/greenland/summit/gisp2/isotopes/gisp2_temp_accum_alley2000.txt

On observe une remontée jusqu’à des températures ½° à 1°C plus chaudes qu’actuellement — voir à l’extrême gauche de la figure, la remontée et le maximum vers -9000 ans ; il faisait  au Groënland  -30° à -29.5°C, contre -30.5 actuellement — suivie d’une lente descente pendant 5000 ans avec  des pointes à presque 2°C de plus  qu’aujourd’hui, mais aussi des périodes très froides à presque 3°C de moins. Ensuite la température remonte jusque vers -3000 ans avant de redescendre lentement,  jusqu’au petit âge glaciaire. La courbe se termine par la remonté actuelle (en rouge Fig. 21b). La lente descente vers le petit âge glaciaire est entrecoupée  de plusieurs épisodes plus chauds que la moyenne de l’époque (en vert dans la figure), mais aussi plus chauds qu’aujourd’hui pour les 2 premiers (optimum minoen et optimum romain) ou aussi chaud (optimum médiéval). A défaut de données disponibles pour cette période pour le Groënland, les valeurs de la teneur en CO2 atmosphérique utilisées ici (Fig. 21b en bas)  sont celles des bulles de glace de l’Antarctique (programme EPICA, European Project for deep Ice Core drilling in Antarctica). Noter que durant toute la durée de l’Holocène la concentration en CO2 décroît d’abord un peu puis remonte lentement, sans aucune corrélation avec les variations de températures, certes de l’hémisphère nord, mais de plusieurs degrés d’amplitude…

Ces réchauffements anciens ont eux aussi été mis au jour par des archéologues à des latitudes élevées (Champagne, région Parisienne, Angleterre). Ils ont observé des alignements de fosses rectangulaires gallo-romaines semblables à ce que l'on retrouve sur des sites de vignes gallo-romaines du Sud de la France. Selon S. Chevrier de l’Inrap (2009), ces fosses, découvertes récemment en Champagne, sont bien celles de vignes, « les dimensions réduites des fosses permettent d'exclure l'hypothèse d'un verger. Le « fantôme » de petit arbuste observé dans la terre de remplissage a la taille d'un pied de vigne ».

Ainsi restitué dans le contexte général des températures de l’hémisphère nord depuis la sortie du glaciaire, le réchauffement du XX° siècle est considéré par nombre de chercheurs, dits « climato-sceptiques », comme le démarrage d’un nouvel évènement chaud, qui doit être a priori considéré comme comparable aux précédents. Les valeurs de température fournies par la NOAA que nous avons tenté d’exploiter dans les figures 18-19 ne contredisent pas une telle hypothèse. On observe en effet que le cumul des anomalies résiduelles de température sur la période 1882-2009 n’est pas réparti de manière homogène sur l’année mais qu’il pourrait exister une différence saisonnière dans l’augmentation de la température globale de la Terre. La figure 19d montre que le cumul des anomalies est plus fort pour la période hivernale que pour la période estivale ; ce phénomène est en plein accord avec l’évolution actuelle des paramètres de Milankovitch (cf. §F.4.b, « Les changements cycliques du climat »), diminution de l’ellipsité de l’orbite de la Terre, diminution de l’angle du cône de précession qui tendent à amoindrir le contraste été-hiver.

Un autre aspect souvent abordé dans le débat climatique est le recul de la banquise et des glaciers continentaux en de nombreux points du globe. Ce recul est un indice essentiel de l’augmentation de la température. Faut-il considérer que les 2 sont liés au CO2 anthropique, comme l’illustrerait alors la corrélation entre anomalie résiduelle cumulée et concentration de CO2 (Fig. 19b) depuis les années 60 ?

L’avancée ou le recul d’un glacier ne sont pas à l’image des seules conditions de température ambiante. Ils dépendent avant tout du bilan de masse entre alimentation, fonte et sublimation, vitesse d’avancement et différence d’altitude entre haut et bas du glacier. Néanmoins, La figure 22a (2 diagrammes)  confirme que les glacier continentaux ont connu  une l’accélération du recul qui, lorsqu’elle est observable, se produit vers 1930, donc en même temps que la rupture de pente sur la courbe d’élévation du niveau marin dans la figure 17, soit 10 ans après la 1° rupture de pente de la courbe des températures.

fig2-18http://venturaphotonics.com/sitebuilder/images/Fig26_Glaciers.1-600x592.jpg

Fig. 22a : recul des glaciers dans le monde depuis 5 siècles.

 Les ruptures de pente majeures du CO2 et de production d’hydrocarbures (Fig. 17) se produiront 30 ans plus tard, vers 1960… Le CO2 est-il « la » cause du changement climatique ? Plus globalement, le recul des glaciers continentaux apparaît même très antérieur à cette accélération. Pour 6 glaciers (pour lesquels la figure nous présente des observations plus anciennes que 1850) le recul commencerait avec la sortie du petit âge glaciaire, bien avant la période industrielle. Le Vatnajökull (Islande) avançait  et 2 glaciers alpins, L’Argentière et le Grindelwald, étaient stables. Par contre, les glaciers du Rhône et le Franz-Joseph (Nouvelle Zélande) étaient déjà clairement en recul. Le recul des glaciers peut donc être considéré comme un phénomène plus ancien que le début de l’accumulation de CO2 industriel, mais accéléré depuis 1930. En outre, vers 1980, certains on même recommencé à croître (Fig. 22a  droite).

C. Vincent.et al. (2005) ont montré (fig. 22b) qu’en fait, pour les glaciers alpins, il n’y a pas de corrélation entre le recul et la température, la cause du recul résidant dans une modification de la pluviosité et des chutes de neige. Pour ces glaciologues du Laboratoire de Glaciologie et Géophysique de l’Environnement de Grenoble le paradoxe du recul généralisé des glaciers alpins à la fin du Petit Age de Glace il y a 150 ans résulterait donc d’une diminution de plus de 25% de la précipitation neigeuse hivernale, alors que les températures estivales restaient stables. Par contre l’accélération du recul des glaciers durant la seconde partie du XX° siècle pourrait, elle, peut-être résulter directement de l’augmentation de la température observée ? Mais si cette accélération semble bien correspondre au changement de pente de la remontée du niveau marin, elle ne correspond pas à la 1° rupture de pente du CO2 et elle est antérieure de 30 ans à l’accélération de l’exploitation massive des combustibles fossiles et au 2° changement de pente de la courbe du CO2 (2° point de rupture). D’une manière globale, le problème de la fonte des glaces n’est pas encore parfaitement bien compris.

Schema - Recul glaciers alpins

Fig. 22b : non corrélation entre longueur des glaciers alpins et température estivale

« Fluctuations de longueur du glacier des Bossons (en haut) et températures estivales observées dans le massif alpin depuis 1760, relativement à la moyenne du 20ème siècle (en bas). Les fluctuations des Bossons, comme d'autres glaciers des Alpes, montrent que les glaciers alpins ont gagné du volume, en moyenne, entre 1760 et 1830. Cette crue glaciaire s'oppose à l'évolution des températures qui indiquent, pour cette période, une moyenne supérieure à celle du 20ème siècle » http://www2.cnrs.fr/presse/communique/681.htm

Dans l’hémisphère nord, le recul de la banquise et la fonte de l’inlandsis groenlandais sont de plus en plus marqués en été, avec une pente fortement négative de l’anomalie par rapport à la moyenne de la même durée 1981-2010 (Fig. 22c-1, courbe noire).

Fig. 22c-1 : recul de la banquise Arctique (courbe noire) et de l’inlandsis Antarctique (courbe violette).

Tiré de https://nsidc.org/data/seaice_index/

Le recul par rapport à la moyenne est de l’ordre de 10% en hiver et de 25 à 50% en été. Les courbes annuelles de la surface de la calotte arctique (Fig. 22c-2a) montrent un approfondissement net du minimum estival et, pour l’heure, une perte plus limitée de l’extension hivernale.

    

 

A gauche 1979-2000, à droite 2007-2016. Les années intermédiaires (2001 à 2007) n’ont pas été figurées pour la clarté du propos.

Fig. 22c-2a, courbes de la surface de glace Arctique.

Inversement, la surface de la calotte Antarctique montre pendant le même laps de temps une légère  augmentation (courbe violette dans la figure 22c-1, voir Fig. 22c-2b). Compte tenu de la différence de surface des deux calottes, cette petite augmentation antarctique représente environ 50% de la perte de surface estivale arctique.

 

A gauche 1979-2000, à droite 2007-2016

Fig. 22c-2b, courbes de la surface de glace Antarctique.

http://nsidc.org/arcticseaicenews/charctic-interactive-sea-ice-graph/

En bleu dans la figure 22c-1, la surface de la calotte Antarctique montre une légère  augmentation depuis 30 ans environ. Pourtant, les bilans effectués pour l’antarctique ces dernières années par les équipes du GIEC (Davis et al. 2005 ; Zwally et al. 2006) ont permis de montrer que les bilans locaux peuvent être positifs ou négatifs (Fig. 22d). Les variations sont faibles et leur amplitude est du même ordre que l’erreur liée à la mesure. Il faut donc les surveiller de très près en fonction de l’évolution à venir du climat. Elles signifient en effet que, pour l’heure, la contribution de l’antarctique à l’élévation du niveau marin est négligeable, mais elle pourrait ne pas le rester si la température terrestre devait augmenter.

Fig. 22d: taux de variation de l’altitude de la surface glaciaire antarctique (dS/dt);

mesures radar altimètre effectuées de 19920 2003 over the Antarctic Ice Sheet. Triangle = Zone de front de glace fortement (30 cm/an) aminci (bleu) ou épaissi (rouge).

Car la conséquence majeure du recul des glaciers continentaux réside dans leur contribution à la remontée du niveau marin. En effet, à cette échelle de temps, les deux paramètres capables d’avoir une influence sur le niveau marin sont d’une part la variation du poids volumique moyen de l’eau (effet d’ordre décimétrique), et d’autre part et surtout, la masse de l’eau océanique stockée hors de l’océan mondial. Les banquises sont des glaçons flottants, donc leur taille ou leur épaisseur sont sans influence sur le niveau de la mer. Lors d’une glaciation, une part de la masse soustraite à l’océan par l’évaporation dans les régions chaudes est stockée sous forme solide (neige et glace) sur les continents placés en région froide (actuellement Nord-Amérique,  Nord Eurasie, Groënland et Antarctique) et n’est rendue massivement à l’océan que lors de la déglaciation. Au plus froid de la dernière glaciation, le niveau moyen des mers était 120-130 m plus bas qu’aujourd’hui. Vers 19 000 ans la température commence à remonter (sortie du Dryas) et avec elle le niveau marin s’élève lentement. Mais ce retour vers un interglaciaire chaud ne se produit pas de manière régulière. Il se fait en plusieurs stades entrecoupés de refroidissement relativement brefs, que les chercheurs observent, par exemple sur les coraux des Barbades, ou bien sur le retour des coléoptères en Grande-Bretagne, ou encore dans l’étude avancées et reculs des rivages. plusieurs accélérations se produisent lors de la remontée, « 'meltwater pulse » Blanchon 2011, Fig. 23a, donnée par Fleming et al. 1998, Fleming 2000, & Milne et al. 2005.) avec 3 périodes majeures d'élévation du niveau de la mer qui impliquent une fonte extrême des calottes polaires Antarctique et/ou Nord-Amérique (Laurentide).

Fig. 23a: élévation du niveau de la mer depuis le dernier maximum glaciaire;

http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png.

data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005

Le premier épisode (1A) dure 300 ans, de 14 600 à 14 300 BP, et le second (1B) de même, entre 11 400 et 11 100 BP, et les vitesses de remontée du niveau marin y sont exceptionnelles (>45 mm.an-1) : 13.5 m en 290 ans  au plus fort de l’épisode 1A et 7,5 m sur environ 160 ans de l’épisode 1B. Un troisième « meltwater pulse » (1C), tout aussi brutal avec un pic de 6.5m d’élévation en 140 ans, interviendra plus tard, vers 8000 BP, contrastant avec la période 14 300 - 11 100 BP, marquée un retour du froid (Dryas récent) et par une forte baisse de l'élévation du niveau de la mer, de l’ordre de 6 à 10 mm.ans-1 au lieu des 20 mm annuels moyens durant le reste de la remontée (Cronin, 2012)[5]. Le réchauffement très court (à peine 500 ans) autour de 12700 ans BP a été lui aussi très brusque : en moins d'un siècle, la température estivale est remontée de 15°C, rejoignant pratiquement le niveau actuel des températures. A l’échelle des observations présentées ici (Fig. 23b), la remontée de l’océan devient lente vers 7000 BP (5 à 6 m) puis le niveau de l’océan mondial apparaît stable depuis 2000 ans environ.

Fig. 23b : -1 élévation du nieau de la mer à l’holocène

http://en.wikipedia.org/wiki/File:Post-Glacial_Sea_Level.png.

data from Fleming et al. 1998, Fleming 2000, & Milne et al. 2005

 

Néanmoins, les travaux de détail sur l’évolution du trait de côte et des paysages — e.g. L. Visset & J. Bernard, 2006, paléo-anthropo-palynologie sur le littoral breton ; K.-E. Berhe 2003 du Niedersächsisches Institut für historische Küstenforschung  sur le littoral de Basse Saxe — suggèrent que le niveau moyen des mers n’a jamais cessé de remonter, du moins dans les zones d’études concernées. D'après K.-E. Berhe, le facteur essentiel dans la modification du trait de côte de Basse Saxe est bien la fluctuation de la remontée du niveau marin et il présente (Fig. 23c) une reconstruction des variations du niveau maritime  basée sur des observations archéologiques, géographiques, géologiques et botaniques.

behre

Fig. 23c: élévation du niveau de la mer depuis 1000 ans, d’après Behre K.E., 2003

http://co2thetruth.e-monsite.com/rubrique,montee-des-mers,404968.html

La courbe, valable pour la mer du Nord, permet de tirer des conclusions intéressantes :

1 -Des hausses et des baisses de niveau marin très rapides ont eu lieu notamment ces derniers 1000 ans, pouvant atteindre 4, voir 8 millimètres par an comme celle qui correspond à la sortie du petit âge glaciaire ;

2 -Ces valeurs importantes sont encadrées par une montée moyenne de 1 mm/an depuis 3000 ans.

A l’échelle globale, la courbe d’élévation du niveau marin présentée par le GIEC 2007 (Fig. 17) ne débute pas avant 1870. Mais elle montre elle aussi des variations de la vitesse de remontée, à savoir :

1 -     Le montée du niveau marin est positive dès le début de la courbe présentée ; une élévation régulière est mesurable (0.9 mm /an) pour la période 1870-1920. Celle-ci est compatible avec l’évaluation moyenne de Berhe ;

2 -     une accélération brutale apparaît (rupture de la pente) vers 1930 ;

3 -     postérieurement à 1930, on peut distinguer quatre segments témoignant d’une remontée en quatre épisodes plus ou moins rapide, 2.4 mm/an puis 2.1 puis 3.5 à 3.7 mm /an et enfin 1.9 mm/an.

Ces pentes, reportées dans la figure 23c, confirment les conclusions tirées de la figure de K. E. Berhe. Il conviendrait de rechercher d’autres études archéologiques pour confirmer la cohérence des valeurs modernes de remontée avec celles de K. E.  Berhe. En 2013, N. Scafetta conduit une approche graphique des variations de l’accélération de la remontée du niveau de la mer tantôt positive et tantôt négative, confirmant ainsi les travaux de Becke, et il observe la coïncidence de ces variations avec la période de quasi 60 ans de l’AMO et de la PDO et de la NAO (voir Chp5.E.4, couplages océan-atmosphère). La courbe du niveau marin depuis 1992 (Fig ; 23d) montre que l’élévation continue, autour d’une moyenne régulière sur cette période, mais avec des variations de pente du même ordre de grandeur que celles citées plus avant.

 

Rouge Topex, bleu et vert Jason 1 puis 2, courbe lissée à 60 jours en noir

Fig. 23d:   élévation de 1992 à nos jours

http://sealevel.colorado.edu/

On a admis longtemps que 50% de l’élévation du niveau des mers au cours du XX° siècle (période de recul maximum des glaciers) étaient dus à la dilatation thermique de l’océan et 50% dus à la fonte des glaciers (voir Eustatisme § E6). Donc, durant les décades plus froides, 1870-1920, 1945-1975, non marquées par une augmentation de la température (Fig. 17), l’essentiel du signal aurait dû correspondre au recul des glaciers. Mais alors, le recul ante-industriel des glaciers ou l’élévation du niveau marin durant ces épisodes froids se trouvait en contradiction avec la courbe des températures moyennes, stables voire décroissantes pour ces périodes. On admet en 2012 que l’essentiel de la hausse du niveau marin serait causé par la fonte des glaciers (voir § E6).

Qu’en fut-il lors des autres interglaciaires ? Le mieux connu est le précédent, qui s’installe entre les glaciations du Riss et du  Würm et dure de 131000 ans à 114000 ans BP. On estime le climat été-hiver peu contrasté, et la température régnant durant cette période au minimum comparable à celle de l’holocène. Elle aurait dépassé l’actuelle de  1.5 à 2°C, voir 3 à 5°C selon les auteurs. Reprenant différentes sources, K.M. Cuffey & S.J. Marshall confirment dès 2000 dans Nature que le niveau de la mer était alors au moins trois mètres (et peut-être plus de cinq mètres) plus élevé que le niveau actuel. Pour nombre d’auteurs (dont ces derniers) l'inlandsis du Groenland était en effet considérablement plus petit pendant l'Eemien que maintenant et ses bordures étaient plus abruptes que dans l’état actuel, au point que se pose la question (encore d’actualité) de l’exposition du substratum rocheux sur les lieux des forages les plus périphériques dans l’inlandsis actuel[6].

On estime que la disparition complète de l'inlandsis de l'Antarctique occidental ou celle du Groenland entraînerait aujourd'hui une élévation du niveau de la mer de 6 à 7 mètres. Aussi, la remontée actuelle du niveau marin est-elle l’objet d’une forte inquiétude car elle risque d’induire des catastrophes et des déplacements massifs de populations. Il en fut ainsi l’hiver 2013-2014 ou lors de l’évènement de « vimer » Xynthia qui endeuilla la façade maritime française en février 2010. Un vimer est une submersion marine liée à la conjonction d’évènements cycliques, des marées d’exception —  les coefficients >110 sont des évènements pluriannuels classiques des équinoxes — avec des épisodes climatiques accidentels (mais bien sûr saisonniers) tels que des queues de cyclones qui viennent mourir de ce côté de l’Atlantique ou des tempêtes hivernales balayant l’ouest-européen. De telles dépressions engendrent une onde de tempête dont la hauteur conduit à une surcote de l’onde de marée pouvant dépasser plusieurs mètres. La cote atteinte dans le cas de Xynthia, tempête + marée, a été de 7m à 7.3 m ZH (au-dessus du Zéro Hydrographique), soit une altitude de 3.5 à 3.8 m NGF (Nivellement Général de la France). L’histoire locale des côtes basses en Europe  rapporte 22 tempêtes dépassant force 10 sur l’échelle de Beaufort pour les 5 derniers siècles, avec une fréquence variable, et donc hélas le temps d’oublier. On comprend l’inquiétude des riverains, habitant parfois à des cotes NGF négatives, qui se voient devoir affronter un réchauffement risquant de se traduire par des décimètres, voire des mètres, de montée du niveau marin.

Dernières inquiétudes liées à l’augmentation des températures durant le XX° siècle, la fréquence et la violence des cyclones — dont nous discuterons plus loin l’évolution avec l’étude des océans (§D2), — et la sécheresse.

On dispose de peu d’informations sur l’évolution historique de la pluviométrie en relation avec le climat. Deux sources indépendantes peuvent être évoquées : i) les modèles des climatologues considèrent maintenant que si les scenarios du GIEC se réalisaient, leur influence sur la pluviométrie serait sans doute plus importante en terme de modalité (périodes courtes de pluies intenses) qu’en terme de quantité ; ii) les travaux sur les cernes de croissance d’arbres en Europe, conduits par l’équipe de Ulf Büntgen et Willy Tegel, publiés en 2011 (Fig. 24 page suivante) confirment qu’il n’y a pas eu de variations importantes de la pluviométrie  depuis 2500 ans malgré les différents changements de température.

 

Cette remontée actuelle du niveau marin est bien sûr l’objet d’une forte inquiétude car elle risque d’induire des catastrophes et des déplacements massifs de populations. Il en fut ainsi en lors de l’évènement de « vimer » Xynthia qui endeuilla la façade maritime française en février 2010. Un vimer est une submersion marine liée à la conjonction d’évènements cycliques, des marées d’exception —  les coefficients >110 sont des évènements pluriannuels classiques des équinoxes — avec des épisodes climatiques accidentels (mais bien sûr saisonniers) tels que des queues de cyclones qui viennent mourir de ce côté de l’Atlantique ou des tempêtes hivernales balayant l’ouest-européen. De telles dépressions engendrent une onde de tempête dont la hauteur conduit à une surcote de l’onde de marée pouvant dépasser plusieurs mètres. La cote atteinte dans le cas de Xynthia, tempête + marée, a été de 7m à 7.3 m ZH (au-dessus du Zéro Hydrographique), soit une altitude de 3.5 à 3.8 m NGF (Nivellement Général de la France). L’histoire locale des côtes basses en Europe  rapporte 22 tempêtes dépassant force 10 sur l’échelle de Beaufort pour les 5 derniers siècles, avec une fréquence variable, et donc hélas le temps d’oublier. On comprend l’inquiétude des riverains, habitant parfois à des cotes NGF négatives, qui se voient devoir affronter un réchauffement risquant de se traduire par des décimètres, voire des mètres, de montée du niveau marin.

Dernières inquiétudes liées à l’augmentation des températures durant le XX° siècle, la fréquence et la violence des cyclones — dont nous discuterons plus loin l’évolution avec l’étude des océans (§D2), — et la sécheresse.

On dispose de peu d’informations sur l’évolution historique de la pluviométrie en relation avec le climat. Deux sources indépendantes peuvent être évoquées : i) les modèles des climatologues considèrent maintenant que si les scenarios du GIEC se réalisaient, leur influence sur la pluviométrie serait sans doute plus importante en terme de modalité (périodes courtes de pluies intenses) qu’en terme de quantité ; ii) les travaux sur les cernes de croissance d’arbres en Europe, conduits par l’équipe de Ulf Büntgen et Willy Tegel, publiés en 2011 (Fig. 24) confirment qu’il n’y a pas eu de variations importantes de la pluviométrie  depuis 2500 ans malgré les différents changements de température.

 

Fig. 24 : Reconstruction des précipitations estivales à partir des cernes des arbres.

 

L’une des empreintes essentielles des GES sur la température de l’atmosphère, prévue par les modèles et considérée comme caractéristique, donc très recherchée, est la présence d’un point chaud aux basses latitudes, à environ 10km d’altitude, que l’on nomme « tropospheric hotspot » (Fig. 25a & b).

Fig. 25a: le modèle de températures, GIEC 2007, Chp 9 Fig. 9f, sum of all forcings : Coupes NS de l’atmosphère après 1 siècle d’effet de serre (XX°)

(a) solar forcing, (b) volcanoes, (c) wellmixed greenhouse gases, (d) tropospheric and stratospheric ozone changes, (e) direct sulphate aerosol forcing.

2) les valeurs observées actuellement

http://www.emse.fr/%7Ebouchardon/enseignement/processus-naturels/up1/web/la-terre-est-ronde/terre-ronde-geodynamique-0502-atmosphere-troposphere-effet-de-serre_fichiers/image064.jpg

U.S. Climate Change Science Program Synthesis and Assessment Product 1.1, Chp 5 p 116

Fig. 25b: Coupes NS de l’atmosphère, les valeurs observées actuellement,  après 1 siècle d’effet de serre (XX°).

Aucun point chaud n’a été observé et depuis 2007 la discussion fait rage : Les modèles de circulation globale sont-ils pris en défaut ? Les phénomènes d’amplification de l’effet de serre sont-ils contrôlés par d’autres variables que celles prises en compte, telles que la variation de la teneur en vapeur d’eau avec l’altitude par exemple ? Les relevés de température de la troposphère sont-ils déficients ? Est-ce toute notre appréciation du principe même de l’effet de serre qui est à revoir ?

Le rôle des radiations solaires.

Les radiations solaires, UV, visibles et IR sont en fait le premier facteur qui régit le climat. Cette source d’énergie n’est pas exactement constante, et il a été observé depuis le début du XX° siècle des covariations étroites entre l’activité magnétique du soleil et la fréquence des taches solaires. Celles-ci sont d’ailleurs observées depuis plusieurs siècles et les variations de leur nombre ont été mises en relation avec un  cycle d’activité de 11 ans environ. En fait, cette période n’est pas exactement constante, et plus le soleil est actif (plus le nombre des taches augmente) plus la période de ce cycle se raccourcit, jusqu’à moins de 10 ans. Parmi plusieurs tentatives menées depuis les années 90 pour évaluer l’incidence de l’activité solaire sur le climat terrestre, retenons les études de W.H.S. Soon 2009 du Harvard-Smithsonian Center for Astrophysics Cambridge, Massachusett pour la période 1850-2000 (Fig. 26a-1) ou celle de Y.I. Stozhkov parue en 2017 dans Bulletin of the Russian Academy of Sciences (Fig. 26a) :

W.H.S. Soon 2009                                                                            Y.I. Stozhkov 2017

Fig.26a : Activité solaire (Total solar irradiance) et Anomalie de T° de l’atmosphère arctique.

La moyenne de l’activité solaire est définie par l’intervalle entre deux maxima de taches solaires. En 2009, La courbe publiée par  Soon avait été contestée, notamment sur le choix de la courbe des anomalies de température prise en référence, celles de l’hémisphère Nord. On notera que dans la publication de Stozkov, la moyenne de l’activité solaire, définie elle aussi par l’intervalle entre deux maxima de taches solaires, coïncide avec la courbe de l’anomalie  globale de la température, et que, à l’exception des 2 dernières années, cette coïncidence est « presque aussi bonne » que le modèle complexe anthropique + naturel de l’IPCC, qui rappelons le, prend en compte l’activité solaire (Fig. 20, p. 133). La même coïncidence est observable dans la figure 17 avec les courbes d’irradiance (bleu) et de durée des cycles solaires (vert).

En l’absence d’une théorie explicative convaincante de l’influence solaire, les modèles les plus récents continue à minimiser l’influence solaire en face de celle des GES et le rapport du GIEC 2007 considère que « les variations de l’éclairement énergétique solaire ont provoqué, depuis 1750, un léger forçage radiatif de + 0,12 [+ 0,06 à + 0,30] W/m2, soit moins de la moitié de la valeur estimée figurant dans le 3° Rapport du GIEC.

Mais plusieurs astrophysiciens considèrent que le problème est mal posé, et que seule la partie haute énergie du spectre UV du Soleil doit être prise en compte ; elle est responsable de la fabrication de l’ozone et du chauffage de la haute atmosphère, qui conditionne la structure thermique de l’atmosphère. Les variations de la concentration d’ozone avec les cycles solaires pourraient expliquer 20% de la variation de la température. Les données les plus récentes obtenues sur la tranche des 8 premiers Km à partir des satellites et non les valeurs au sol, suggèrent qu’un découplage entre valeurs du CO2 atmosphérique et température est en train de se produire, confirmant le rôle de l’activité solaire. D'après R. Fairbridge, et selon I. R. G. Wilson, B. D. Carter et I. A. Waite 2008, ce sont les déplacements du Soleil autour du Barycentre de notre système qui sont à l'origine des variations de l'intensité et des durées des cycles éruptifs du soleil. Bien évidemment la position des deux géantes gazeuses, Jupiter et Saturne jouent un rôle prépondérant dans le déplacement du Soleil. L’étude historique des cycles solaires a montré la coïncidence de l’activité solaire minimale et de la durée maximale du cycle lors de leur alignement, correspondant à un déplacement maximum du Soleil. L’affaiblissement du cycle 23 et le démarrage très retardé du cycle 24 (Fig. 26b) sont conformes au modèle « SIM » (Solar Inertial Motion, mouvement inertiel du soleil) de R. Fairbridge. Celui-ci prédit une atténuation nette et progressive des cycles solaires de 2010 à 2040. Faut-il en conclure, par opposition au modèle GIEC un refroidissement généralisé de la planète ?

 Afficher l'image d'origine

Fig.26b : Cycle 24 de l’activité solaire.

Le minimum d’activité solaire (fin du cycle 23) ayant tardé jusqu’en Mars 2009, le maximum du cycle 24 a été atteint en mai 2013 avec un nombre de taches très inférieur au maximum enregistré en 2000 par le cycle 23

http://www.swpc.noaa.gov/SolarCycle/index.html

Pour Enrik Svensmark (2007) et son équipe du Centre national danois de l’espace (DNSC, Copenhague http://cr0.izmiran.rssi.ru/mosc/main.htm) la relation entre l’activité solaire et le réchauffement climatique réside dans l’interaction entre la formation des nuages de basse altitude, qui accroissent l’effet de serre (contrairement aux cirrus dont les paillettes de glace augmentent l’albédo de la planète) et le rayonnement cosmique d’origine galactique. Plus celui-ci pénètre notre atmosphère et plus l’ionisation qu’il y produit est favorable à la nucléation des gouttes d’eau. Les électrons libérés participent en effet à la création de petits noyaux de condensation dans la vapeur d'H2O. S’ils sont assez nombreux, ces micronoyaux se regroupent en petits paquets et condensent la vapeur d'eau présente dans l'atmosphère, formant ainsi des gouttelettes d'eau. Les nuages se forment en effet par condensation de la vapeur d’eau présente dans l’atmosphère. Ordinairement, pour que cette condensation se fasse, un peu comme la buée se forme sur une surface froide, il faut, outre le refroidissement de la parcelle d’air environnante, la présence de petites particules (aérosols). Les rayons cosmiques (galactiques) de haute énergie qui pénètrent dans l'atmosphère terrestre agissent donc comme des catalyseurs de cette réaction, mais ils sont plus ou moins déviés par les orages magnétiques engendrés lors des éruptions solaires.

La variation de l’activité solaire, que traduit le nombre des taches, accroît ou diminue l’intensité de son champ magnétique. Celui-ci constitue donc un bouclier d’efficacité variable, détournant plus ou moins de la Terre le rayonnement cosmique, modulant de ce fait l’action du champ galactique sur la nucléation des nuages. Ont-ils raison ? Cette hypothèse très controversée au départ, fait l’objet de l’expérience Cloud[14] au CERN, débutée en 2010. La publication dans Nature en 2016 d’un article de J. Kirby et al. (69 autres auteurs) fait le point sur la nucléation induite par les ions proposée par  Svenmarks et le programme Cloud : les auteurs, en chambre expérimentale de grande taille reproduisant les conditions atmosphériques sans acide sulfurique, dans laquelle ils ont introduit un mélange d'oxydants naturels présents dans l'air et un hydrocarbure organique classiquement libéré par les plantes de conifères. L'hydrocarbure s'est rapidement oxydé et provoque la formation de particules d'aérosols. Ils constatent qu’à ce stade  « les ions des rayons cosmiques galactiques (qui traversent la chambre) augmentent le taux de nucléation d'un à deux ordres de grandeur par rapport à la nucléation neutre », et donc que l’acide sulfurique n’est pas indispensable à la nucléation des nuages et donc la couverture nuageuse préindustrielle n’était pas nécessairement moins importante que l’actuelle. T. Wogan reprend ces résultats et différents autres dans Sciences (2016), et conclue de ces nouvelles études sur les nuages que « le climat de la Terre pourrait ne pas se réchauffer aussi vite qu'on le pensait. » Car en effet, si comme le précise Kirkby, de nos jours la voie basée sur les végétaux est beaucoup moins importante qu’elle ne le fut en situation pré-industrielle, la couverture nuageuse des temps pré-humains devait néanmoins être proche de ce qu'elle est de nos jours. Donc le refroidissement résultant de la pollution humaine pourrait être moins important que prévu, signifiant que la Terre ne se réchauffe pas autant qu'on le pense en réponse aux seuls gaz à effet de serre.

On retrouve cette anomalie du rapport 14C/12C  dans les organismes vivant (e.g. cernes d'arbre) chez qui elle constitue un proxi des minima solaires. Dans la figure 26c-haut, la correspondance entre forte intensité du rayonnement cosmique relevée par le proxi d14C et petit nombre de taches solaires est remarquable. La durée de vie des arbres en fait un indicateur de l'activité solaire globale sur quelques milliers d'années. La conférence débat de Jean-Marie Malherbe à l'Académie des Sciences du 19 Juin 2012, rappelle que selon Kasaba et Tokashima (2005) figure 26c-bas on peut suspecter l'existence de plusieurs minima, durant cette période : un vers 1050 (minimum de Oort) ; un second vers 1350 (minimum de Wolf) ; puis un vers 1500 (minimum de Spörer) ; et enfin vers 1700 et 1830, les minima de Maunder et Dalton. Inversement les auteurs discernent deux optima, médiéval (vers 1200) et contemporain. Ce dernier est dénommé Grand Maximum ou optimum moderne.

Fig. 26c : activité solaire, rayons cosmiques et 14C (opposé des fluctuations)

http://solaire.obspm.fr/images/documentation/InversionsBsolaire.pdf

L'irradiance solaire est considérée comme le paramètre fondamental du climat, car elle conditionne l'énergie reçue par la Terre. C’est donc « le » paramètre intégré dans les modèles de réchauffement du climat. Au cours du cycle solaire, sa variation autour de sa moyenne de 1366 W m-2 est de 1 W m-2 seulement soit moins de 1/1000 en valeur relative. Est-ce pour autant négligeable ? La conférence débat de Jean-Marie Malherbe rapporte que dès 1995, J. Lean, J. Beer et R.Bradley ont établi une corrélation étroite entre le nombre de taches par cycle et l'irradiance. Au cours des quatre derniers siècles, l’'irradiance solaire (Fig. 26d, en haut,  courbe bleue et courbe lissée rouge) suit globalement bien dans ses grandes lignes l’alternance de séries de cycles à forte irradiance et de séries de cycles à faible irradiance(courbe noire), vers 1900,-1880, vers 1820-1800 et surtout lors du grand minimum de Maunder 1700-1650, connu par les observations des astronomes du XVIIème siècle et par le comptage des aurores boréales.

http://solaire.obspm.fr/images/documentation/InversionsBsolaire.pdf

SBF = Steinhilber et al. (2009); WLS = Wang et al. (2005); MEA = Muscheler et al. (2007); VSK = Vieira et al. (2011); LBB = Lean et al. (1995).

https://www.ncdc.noaa.gov/global-warming/last-1000-years

Fig. 26d : irradiance solaire et cycle solaire

Dans le numéro spécial de Earth and Planetary Sciences « Global Warming - Impacts and Future Perspective, » publié en 2012, S. Duhau résume les connaissances sur le fonctionnement du Soleil et son impact sur le climat dans le chapitre 7 « Solar Dynamo Transitions as Drivers of Sudden Climate Changes ». Pour l’auteur, 4 variables dans l’activité solaire sont à prendre en compte et pas seulement l’irradiance totale (TSI, c’est la seule qui soit prise en compte par les modèles climatiques actuels) ;  l’auteur fait intervenir aussi les éruptions solaire (SF, Solar Flares), en tant que producteurs de la partie la plus énergétique du spectre, les éjections de masse coronale (CME)  solaire et les variations du champ magnétique coronal, dont le flux intervient dans la modulation du flux cosmique, évoqué plus avant avec les travaux de Svensmark. Ces variables peuvent être décrites comme une fonction de la variation des champs toroïdal — dont les taches sont l’expression et le nombre de taches traduit l’intensité au maximum du cycle — et poloïdal — dont l’intensité du champ est la seule présente au minimum du cycle, lorsque le nombre des taches est faible ou nul — qui conduisent à 3 situations : un fonctionnement ordinaire avec des cycles solaire dont l’intensité est moyenne, et deux phases opposées, l’une correspondant à un minimum d’activité (type minimum de Maunder) et l’autre à une activité maximum des cycles solaires. 1924 constitue la date de démarrage du dernier grand maximum, qui a atteint à la fin du XX° siècle sa plus haute activité depuis 400 ans, la sortie du minimum de Maunder. L’affaiblissement du cycle 23 par rapport aux précédents et le mode de transition du cycle 23 au cycle 24 sont comparables aux débuts des Grands Minimums précédents, augurant d’une période de très faible activité solaire pour les cycles solaires à venir. Le début du cycle 24 est conforme à une telle prévision. Dans la mesure où, dans la période préindustrielle, la sortie du minimum de Maunder s’est accompagnée d’une hausse  moyenne des températures estimée à 0.5°C et par comparaison à la hausse de 0.8°C durant le Grand Maximum moderne, contemporaine de l’accroissement important de GES dans l’atmosphère, deux questions se posent. Le Grand Maximum solaire explique-t-il plus de 50% du réchauffement observé ? Le retour vers un Grand Minimum peut-il se traduire par une baisse significative des températures ?

On voit combien l’approche du changement climatique est un problème complexe encore mal maîtrisé. Dans l’espace public, la crainte suscitée par la complexité scientifique du problème s’est vue renforcée par le débat politique-écologique-médiatique qui a substitué à la notion de changement celle de dérèglement, à l’analyse des risques le principe de précaution, véhiculant ainsi la peur d’un avenir devenu incertain et appelant à un retour à la règle. Quelle règle ? Quel état antérieur ? Le climat a toujours été en cours de changement. Faut-il alors balayer d’un revers notre capacité à nous nuire à nous-mêmes ? Le déstockage des combustibles fossiles est considérable. Il rend à l’atmosphère une partie du carbone lentement minéralisé durant les temps géologiques. Nous le consommons de façon absurde, comme tout le reste d’ailleurs, sans souci de l’épuisement de la ressource, sans réflexion sur l’impact de notre industrialisation de toute la planète sur le vivant, océanique en particulier car caché à nos yeux. L’adaptation et la mitigation devront venir épauler le développement soutenable. Quant-au phantasme d’un retour à une atmosphère semblable à celle d’avant la vie, éradiquant toute vie sur Terre, ne nous trompons pas de cible ; l’essentiel du CO2 atmosphérique initial n’est pas stocké en charbon ou en pétrole, mais bien en calcaire (CaCO3, voir § F3), et il nous faudrait bétonner, et bétonner encore pour épuiser cette ressource carbonée et retourner à l’atmosphère primitive de la Terre !

2 - La stratosphère et la protection contre les UV solaires

Elle s’étend jusque vers 50 km environ. L’air y est de plus en plus raréfié. Elle est caractérisée par sa température croissante, qui augmente jusqu'à +20 °C maximum. Les premières estimations de température de la stratosphère sont dues à A. Lindeman et G.M.B. Dobson 1931. Elles sont fondées sur l’observation de la brillance et la longueur des étoiles filantes, c’est à dire sur la vaporisation des météorites par frottement et l’excitation résultante des molécules stratosphériques. Lindeman et Dobson en déduisirent la densité et la température de la stratosphère.

a - Cycle de Chapman

Dès 1930, S. Chapman suppose que l’augmentation de la température dans la stratosphère est liée à la production de l’ozone par photodissociation de l’oxygène sous l’effet des UV solaires. La concentration en ozone est maximum entre 12 et 25 Km (Fig. 27a, courbe bleue moyenne pour les mois de septembre-octobre pour la période 1963-1979).

http://www.esrl.noaa.gov/gmd/dv/spo_oz/spoweb6.gif

structure verticale de la colonne d’O3

http://www.esrl.noaa.gov/gmd/dv/spo_oz/

Fig. 27b : Anomalie de la couche d’ozone

 

En moyenne, elle est quasi nulle dans la troposphère. L’épaisseur de la couche d’ozone pur que l’on pourrait former avec ce gaz est de 2.5 mm ! Son rôle n’en est pas moins fondamental dans la protection de la vie non aquatique puisque comme nous allons le voir, sa production absorbe une part essentielle des UV à haute énergie du spectre solaire.

La production de l’ozone dans l’atmosphère est assurée par la photodissociation du dioxygène O2 sous l’effet des UV courts. Ce mécanisme est double (Fig. 27b):

Fig. 27b : cycle de Chapman, production-destruction de l’O3

1) faible dissociation dans la mésosphère en dessous de 85 km par absorption d'UV de longueurs d'ondes comprises entre 175 et 200 nm ;

2) forte dissociation dans la stratosphère au-dessous de 50 km par absorption d'UV de longueurs d'ondes comprises entre 200 et 240 nm.

Après cette réaction de dissociation,

( 1 )                         O2 + hn Þ O +O

deux cas sont possibles:

1 -   soit une recombinaison en présence d’une tierce molécule M (N2, O2 ou particule solide),

( 1' )                       O +O (+M) Þ O2 +M,      

{réaction qui a lieu surtout à haute altitude (≥70Km)

2 -   soit la formation d’ozone

( 2 )                         O +O2 (+M) Þ O3 +M.  

La molécule M sert à absorber l’énergie de vibration de la molécule formée, liée à l’association O+O ou O+O2. Le maximum de photodissociation de l’oxygène à lieu vers 25 km d’altitude, et se traduit par un maximum de concentration en ozone, également dans la stratosphère. On a constaté que la quantité d'ozone stratosphérique se conforme aux variations du rayonnement solaire liées à la latitude ou à la saison, mais avec des décalages très importants. Ainsi, sa concentration est maximum au printemps et minimum en automne, et son abondance est supérieure aux hautes latitudes par rapport à celle des basses latitudes. Ceci démontre que l'ozone est instable, mais que les réactions chimiques de destruction sont relativement lentes, en tout cas par rapport au transport atmosphérique dans la basse stratosphère.

b - Quatre types de réactions rendent l'ozone formé instable:

En premier lieu il peut être simplement recombiné à l’oxygène atomique

( 3 )                         O3 +O Þ O2 + O2                      

En second lieu il peut être dissocié par des UV plus longs (l<310nm) que ceux qui provoquent

la dissociation de l'O2 :

O3 + hn Þ O2 +O(1D)         ( 3 )

L’oxygène monoatomique O(1D) produit dans cette réaction est très excité et joue un rôle ultérieur sur la stabilité de l’ozone, à travers celle des constituants minoritaires de la stratosphère, H2O, NO2 en particulier. Il est en effet beaucoup plus réactif que l'oxygène normal au repos  O(3P).

 

En troisième lieu, certains des constituants minoritaires de l'atmosphère interviennent naturellement à travers un cycle catalytique de destruction de l’ozone, que l'on peut schématiser comme suit:

        + O3  Þ XO +O2

                            XO +O  Þ X +O2

                                                            

 

a)    L'hydrogène monoatomique et le radical hydroxyle, H et OH, qui interviennent dans ce cycle comme suit,

          + O3 Þ  OH +O2

( 4 )                     OH +O  Þ H +O2

         

 

H et OH ne sont pas produits dans la stratosphère, par photodissociation de l'eau comme dans la mésosphère, mais par des réactions avec l'oxygène excité O(1D):

l'hydrogène diatomique,

(4a)                        O(1D) + H2            Þ OH + H

l'eau,

(4b)                        O(1D) + H2O         Þ OH + OH

le méthane

(4c)                        O(1D) + CH4         Þ OH + CH3

Les réactions (4a) et (4b) ne peuvent pas être significativement renforcées par l'activité humaine. En effet, la teneur en eau de la stratosphère est d'une part extrêmement basse, et d'autre part en équilibre avec celle de la troposphère. Or celle-ci ne peut évoluer de manière importante car l'air terrestre est quasiment saturé en eau. Seule la destruction du méthane (4c) peut donc évoluer réellement négativement dans le futur.

 

b)    Le monoxyde d'azote, NO, qui intervient aussi de la même manière dans le cycle suivant

          NO +O3 Þ     NO2 +O2

( 5 )                      NO2 +O  Þ NO +O2

                                                    

trouve son origine encore dans une réaction de l'oxygène excité O(1D) avec de l’hémioxyde d’azote N2O; deux réactions sont possibles:

réaction productrice de NO

(5a)         O(1D) + N2O         Þ NO + NO

réaction non productrice de NO

                O(1D) + N2O         Þ N2 + O2

Cette dernière réaction n'alimente pas le cycle, et au contraire en diminue l'efficacité. Compte tenu de l'abondance des produits azotés dans l'atmosphère, le cycle (5) pourrait s'avérer extrêmement destructeur s'il n'existait des réactions parasites qui attaquent le NO2 formé dans ce cycle:

(5b)  i)   NO2  + hn(l<240nm) Þ NO + O            

                                                                     Et  O + O2 Þ O3

cette photodissociation très rapide du dioxyde mène donc finalement à la régénération de l'ozone. C'est le même phénomène qui provoque la production d'ozone troposphérique irritant pour nos bronches dans les régions polluées, par les gaz d'échappement en particulier.

(5c) ii)   NO2  + H + (M) ® M + HNO3

L'acide nitrique produit de cette manière est un composé abondant de la stratosphère. Mais il est soluble dans l'eau et gagne la troposphère avec elle en franchissant la tropopause. Sa solubilisation régule ainsi sa concentration (constante) dans la stratosphère.

 

La production de l'hémioxyde N2O est donc une clef essentielle de la destruction de l'ozone; N2O présente une double origine:

i) il peut être produit en altitude par la combustion de l'azote diatomique avec l'oxygène, N2+2O2 à très haute Température, naturellement sous l'effet de la foudre, et artificiellement dans les réacteurs des avions volant à très haute altitude;

ii)    l’azote de l’air est transformé dans le sol en nitrates, dont une partie donne lieu (action de bactéries dénitrifiantes) à des produits gazeux, N2 et N2O, qui s’échappent dans l’atmosphère. Comme la durée de vie de ce dernier composé est suffisamment longue dans la troposphère, il atteint la stratosphère où, avant d’être photodissocié en N2 et O, il réagit en présence d'oxygène excité O(1D) suivant le processus (5a) pour produire du monoxyde d’azote.

 

En quatrième lieu, certains composés naturellement rares, les composés halogénés[15] ont été introduits massivement dans l'atmosphère par  l'homme, sous forme de halocarbones, les CFC. Ils interviennent tous de la même manière que le chlore, pris en exemple:

          Cl +O3 Þ  ClO +O2

( 6 )                    ClO +O  Þ Cl +O2

            

 

 Mais ClO est instable et réagit avec le monoxyde d'azote, ce qui réduit d'autant les processus de destruction de l'ozone

ClO + NO Þ Cl + NO2

Certes, Cl est rendu au cycle catalytique, mais 1 NO est consommé en échange, et NO2 rentre dans les réactions positives (5b) et (5c).

Parmi les réactions qui limitent l'efficacité des cycles de destruction de l'ozone par les composés halogénés, on citera l'intervention du méthane sur le chlore:

Cl + CH4 Þ CH3 + HCl

Bien que l'acide chlorhydrique formé ici soit instable et réagisse avec les hydroxyles (1 OH consommé restituant 1 Cl) dans la réaction

HCl + OH Þ  H2O + Cl

De la même façon que l'acide nitrique dans le cycle azoté, HCl constitue un puits troposphérique pour les produits chlorés de la stratosphère, en se solubilisant dans l'eau après avoir traversé la tropopause. La consommation de CH4 est doublement intéressante car, outre le fait qu'il s'agit d'un GES redoutable, le méthane intervient aussi dans la production d'hydroxyles dans le cycle (4c).

Les halocarbones sont des composés remarquablement stables dans la basse atmosphère, ce qui leur a conféré un intérêt industriel tout particulier. En contrepartie, ils ne sont pas détruits dans la troposphère par des réactions chimiques, et finissent par gagner la stratosphère, où ils sont photodissociés et où ils libèrent les atomes de chlore qui attaquent l’ozone (6)

Un seul produit halocarboné est naturel, le chlorure de méthyle, CH3Cl;  d’origine naturelle marine, il est aussi certainement un constituant de la fumée qui apparaît lors de la combustion des végétaux, qu'il s'agisse du brûlage des terres, de l'essartage des forêts ou de la culture sur brûlis, mais aussi de la combustion de produits chlorés (polyvinyles). Tous les autres composés halogénés présents dans l'atmosphère terrestre sont des produits industriels, citons le tétrachlorure de carbone, CCl4,  et parmi les fréons, le trichlorofluorométhane CFCl3 (Fréon 11) et le dichlorodifluorométhane, CF2Cl2 (Fréon 12), gaz propulseurs et/ou réfrigérants. La production annuelle de CFCl3 est passée de 1 000 T. en 1947 à  35 000 T. en 1957, puis 150 000 T en 1967 et 310 000 en 1989 … imposant, dès lors que des solutions techniques de remplacement étaient trouvées, une réflexion mondiale sur leur utilisation ; rappelons :

-          Vienne 1985 : Engagement des Etats parties à protéger la couche d’ozone et à coopérer scientifiquement afin d’améliorer la compréhension des processus atmosphériques.

-          Montréal 1987 : interdiction de la production et l’utilisation des CFC d’ici à l’an 2000.

-          Londres 1990 : les Etats s’engage dans un renforcement progressif de la protection de la couche d'ozone.

-          Copenhague 1992, Vienne 1995, 1997 et Pékin 1999 :) 4 amendements apportant de nouvelles restrictions d’usage sur d’autres substances (e.g. HCFC).

 

c – Impact des SAO

La consommation des SAO dans le monde est en très forte régression. Il est difficile d’établir le bilan global sur l’effet de serre des effets cumulés de la destruction d’O3 (qui compte au nombre des GES) par les halocarbures et autres substances anti ozone (SAO) et du forçage radiatif induit par ces mêmes substances, dont les raies d’absorption sont observables dans les fenêtres 8-9 et 10-14 mm que nous avons définies plus avant (Fig. 5a) et dans la figure 27c.

Fig.27c : Raies d’absorption des SAO et de l’O3 dans la stratosphère

 

A la complexité chimique du cycle de l’Ozone s’ajoute une complexité de stockage. L’O3 est produite essentiellement sous les basses latitudes et elle rejoint ensuite les hautes latitudes où elle reste piégée dans le vortex polaire. Sa concentration y est maximale au printemps et passe, en automne, par un minimum, inférieur de quelques % relatifs. En effet, durant l’hiver, l’atmosphère  du pôle s’organise en   tourbillon (vortex) tropo- et stratosphérique. Au pôle Sud, ce vortex est situé au-dessus du continent Antarctique englacé (et donc morphologiquement homogène) et entouré par le courant marin circulaire d’ouest. Il en résulte que, en Antarctique, le vortex est bien centré au niveau du pôle sud et qu’il y est généralement très stable.

Parallèlement à l’O3, Les CFC, anthropiques, très stables, migrent aussi vers la stratosphère. Le vortex polaire Antarctique aide à les piéger au-dessus de l’antarctique, au sein de nuages de glace, sous forme cristaux qui offrent des surfaces de contact aux CFC. Au printemps, après le lever du soleil, leur décomposition par les UV solaires libère le chlore, catalyseur de la destruction de l’ozone. Il en résulte que la concentration en O3 est maximale en fin d’hiver et passe par un minimum en automne, variable d’une année à l’autre.

Avec la spectrophotomètrie Dobson née en 1958, commence en 1963 la mesure de la colonne d’ozone en Antarctique. Le « trou d’ozone » y a été découvert par le British Antarctic Survey  à partir des données de la station de la Baie de Halley pour la période 1981-1983. Les valeurs automnales de cette période étaient devenues très inférieures aux valeurs automnales de la période antérieure (avant 1980). Ce rapport des valeurs mesurées durant les mois de septembre et octobre à la moyenne des mêmes mois pour les années 1963-1979 définit l’Ozone Depleting Gas Index (ODGI). Dans les années 85-90, les mesures montrèrent que, si le minimum automnal moyen mondial ne dépassait pas quelques % relatif (Fig. 27d, en haut), il atteignait 30 à 40% au pôle Sud (Fig. 27d en bas). Dans la figure 27a, la comparaison des profil verticaux bleu (correspondant à la moyenne septembre-octobre des années antérieures à 1980) et (établi pour les mêmes mois de 1986) montre que la dépression en O3 se situe se situe en miroir, à l’altitude du maximum d’ozone en condition automnales antérieure à 1980. C’est donc bien la destruction catalysée de l’ozone qui est en cause.

Fig. 27c : Anomalie de la couche d’ozone

en haut, moyenne mondiale, corrigée des variations saisonnières, exprimées en % de la moyenne pour la période 1964 – 1980 : mesures terrestres (ligne noire) et satellite (couleur) ;

en bas, mesures moyennes de l’épaisseur de la couche d’ozone en octobre, spectrophotométrie faite en Antarctique.

Dobson Unit (DU). la colonne (d'ozone) est présumée pure, à pression normale (1013.15 hPa) et à 0° C (273.15 K). La densité de la couche est exprimée en milli-centimètre (10-5m).

300 DU correspondent à une épaisseur de couche de 3 mm,

http://www.ipcc.ch/; http://www.cactus2000.de/fr/unit/massozo.shtml;

A l’inverse de la région Antarctique, le pôle Nord était épargné par le phénomène  La raison de cette différence réside dans l’impermanence et la moindre stabilité d’un vortex au-dessus de l’Arctique. Quant-à l’origine de cette anomalie automnale dans la colonne d’ozone, la bonne connaissance du cycle de Chapman fit rapidement suspecter les CFC, bien que produits et utilisés principalement dans l’hémisphère nord. La grande réactivité de l’industrie des aérosols — rapidement prête à mettre avec avantage sur le marché un gaz propulseur sans Chlore dans nos bombes et des fluides caloriporteurs dans la plupart des installations réfrigérantes ou climatisations — a fait disparaître très vite la pollution par le Fréon !

On observe actuellement (e.g. P. J. Nair et al. 2013 et Fig. 27d) que depuis 1997 la couche d’ozone se restaure. Non seulement le processus est lent, mais il est de plus irrégulier, en raison de la variabilité interannuelle des conditions météorologiques sur l'Antarctique. Plus l’hiver précédent aura été rigoureux, plus l’abondance de nuages de glace aura été favorisée, augmentant corrélativement la quantité de composés chlorés ou bromés.  On peut alors assister à de fortes rechutes, comme en 2001 (Fig. 27b), 2006, ou comme en 2015, où la taille du trou d'ozone a atteint 28.2 106 km2, soit le troisième plus grand trou d'ozone enregistré. Cette année, la quantité moyenne d'ozone mesurée par un instrument Dobson au Pôle Sud dans la seconde moitié d'Octobre était de 114 unités Dobson (DU), ou 60% en dessous des conditions pré trous d’ozone. La moyenne des niveaux d'ozone mesurés entre 15 et 31 octobre entre ~ 13 et 21 km est un indicateur de l’apparition d'un "trou d'ozone" lors du printemps austral suivant. Le seuil se situe à l'épaisseur minimum de 220 DU (voir Fig. 27d).

Néanmoins la restauration de la colonne d’O3 en dessous de 30 km d’altitude s’effectue globalement sur à un rythme plus rapide que celui induit par la seule diminution des SAO, suggérant que d’autres mécanismes interviennent en basse altitude. En particulier, l’abondance des GES dans la stratosphère, qui engendrent un abaissement de la température à cette altitude et pourraient donc d’une part favoriser le stockage des SAO en hiver, et inversement être un facteur de ralentissement des réactions de destruction de l’ozone en été. Comme le rappelle S. Godin Beekmann (Variability in Antarctic ozone loss in the last decade 2004–2013) dans Le Monde, l’augmentation de concentration d’ozone dans la haute stratosphère, relevée ces dernières années dans certaines régions, doit être attribuée pour moitié à la réduction des substances chlorées et bromées, et pour moitié à l’accumulation des gaz à effet de serre ».

Il convient enfin de souligner que la destruction des SAO dispersés dans l’atmosphère est plus lente que prévu. Leur aurait-on imputé une réactivité excessive, ou bien le poids volumique des CFC les entraîne-il moins que prévu vers la stratosphère, rendant leur éradication moins performante ? Aurait-on omis quelque molécule dans le panel des SAO ? Il convient, on le voit, de rester prudent à cet égard. La taille du trou autour du pôle dans la couche d’ozone reste une préoccupation de santé publique sous les hautes latitudes sud, Chili, Argentine, Nouvelle Zélande en particulier, même si l’on peut espérer un retour à la normale d’ici moins d’un siècle.

Faudra-t-il (et pourra-t-on ?) appliquer la même politique contraignante avec les NO2 dont nous avons souligné la nocivité ?

 

Comme la synthèse de l’ozone demande des UV qui ne sont pas disponibles à ces latitudes en hiver, l’équilibre fabrication-destruction d’ozone est nécessairement déplacé et la concentration en ozone décroît. En outre, les oxydes d’azote (N2O, NO2), dont nous avons vu le rôle modérateur dans le cycle de ont une action très limitée en hiver car sous forme cristaux qui offrent des surfaces de contact aux oxydes d’azote (piégés et donc inhibés) et aux  CFC. Ceux-ci s’y décomposent et relâchent des atomes de chlore, destructeur de l’ozone.

Les mesures de concentration effectuées montrèrent, dans les années 85-90, que le minimum automnal atteignait 30 à 40% relatif au pôle Sud, le pôle Nord étant épargné par le phénomène (Fig. 27c, valeurs corrigées des variations saisonnières).

et utilisés principalement dans l’hémisphère nord. La grande réactivité de l’industrie des aérosols — rapidement prête à mettre avec avantage sur le marché un gaz propulseur sans Chlore dans nos bombes et des fluides caloriporteurs dans la plupart des installations réfrigérantes ou climatisations — a fait disparaître très vite la pollution par le Fréon ! Et le trou de l’Ozone a commencé à se refermer, rapidement tout d’abord, puis ensuite à un rythme que la communauté scientifique considère comme anormalement lent, alors qu’aucune source de CFC ne vient plus détruire l’Ozone depuis l’accord de Montréal en 1997.

Aurait-on imputé aux SAO une agressivité excessive, ou bien le poids volumique des CFC les entraînait-il moins que prévu vers la stratosphère, rendant leur éradication moins performante ? Faudra-t-il (et pourra-t-on ?) appliquer la même politique contraignante avec les NO2 dont nous avons souligné la nocivité ? Aurait-on omis quelque molécule dans le panel des SAO ?

Il convient, on le voit, de rester prudent à cet égard. La taille du trou autour du pôle dans la couche d’ozone reste une préoccupation de santé publique sous les hautes latitudes sud, Chili, Argentine, Nouvelle Zélande en particulier, même si l’on peut espérer un retour à la normale d’ici moins d’un siècle.

3 - La mésosphère

La connaissance de la mésosphère remonte aux années 50. On y a appliqué une méthode d’étude comparable à celle que Lindeman et Dobson utilisèrent pour la stratosphère, en mettant au point le suivi radar de billes lâchées à haute altitude par fusées. L’analyse de leur trajectoire permet de remonter à la densité de l’air et à sa température aux altitudes considérées. La température décroît rapidement avec l’altitude. Vers 80 km, elle atteint -140°C (Fig. 2).

Au-dessous de 85 km, la mésosphère, est encore le siège de la photodissociation de O2,  surtout par absorption entre 200 et 175 nm. Les oxygènes monoatomiques s'associent alors à de l'O2 pour former de l'ozone, mais en quantité très inférieure à l'ozone stratosphérique.

La mésosphère est aussi le lieu de la photodissociation de H2O et de CH4, toujours par des UV courts (l<200 nm):

H2O + hn Þ OH +H ou  O +H2;

CH4 + hn Þ CH2 + H2

Cette région de l’atmosphère est en outre le siège des nuages noctiluques. La nature de ces nuages, observables seulement après le coucher du soleil, n’est pas encore bien connue. Il ne s’agit probablement pas de nuages de glace, car la quantité de vapeur d’eau disponible à cette altitude est très faible. Ils seraient plus probablement constitués de débris météoritiques ou de poussières cométaires, et/ou de poussières volcaniques (Fig. 28a).

http://spaceweather.com/images2013/27jul13/nacreous_strip.jpghttp://www.weatherwise.org/sebin/z/d/weather-queries-photo3.jpg

Fig. 28a : nuage noctilucte

http://www.weatherwise.org/Archives/Back%20Issues/2013/January-February%202013/weather-queries-full.html

http://spaceweather.com/archive.php?day=27&month=07&year=2013&view=view&PHPSESSID=6p74uto7b91jkjp9tp9kevfet7

En effet, on a pu observer à maintes reprises lors des éruptions à caractère explosif, éruptions pliniennes ou ignimbritiques[16], que les éléments fins de la colonne de produits volcaniques[17] peuvent atteindre plusieurs dizaines de Km d’altitude. En incorporant de l’air froid qui se dilate, les mouvements convectifs internes au panache entretiennent l’ascension des matériaux volcaniques. Ils atteignent ainsi aisément la stratosphère. A partir de là, une petite fraction de poussière pourrait rejoindre la mésosphère pour y former les nuages noctiluques.

Avec la dispersion du nuage dans la stratosphère les éruptions  peuvent provoquer une diminution de l’insolation qui peut être à l’échelle planétaire mais qui ne dépasse pas quelques mois (Tambora 1815, Krakatoa 1883, El Chichon 1982, Pinatubo juin 1991). La dispersion du nuage volcanique est aussi responsable de l’introduction d’aérosols dans la stratosphère (composés soufrés en particulier, Fig. 28b, Brian J. et al. Global Cooling After the Eruption of Mount Pinatubo). Leur rôle climatique est encore largement discuté.

Fig 28b : Persistance du SO2 après éruption volcanique :

Eruption du Pinatubo, 1991 : 15 106 T de SO2 injectées dans la stratosphère, transformées en gouttelettes de H2SO4 absorbent (en rouge) l’énergie solaire ; durée du phénomène, 2ans

d’après Brian J. et al. Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor, Science 26 April 2002: Vol. 296 no. 5568 pp. 727-730.

Enfin la mésosphère est le siège de phénomènes lumineux dits éphémères, qui durent quelques secondes et seraient provoqués par le bombardement du rayonnement cosmique.

 

4 - La thermosphère

Au-delà de la mésopause débute la thermosphère (Fig. 2). Elle s’étend jusqu’aux confins de l’exosphère, vers 500 Km (cf. § composition de l’atmosphère). L’air, quoique raréfié, freine malgré tout les satellites. C’est d’ailleurs l’analyse de leurs trajectoires qui a permis, dès le début des sixties,  de mieux connaître cette région de notre globe.

Dans la région de 100-150 km d'altitude et au-delà, les rayons X et les UV solaire très courts (l entre 100 et 150 nm)  sont presque tous arrêtés, dissociant systématiquement l'oxygène moléculaire (O2) :

O2 + hn Þ O + O;

Plus l’altitude est élevée, moins les molécules lourdes sont abondantes. Ainsi, alors que l’azote moléculaire (masse atomique N2 = 2*14.0067 u), très peu réactif et donc non dissocié, reste majoritaire jusqu’à 200 km environ, l’oxygène atomique (masse atomique O = 15,9994 u) devient ensuite le constituant principal de la très haute atmosphère. Celle-ci est alors un brouet très clair mélange d’oxydes d’azote, de molécules diatomiques, N2, O2, H2, et d’atomes, principalement d’oxygène et quelques hydrogènes. Elle est le siège des aurores polaires.

 

La température des molécules et atomes y croît très fortement, par absorption des UV très courts. Elle peut atteindre 2000°C au zénith, et chuter de plus de 500° durant la nuit ! Toutefois, la densité du gaz y est si faible que la chaleur transmise aux satellites est négligeable.

La photodissociation des gaz atmosphériques donne à ce brouet très clair une composition complexe, mélange d’oxydes d’azote, de molécules diatomiques, N2, O2, H2, et d’atomes, principalement d’oxygène et quelques hydrogènes. Elle est le siège des aurores polaires..

Au voisinage de l’exosphère, il semblerait exister un début de stratification par densité des gaz atmosphériques qui ne sont plus brassés par aucun vent.

haut

 

retour

 

 précédent      chapitre                             

 

                                ( Composition ) précédente      page       suivante ( Stratification électromagnétique )

 

plan

 



[1] Dans le détail, le problème est plus complexe car l’albédo de l’atmosphère aa et celui de la géosphère ag sont différents : l’atmosphère laisse passer le visible ou le réfléchit vers le cosmos, et absorbe la moitié des infra rouges (IR) qu’elle renvoie ensuite vers le cosmos ; le sol réfléchit ou absorbe le visible, et il absorbe tous les IR qui lui sont transmis par l’atmosphère. Si on appelle Irabs le coefficient d’absorption des IR par l’atmosphère, la fraction de flux IR absorbée par la Terre (qui participe au flux émis par la Terre) est de la forme Irabs/2 a Tt4. L’énergie totale réellement reçue par la Terre serait donc de la forme C* pRp2 (1 – aa) (1 – ag) + Irabs/2 a Tt4.

[2] Sur le total de 390 W m-2 émis par la surface du globe (dans les IR) 20 sont transmis au cosmos ; l’opacité de l’atmosphère aux IR est donc de 370/390*100 = 95%.

[3] DLR est calculé à partir de plusieurs capteurs de satellites (METEOSAT, MSG) et en utilisant différentes approches dans différents programmes: GEOLAND ; AMMA. Cette approche fut essentielle dans la détermination du transfert de chaleur entre océan et atmosphère en Arctique, Surface Heat Budget of the Arctic Ocean (SHEBA).

[4] Les varves sont des dépôts sédimentaires laminaires très fins, où chaque lamine correspond à une alternance de deux termes, un dépôt d’été et un dépôt d’hiver.

[5] Revenant à la figure 7, qui analyse les fluctuations pré-humaines du CO2 et de la température. On note qu’à une amplitude de variation thermique de 10°C correspond une variation de la concentration en CO2 de 100 ppmv. Cette amplitude de la variation de température en fonction de celle du CO2 est dont très au-delà de l’actuelle, dont le rapport du GIEC[5] estime que pour le XX° siècle elle est de +0.6°C pour un accroissement en CO2 du même ordre de grandeur, 100 ppmv. Force est donc de constater que la réponse du climat actuel à notre injection massive de GES durant le XX° siècle est considérablement plus faible que ce que les archives des glaces polaires ont enregistré. La cause ne peut en être le temps d’homogénéisation de l’atmosphère puisqu’il y aurait plus d’un ½ siècle entre le début de l’injection massive de CO2 et la réponse de l’atmosphère. L’écart à la linéarité entre ces 2 paramètres est-il si important qu’il signifie que l’on va vers une asymptote de température? Pour quelle raison? La figure 5 suggère que, dans la gamme des longueurs d’ondes émises par la Terre, les raies d’absorption du CO2 ne sont pas complètement « bouchées » mais que l’on s’en approche… Est-ce suffisant ?

[6] Notez que la représentation IPCC de GEOCARB III, limitée à 400 Ma, ampute celle-là de valeurs plausibles des concentrations en CO2 les plus hautes jamais atteintes sur terre.

[7] 2500 recommandations d’action pour le XXI° siècle.

[8] Data Source: D.M. Etheridge, L.P. Steele, R.J. Francey, and R.L. Langenfelds. 2002. Historical CH4 Records Since About 1000 A.D. From Ice Core Data. In Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, Tenn., USA. and Steele, L. P., P. B. Krummel and R. L. Langenfelds. 2002. Atmospheric CH4 concentrations from sites in the CSIRO Atmospheric Research GASLAB air sampling network (October 2002 version).

[9] Notez que la courbe utilisée donne une moyenne de 0.007°C a-1, conforme à la valeur communément admise (IPCC = Intergovernmental Panel on Climate Change) de 0.6° pour le XX°siècle. Remarquez aussi qu’une telle moyenne n’a aucun sens au regard des valeurs obtenues pour les épisodes de réchauffement, au moins deux fois supérieures, épisodes heureusement entrecoupés de périodes « sans réchauffement ».

[10] Fondé en 2000, l’IAC a été créé pour mobiliser les meilleurs scientifiques et ingénieurs autour du monde, afin de fournir un conseil basé sur des preuves aux institutions internationales telles que les Nations Unies et la Banque Mondiale -- incluant la préparation sur demande d’études spécialisées validées par des pairs. Le secrétariat de l’IAC se tient à l’Académie royale des Pays-Bas des Arts et Sciences, à Amsterdam.

http://reviewipcc.interacademycouncil.net/ReportNewsReleaseFrench.html .

[11] Il ne faut pas imaginer que la calotte glaciaire avait disparue ! Tout au plus les conditions étaient-elles telles que plusieurs centaines d’humains pouvaient y vivre de l’agriculture et de la pêche.

[12] La vigne fut réimplantée en Angleterre en 1945. Elle comptait 25 vignobles en 1967 et plus de 300 en 1986 d’après l’English Wineyard Association.

[13] Noter que les coraux ont survécu à la remontée rapide du niveau de l’océan, y compris aux accélérations les plus fortes (3m/siècle !), rendant sans objet les craintes de voir mourir ceux des Maldives et autres récifs coralliens à cause de la remontée actuelle (20 cm à peine en 1 siècle).

[14] La théorie de E. Svensmark reprend en fait le principe de la chambre à brouillard, premier appareil construit par les physiciens pour mettre en évidence les rayons cosmiques. Dans un récipient en verre contenant une atmosphère saturée de vapeur à la pression ambiante, on provoque détente. Celle-ci déplace le point de rosée, et un brouillard se forme. Les particules cosmiques qui traversent ce brouillard provoquent la formation de gouttelettes sur leur trajectoire. Le projet Cloud mettre en œuvre une vaste chambre remplie avec un mélange de gaz identique à celui de l'atmosphère. qui doit être bombardé avec des particules de haute énergie identiques à celles qui nous viennent de l'espace.

[15] à base de fluor (F), chlore (Cl), iode (I) et brome (Br).

[16] La distinction entre les 2 types d’éruptions ne réside pas dans la nature du matériau, essentiellement rhyolitique (composition d’un granite), mais dans le mode de dissipation de l’énergie :

1 -   dans une éruption plinienne, en colonne, la plus grande partie de l’énergie est dissipée dans une explosion initiale canalisée par un conduit étroit (Ø < 200m). Les vitesses d’émission peuvent atteindre 300m sec-1

2 -   dans le cas d’une éruption ignimbritique, la nuée ardente présente à l'émission une densité supérieure à celle de l'air ambiant. Mais elle incorpore en dévalant les pentes du volcan une quantité importante d’air ambiant (froid) qui se dilate, conduisant le mélange vers une densité inférieure à la densité de l’air ambiant. Le panache volcanique peut alors s'élever, mais contrairement à celui d'une éruption plinienne, celui d’une ignimbrite prend naissance au front de la coulée et non au droit de la bouche d’émission.

[17] éléments fins = poussières, cendres et ponces, aérosols.

 



[1] « Dans les l correspondant aux bandes d’absorption de H2O ou du CO2, Ze est de l’ordre de de 3 à 8 km » (JL Dufresne & J. Treiner 2011)

[2] Noter qu’une chute de 10°C de la température de l’océan mondial profond n’a pas entraîné la disparition de la vie sur Terre.

[3] Selon S. Smith, Rapport technique thématique n° 9 Conseils canadiens des ministres des ressources le pergélisol (ou permafrost) « désigne un sol, de la roche ou des sédiments dont la température demeure inférieure à 0°C durant au moins deux années consécutives. Il renferme de glace interstitielle, des lentilles, des coins ou d’autres masses de glace. Dans la partie nord de l’Arctique, le pergélisol est continu et peut atteindre plusieurs centaines de mètres de profondeur et des températures inférieures à 5°C. En allant vers le sud, le pergélisol devient discontinu et irrégulier et s’amincit jusqu’à n’avoir plus que quelques mètres de profondeur. À la limite sud de la région de pergélisol, la température souterraine s’approche de 0°C. 

[4] Selon S. Smith, La couche active est la partie supérieure du sol qui dégèle chaque été et qui regèle en hiver. Son épaisseur dépend de la couverture de neige, de la végétation, de la présence d’une couche organique, de l’humidité du sol et des matériaux de surface.

[5] Noter que les coraux ont survécu à la remontée rapide du niveau de l’océan, y compris aux accélérations les plus fortes (3m/siècle !), rendant sans objet les craintes de voir mourir ceux des Maldives et autres récifs coralliens à cause de la remontée actuelle (20 cm à peine en 1 siècle).

[6] Des glaces des glaciations plus anciennes,  ainsi que la trace de la fonte Eemienne sont pourtant présentes à la base de ces forages, car avec le démarrage de la glaciation suivante (Riss) l’étalement de la glace sous son propre poids aura repris, du cœur vers la périphérie de la calotte. Ne pas tenir compte de cette dynamique glaciaire conduit à minorer la contribution du Groënland à l’élévation du niveau marin, conduisant à admettre une contribution plus forte de la fonte de l’Antarctique occidental durant l’Eemien.