1 janvier 2005
6
01
/01
/janvier
/2005
01:40

4. II n'y a pas d'influence discernable de l'homme sur le climat - PDF
La phrase la plus citée du rapport 1995 du Groupement intergouvernemental d'étude sur le climat (GIEC) a été reprise dans toute la littérature écologiste et dans la majorité des articles parus autour de la conférence de Kyoto. C'est sur elle que la plupart s'appuient pour exiger des mesures drastiques pour réduire les émissions de gaz à effet de serre. « L'ensemble des données suggère que l'on peut discerner une influence de l'homme sur le climat mondial ». Sans cette phrase, le rapport 1995 aurait été « politiquement inutile » puisqu'il reconnaissait, encore plus que le premier rapport du GIEC, l'étendue des incertitudes. L'histoire de cette phrase et la façon dont elle a été rajoutée au rapport est donc extrêmement intéressante. C'est à son propos que Frederick Seitz avait fait cette terrible déclaration : « En soixante années de participation à la recherche scientifique américaine, y compris en tant que président de l'Académie des sciences et de la Société américaine de physique, je n'ai jamais eu à connaître une corruption du processus de relecture aussi inquiétante que pour ce rapport du GIEC. »
Que dénonce Seitz et, avec lui, tous les « dissidents » ? Le fait que l'on ait apporté des changements de dernière minute au texte du rapport, changements visant presque tous à éliminer les bémols que rajoutent de nombreux scientifiques lorsque l'on parle de « changement climatique ». Or si les rapports du GIEC font autorité, bien qu'il s'agisse d'une institution gouvernementale autant que scientifique, c'est qu'ils sont soumis au processus de relecture habituelle dans les revues scientifiques : chaque article est soumis à d'autres spécialistes de la discipline, lu, discuté et modifié, parfois plusieurs fois. Pourtant, le rapport 95 du GIEC a été modifié par un seul auteur, Ben Santer, du laboratoire Lawrence Livermore, et ce après ce processus de relecture. La plupart des modifications ont eu lieu dans quinze parties du chapitre 8, celui qui traite de la question clef de l'éventuelle influence humaine sur le climat.
Voici trois phrases qui existaient dans le rapport approuvé par deux mille scientifiques, mais qui furent retirées par Santer, « auteur principal » du chapitre 8 : « Aucune des études citées ci-dessus n'a montré une preuve claire qui puisse nous faire attribuer les changements [climatiques] observés à la cause spécifique des accroissements de gaz à effet de serre. » On sait en effet que, s'il y a bien eu un réchauffement au cours du dernier siècle, il a eu lieu surtout dans la première moitié. Pas ou très peu de réchauffement au cours des cinquante dernières années, pendant lesquelles on a émis 70% du total des gaz effet de serre.
Autre phrase supprimée : « Aucune étude à ce jour n'a pu attribuer tout ou partie [du changement climatique observé] à des causes anthropogéniques [d'origine humaine]. » Ou encore : « Toute affirmation prétendant détecter un changement climatique significatif restera probablement controversée jusqu'à ce que l'on ait réduit les incertitudes dans la variabilité naturelle totale du système climatique. » Ben Santer a été pris à partie par ses confrères et par des groupements d'intérêts tels que la Global Climate Coalition, qui représente les industries électrique, pétrolière, automobile et minière. Il s'est défendu en disant que ces changements étaient nécessaires « pour améliorer la clarté scientifique du rapport ». En réalité, il s'est grandement appuyé sur ses propres travaux, qui devaient paraître plus tard dans Nature (A search for human influences on the thermal structure of the atmosphere, Nature, 382, 27-28), et qui prétendent démontrer une corrélation de plus en plus étroite entre les données du modèle climatique développé par le Lawrence Livermore et les observations.
Pour mieux comprendre, il faut revenir au chapitre 8 du rapport du GIEC, qui développe la méthode des « empreintes digitales ». Il s'agit de comparer les paramètres spatio-temporels du climat, tels qu'ils sont observés dans la réalité, à ceux qui sont calculés dans les modèles informatisés qui cherchent à simuler l'influence de l'homme sur le climat. S'il existe une bonne corrélation statistique entre ces deux ensembles de données, non explicable par les seules variations naturelles, alors cela tendra à accréditer les modèles climatiques. Ceux-ci incluent désormais tous les gaz à effet de serre, mais aussi d'autres gaz, notamment les sulfates et l'ozone stratosphérique. Le chapitre 8 présente ce travail, discute les résultats et souligne les incertitudes. C'est dans la conclusion que l'on trouve la phrase sur une « influence humaine discernable ». La méthode des empreintes digitales est intéressante dans la mesure où elle permet d'arriver plus rapidement à un degré raisonnable de certitude et donc d'action politique. Cependant, plusieurs critiques peuvent lui être adressées : d'abord, elle sous-estime la variabilité naturelle, ce qui a pour conséquence de surestimer un « signal anthropique », un changement de température dû l'homme. Ensuite et surtout, elle a choisi soigneusement sa période d'étude pour faire apparaître ce qu'elle désirait voir — crime imprescriptible, mais péché mignon des scientifiques. Comme nous le montrons sur la figure ci-dessous, la période 1963-1987 choisie par Ben Santer est très particulière. Ce choix fait apparaitre une volonté délibérée de trahir la réalité. Selon les modèles, on devrait voir apparaître un réchauffement marqué dans l'hémisphère sud, alors que cet effet serait masqué dans l'hémisphère nord à cause des émissions de sulfates, qui entraînent un refroidissement. Ces émissions étant beaucoup plus fortes au nord (terres émergées, pays développés) qu'au sud (beaucoup plus de surface océanique, pays pauvres), le refroidissement dû aux sulfates ne devrait apparaître que dans le nord.
Figure
Donc, direction l'hémisphère sud pour vérifier cette hypothèse. Là, ô miracle, entre 30 et 45 degrés de latitude Sud, au niveau de la moyenne atmosphère, qu'observe-t-on ? Un très net réchauffement ! Santer jubile et écrit son article pour Nature en criant victoire. Dans le même temps, il change les conclusions du rapport du GIEC dans le sens que nous avons dit, avant même que son article ne soit relu et accepté, ce qui est contraire aux règles. Observons soigneusement les données ci-dessous. Tout se passe comme si Santer avait choisi sa figure exactement pour faire apparaître le réchauffement tant désiré. Le choix de n'importe quelle autre période aurait abouti à une stabilité ou à un refroidissement.
Nous sommes allés très loin dans les détails, pour montrer à quel point on est loin de la science et proche de la politique. Santer lui-même a révélé plus tard, dans une lettre à Nature, que le département d'Etat américain lui avait fortement « recommandé » de modifier le contenu du chapitre 8 afin que celui-ci soit cohérent avec le résumé exécutif, destiné aux politiques et aux journalistes. Cette lettre venait directement du Bureau de politique écologique, au sein de la Direction des océans, de l'environnement international et des affaires scientifiques. Cette direction était sous le contrôle de l'Office du changement global, de Timothy Wirth puis de Stuart Eizenstat. II faut bien avoir conscience que sans cette petite modification, sans cette petite phrase sur l'« influence humaine discernable », Kyoto n'aurait pas du tout eu la même forme ni le même impact. C'est ce genre de manipulation qui a permis à Tim Wirth ou à Pierre Radanne d'affirmer que le débat scientifique était clos.
En 1999, la théorie du réchauffement climatique est entrée dans des vents mauvais. En 1998, les modélisateurs pouvaient encore s'appuyer sur l'effet El Nino qui avait amené des températures record : pour la première fois depuis 1979, les satellites avaient enregistré une hausse de température, faible mais significative. Hélas pour les catastrophistes, la température est retombée avec le départ d'El Nino, à l'automne 1998. Plus grave encore pour eux, de nouvelles données scientifiques ont démoli, un par un, les piliers de leur théorie. Phénomène classique en histoire des sciences, plus leur théorie présente d'incohérences, plus ils ont recours à des explications bizarres pour la défendre. C'est le signe du début de la fin.
Santer et al. ont publié un nouvel article (Santer B.D. et al., « Uncertainties in « observational » estimates of temperature change in the free atmosphere », Journal of Geophysical Research, 104, 6305-6334) dans lequel ils examinent les données de température disponibles, provenant principalement des ballons sondes et, depuis 1979, des satellites. Constatant une certaine divergence entre ces données (les unes indiquent un réchauffement de 0,1°C par décennie alors que les autres indiquent plutôt un refroidissement), Santer a une extraordinaire conclusion : « Jusqu'à ce que ces incertitudes soient réduites, les études climatiques devraient éviter d'utiliser un seul ensemble de données pour caractériser l'histoire des changements de température atmosphérique. » Autrement dit, on peut jeter à la poubelle toutes les études sur les empreintes réalisées sur les températures atmosphériques, y compris celle de Santer. Puisque les données n'indiquent pas ce que les modèles prévoient, c'est que les données sont mauvaises... Le spécialiste du climat, Patrick Michaels a eu des mots très durs pour cette attitude : « C'est la fin de la science du réchauffement global si l'on ne peut plus confronter les hypothèses (les résultats des modèles) à la réalité. Appelez-cela de la cyberphilosophie ou des mathématiques, mais n'appelez plus cela de la science. »
Un autre climatologue a délivré presque en même temps un autre coup fatal aux modélisateurs qui sont à l'origine de la grande peur climatique (Barnett, T.P., 1999, « Comparison of near-surface air temperatute variability in 11 coupled global climate models », Journal of Climate, 12, 511-518). Tim Barnett a comparé la variabilité naturelle du climat (en météorologie, il n'y a pas de « normale », il n'y a que des moyennes) aux variabilités de chacun des onze modèles, ayant tourné sur cent années. Il remarque d'abord que la variabilité interannuelle varie très fortement d'un modèle à l'autre, mais qu'elle est encore largement inférieure à celle du climat réel. Il constate ensuite qu'aucun modèle n'est capable de reproduire fidèlement le passé. Enfin et surtout, il fait une révélation dévastatrice pour ceux qui tentent de trouver l'« empreinte » de l'homme dans le climat : « Les MCG peuvent, sans aucun forçage anthropogénique [sans prendre en compte l'accroissement des émissions], produire des configurations qui ressemblent à celles attendues en cas d'influence humaine sur le climat. (...) Ceci rendra plus difficile la détection du signal anthropogénique par des études d'empreinte climatique, puisque la variabilité « naturelle » estimée par les MCG et utilisée dans le dispositif de détection ressemble au signal anthropogénique lui-même. » Dit plus simplement : les modèles ne marchent pas mais les études d'empreinte climatique pourraient faire croire qu'ils fonctionnent bien.
En fait, si l'on compare le réchauffement prédit par les modèles qui sont à la base du traité de Rio à celui que l'on observe en réalité, on trouve un facteur 15 d'écart, selon le chef de file des climatologues contestataires, Patrick Michaels. Pour expliquer cette erreur énorme, les catastrophistes ont recours aux aérosols pollués au soufre, qui refroidissent la basse atmosphère en dispersant la lumière du soleil et en changeant les propriétés réfléchissantes de la couverture nuageuse. Les experts du GIEC expliquent que les premiers modèles ne prenaient pas en compte la pollution soufrée. En « ajustant » les modèles après coup, on trouve des valeurs plus conformes à la réal ité, quoique toujours nettement supérieures. Notons d'abord que ces modifications intervenant post-facto ne rendent pas le processus de modélisation très crédible. Ensuite et surtout, si l'explication des aérosols était correcte, on devrait néanmoins observer un réchauffement dans l'hémisphère sud, dont le contenu en aérosols soufrés est dix fois moindre que dans le nord. Or les enregistrements satellitaires aussi bien que ceux des ballons météorologiques n'observent aucun réchauffement en vingt ans, même en prenant en compte l'année record 1998.
En fait, il est extrêmement difficile de modéliser l'impact climatique des émissions anthropiques (d'origine humaine) : si les gaz soufrés tendent à refroidir l'atmosphère, les poussières, elles, la réchauffent en absorbant le rayonnement solaire. Le climatologue James Hansen, l'un des pontes de la profession, estimait même en 1997 que son impact est quasi nul : « Concernant les aérosols anthropiques, notre conclusion (...) est que leur impact est probablement petit et même son signe est incertain. » L'année suivante, il avait changé d'avis : « Le forçage climatique actuel par les aérosols anthropogéniques est probablement important et négatif, au moins -1 W/m2. » Et de conclure, plus humblement : « Le forçage par les aérosols restera très incertain, tant qu’on n’aura pas de meilleures observations. » Surtout qu'une autre complication intervient : comme souvent en matière d'environnement, les modélisateurs ont pris en compte les émissions humaines mais pas celles de la nature !
Lors de la dernière réunion de la Société américaine de géophysique, Jacobsen a présenté ses travaux sur l'impact des aérosols naturels. En les ajoutant aux aérosols anthropiques, il compte au moins quarante-huit sortes d'aérosols. Selon lui, le facteur naturel le plus important est le chlore contenu dans les embruns ; en prenant en compte l'ensemble des aérosols, il arrive à un forçage négatif plus de trois fois supérieur à celui calculé par le GIEC (-1,6 au lieu de 0,5 W/m2). Les implications sont grandes : puisque les modèles actuels reproduisent le climat sans prendre en compte les aérosols naturels, c'est qu'ils arrivent au bon résultat de façon erronée. Les mauvais esprits parlent eux de tripatouillage.
La dernière polémique agitant le monde de la modélisation climatique est la décision prise par le GIEC de ne retenir que quelques modèles (on parle de seulement trois) pour son prochain rapport sur l'évolution du climat, à paraitre dans deux ans. Pourquoi trois modèles sur les trente-trois existants ? Il faudra sans doute attendre la sortie du rapport pour avoir une justification. En tout cas, l'un des modèles exclus serait la dernière version du Community Climate Model du National Center for Atmospheric Research de Boulder, dans le Colorado. Le gros avantage de ce MCG est d'être transparent : contrairement aux autres, pour lesquels ont doit se contenter des résultats, les détails de sa conception sont publics. Les chercheurs de la communauté climatique (d'où son nom de Community Climate Model) peuvent avoir accès aux hypothèses de départ retenues, aux choix de paramétrages, etc., et peuvent aussi l'utiliser gratuitement. Le fait qu'il ne soit pas retenu par le GIEC a-t-il à voir avec les prédictions de réchauffement auxquelles il aboutit, qui sont très faibles ?
Table des matières
<préc. - suiv.>