ENVIRONNEMENT

Peut-on vraiment modéliser le changement climatique ?

octobre 7, 2021 21:28, Last Updated: octobre 7, 2021 21:28
By

Commentaire

Il ne se passe pas un jour sans que nous soyons assaillis par des discours annonçant de terrible fléaux du fait du « changement climatique », certains hommes politiques bien connus nous avertissant que notre monde cessera d’exister tel que nous le connaissons d’ici à 2035. (Dans 14 ans !)

Il y a quelques semaines à peine, des représentants du gouvernement ont attribué les inondations catastrophiques qui ont frappé New York et le New Jersey à la suite de la tempête tropicale Ida au changement climatique. De même, un autre député avait auparavant attribué un certain phénomène météorologique naturel au changement climatique. Apparemment, ni l’un ni l’autre ne comprennent la différence entre la « météorologie » ( étude des incendies en Californie, des ouragans/tempêtes tropicales comme Ida, des tornades, etc.) et la « climatologie » ( étude des variations à plus long terme de la température, des précipitations, etc.)

Le fait est que, statistiquement, les événements « météorologiques » (par exemple, les tornades) ne sont pas plus fréquents ou plus intenses qu’ils ne l’étaient par le passé. Par conséquent, se questionner sur le fondement de ces affirmations extravagantes est des plus légitime.

Les auteurs de ces affirmations disposent-ils d’une boule de cristal leur permettant de voir l’avenir plus clairement que le reste d’entre nous ? Ou est-ce simplement l’aveugle qui guide l’aveugle ? Certains aveugles se faisant plus entendre que d’autres. Car les paléontologues et les spécialistes des sciences de la terre vous diront que le climat de la Terre change depuis des temps immémoriaux et qu’il a changé de façon radicale durant différents cycles au cours des quelque 2,5 millions d’années d’histoire de l’espèce humaine.

Cependant, il est question ici d’un phénomène plus subtil lié aux changements induits par l’espèce humaine elle-même. L’humanité dispose de cette capacité depuis moins de 300 ans (depuis le début de la révolution industrielle, à partir du milieu du 18e siècle).

Mais, me direz-vous, 300 ans, ce n’est que l’espace d’un clin d’œil dans le cadre des cycles climatiques (et non météorologiques) qui se déroulent généralement sur des milliers, des dizaines de milliers, voire des centaines de milliers d’années. Par exemple, 300 ans d’industrialisation produisant du CO2 ne représentent que 0,3 % d’un cycle glaciaire de 100 000 ans.

Pour donner au lecteur une idée de la complexité de la question climatique, il est nécessaire de passer en revue quelques faits fondamentaux sur lesquels nous pouvons tous nous accorder. Le principal cycle climatique naturel est constitué par les périodes glaciaires (cycles de Milankovitch) qui sont dues aux variations de l’excentricité de l’orbite de la Terre autour du soleil et qui apparaissent désormais tous les 100 000 ans. L’excentricité orbitale est actuellement proche de son point le moins elliptique (le plus circulaire) et diminue très lentement, dans un cycle qui s’étend sur environ 100 000 ans.

Cependant, la variation de l’excentricité de l’orbite de la Terre est considérée comme un facteur relativement mineur du changement climatique à long terme. D’autres facteurs doivent être pris en compte, notamment l’obliquité (l’angle d’inclinaison de l’axe de la Terre par rapport au plan orbital de la Terre) et la direction vers laquelle pointe l’axe de rotation de la Terre (« précession axiale »).

Depuis environ un million d’années, l’obliquité a varié entre 22,1 et 24,5 degrés par rapport à la perpendiculaire du plan orbital de la Terre. Ce phénomène est important car il détermine les saisons, et ces variations saisonnières de température peuvent être importantes (par exemple, 26,6° C à Winnipeg, au Manitoba). Actuellement, l’angle (23,4 degrés) se situe à peu près à mi-chemin entre les extrêmes et diminue très lentement selon un cycle d’environ 41 000 ans.

À mesure que l’angle diminue, les saisons deviennent plus douces, avec des hivers de plus en plus chauds et des étés de plus en plus frais. Il est clair que l’obliquité contribue de manière importante au changement climatique, mais elle est naturelle et n’est pas induite par l’activité humaine.

La Terre oscille sur son axe lorsqu’elle tourne (« précession axiale ») en raison des influences gravitationnelles du Soleil et de la Lune. La Terre se bombe à l’équateur, ce qui affecte les marées océaniques, par exemple. La précession axiale a un cycle d’environ 25 772 ans. Ce phénomène a également un impact sur les cycles à long terme du climat en rendant les contrastes saisonniers plus extrêmes ou moins extrêmes dans les hémisphères opposés.

Bien qu’une discussion sur ce sujet soit fascinante en soi, mon but en l’introduisant est de montrer que le climat de la Terre est une superposition d’au moins trois cycles naturels liés à la mécanique du système solaire. Ces cycles ayant des phases différentes, il est possible qu’ils interfèrent de manière constructive ou destructive, entraînant des extrêmes de température qui n’ont rien à voir avec l’homme.

À ces cycles mécaniques se superpose l’impact de la biosphère (sans l’homme), qui a son propre impact sur le climat, notamment le cycle CO2/O2 de la photosynthèse, la respiration de l’eau, la réflectance de l’énergie solaire, les turbulences atmosphériques, les courants océaniques, les variations de la production solaire et une myriade d’autres facteurs.

Ce que je veux dire, c’est que le climat est un système physico-chimique extrêmement complexe et que nous devons nous poser la question suivante :

Les modèles climatiques incluent-ils fidèlement chacun de ces phénomènes, de manière déterministe et avec suffisamment de détails pour qu’ils puissent être décrits par les équations constitutives pertinentes et les contraintes des lois naturelles sous une forme qui rende les prédictions fiables (voir ci-dessous) ?

Ou sommes-nous à nouveau guidés par des aveugles ?

Pour être clair, mon but n’est pas de porter un jugement sur un modèle climatique spécifique, car cela impliquerait une analyse beaucoup plus profonde que celle que je présente ici. Je souhaite simplement sensibiliser le lecteur aux conditions rigoureuses qui doivent être respectées lors de la modélisation de systèmes physico-chimiques complexes, tels que notre climat, dont les résultats peuvent avoir un impact sur la façon dont les futurs investissements de plusieurs milliards de dollars seront réalisés.

Espérons que ce discours incitera les gens à se poser les bonnes questions avant d’approuver de telles dépenses.

D’emblée, il est important pour le lecteur de noter que la science ne progresse pas par consensus (accord universel). Si tout le monde est d’accord sur quelque chose, cela peut simplement signifier qu’ils ont tous tort. C’est le cas avant tous les changements révolutionnaires dans la science (par exemple, la révolution de la relativité d’Einstein et la révolution quantique de Planck).

Par conséquent, lorsque j’entends les partisans du changement climatique affirmer que 97 % des scientifiques sont d’accord pour dire que le changement climatique d’origine humaine est réel, je ne peux m’empêcher de penser à Albert Einstein et aux autres révolutionnaires scientifiques et de me demander ce qu’ils auraient pu penser de cette déclaration !

De même, la science est fondée sur la preuve au niveau du moindre détail et non sur la « croyance », qui n’a pas sa place dans le lexique scientifique. Lorsque j’entends quelqu’un proclamer « Je crois au changement climatique », je frémis et j’ai envie de répondre : « Eh bien, prouvez-le-moi. »

Deux grandes philosophies existent en matière de prédiction : l’empirisme, qui est la philosophie selon laquelle tout ce que nous pouvons savoir doit avoir été expérimenté ; et le déterminisme, qui postule que nous pouvons prédire l’avenir à partir du passé sur la base des lois physiques connues (« lois de la nature »). Ainsi, tous les scientifiques collectent des données qui sont converties en connaissances, et ces connaissances sont finalement utilisées pour formuler les lois de la nature qui, contrairement aux lois de l’homme, sont inviolables et sont vraies en toutes circonstances partout dans l’univers.

En effet, j’aime définir la science comme le processus de transition de l’empirisme (ce que nous observons) au déterminisme (ce que nous savons et pouvons prédire) lors de la formulation des lois naturelles. Ainsi, les lois naturelles représentent la condensation de toute l’expérience scientifique, de sorte que lorsque nous invoquons une telle loi, elle contient des connaissances qui remontent à des milliers d’années, avant Aristote et Archimède.

La « complexité » fait obstacle au passage de l’empirisme au déterminisme. Des volumes ont été écrits sur la complexité, et l’espace ne permet pas un examen même superficiel du sujet ici.

La complexité, c’est comme conduire sur une autoroute par une nuit de brouillard. Le brouillard obscurcit votre vision et ne vous permet de voir que sur une courte distance le long de votre trajet. Maintenant, vous allumez vos feux de route, et voilà que vous pouvez voir beaucoup plus loin. Ainsi, vous avez utilisé un instrument (les feux de route de votre voiture) pour vous permettre de voir plus loin et avec plus de clarté.

Il en va de même pour la science ; en fait, on peut dire que l’ordinateur numérique (nos « feux de route ») nous a permis de faire progresser la science davantage au cours des quatre dernières décennies que la science n’avait progressé au cours de l’histoire précédente. En d’autres termes, l’ordinateur a considérablement étendu nos intellects, ce qui est le rôle des modèles !

Le développement des modèles dans les activités intellectuelles humaines est un sujet très complexe qui dépasse largement le cadre de cet article, mais Frigg et Hartmann en donnent une excellente analyse, quelque peu technique. Je me concentrerai sur les modèles déterministes, car leurs pouvoirs de prédiction sont beaucoup plus importants que ceux des modèles empiriques, la « prédiction » étant l’attribut le plus important que les modèles climatiques prétendent posséder.

Tous les modèles déterministes ont une structure commune, soit explicitement, soit implicitement. Tous les modèles déterministes doivent avoir une base théorique qui est, elle-même, basée sur l’observation. Ces observations peuvent être présentées comme des postulats ou des hypothèses, les postulats étant basés directement sur l’observation.

Il est donc important de noter qu’une théorie ne peut être plus valide que les postulats et les hypothèses sur lesquels elle est basée. En outre, les postulats ne doivent pas présupposer les résultats du modèle, c’est-à-dire que les postulats ne doivent pas accepter comme un fait empirique que le réchauffement climatique d’origine humaine se produit.

Ainsi, si l’on part d’un postulat qui stipule que le climat change et que les humains sont responsables de ce changement, il y a de fortes chances que le modèle prédise exactement cela, mais la prédiction sera invalide en raison de l’entrée d’un biais même non reconnu.

L’environnement de prédiction est également problématique, car ce que l’on cherche à obtenir est une différence fiable entre deux grands nombres fluctuants : le climat tel que nous le connaissons actuellement (y compris l’impact humain) et le climat inconnu qui aurait pu exister en l’absence d’impact humain. Nous pouvons mesurer l’évolution du climat à l’heure actuelle à l’aide de diverses techniques, mais comment mesurer le climat tel qu’il aurait pu exister au cours de la même période sans impact humain ? La réponse courte est que nous ne pouvons pas !

Malheureusement, seule la première réponse est couramment rapportée dans les journaux, donnant l’impression aux non-experts que tout est dû à l’impact humain. Ce n’est pas le cas, et l’impact de l’homme n’est généralement que mineur, mais il s’agit néanmoins d’un élément important. Les gros titres ne seraient pas aussi dramatiques ou effrayants si l’on rappelait aux lecteurs que la composante humaine est la différence entre ce que nous observons et ce que nous modélisons en l’absence d’impact humain, et qu’elle est normalement faible.

Ainsi, nous sommes concernés par des changements de température dus à l’impact de l’homme de quelques dixièmes de degré Celsius sur un fond qui fluctue de plusieurs dizaines de degrés Celsius quotidiennement à mensuellement (en raison du temps) et même plus (généralement 30 à 45 degrés C) au cours des saisons de l’année.

Il ne s’agit pas de nier la gravité possible du changement climatique d’origine humaine si, en fait, il se produit au rythme réclamé par les prophètes de malheur. C’est le défi qui reste à relever.

Il ne fait aucun doute que la modélisation du changement climatique se situe à la limite de la modélisation réalisable, et c’est pour cette raison que la nature des modèles employés doit être examinée de manière critique. Voyez-vous, une partie du problème est que l’art et la science de la modélisation sont rarement enseignés dans les universités ; d’une manière ou d’une autre, on attend des étudiants qu’ils sachent comment modéliser des systèmes physico-chimiques complexes comme si cela faisait partie du génome humain.

L’auteur s’est tellement préoccupé du manque de compétences en matière de modélisation chez les étudiants diplômés qu’il a assuré un cours intitulé « Théories et modèles en science et en ingénierie », alors qu’il était professeur émérite de science et d’ingénierie des matériaux à l’université d’État de Pennsylvanie. Je ne me souviens pas que quelqu’un impliqué dans le changement climatique ait suivi ce cours.

J’ai commencé cet article d’opinion par la question : « Pouvons-nous vraiment modéliser le changement climatique ? » Et je terminerai par une opinion réfléchie. La réponse est un oui nuancé, mais seulement, à mon humble avis, si les modélisateurs adhèrent à certaines règles. Les modélisateurs doivent :

  • Décrire soigneusement les bases théoriques du modèle, énoncer clairement tous les postulats et hypothèses, et démontrer qu’ils ne reflètent pas un parti pris préconçu en faveur d’un certain résultat.
  • Énumérer et décrire les équations et les contraintes constitutives, démontrer que toutes les équations sont indépendantes et qu’il existe un nombre suffisant d’équations pour couvrir toutes les inconnues.
  • S’abstenir d’introduire des facteurs « ad hoc » (« constante de Crook » à l’époque où j’étais étudiant) pour faire « fonctionner » le modèle.
  • S’assurer que toutes les données d’étalonnage sont connues grâce à des expériences indépendantes et que l’on sait qu’elles sont vraies dans des limites bien établies.
  • Définir soigneusement le terme « succès » et s’assurer que la méthode scientifique de prédiction et d’évaluation est strictement pratiquée, y compris le rejet du modèle si une seule prédiction incorrecte est faite et ne peut être corrigée par une réévaluation valide des paramètres du modèle et des données d’entrée.

J’insiste sur le fait que les « règles » de modélisation exposées ci-dessus ont été établies par de nombreux philosophes scientifiques au cours de milliers d’années de travail collectif et ont été inculquées dans le passage de l’empirisme au déterminisme que j’appelle « science ».

Comme le dit le dicton, « le diable se cache dans les détails ». L’accent mis sur les lois naturelles rend ces règles conformes à l’expérience scientifique antérieure et doit être reconnu dans toute tentative de modélisation déterministe de systèmes physico-chimiques complexes, y compris (et surtout) le climat de la Terre.

Les ignorer, c’est le faire à vos (et nos) risques et périls.

Digby D. Macdonald est né en Nouvelle-Zélande, a été naturalisé américain et est professeur en résidence (semi-retraité) aux départements de génie nucléaire et de science et génie des matériaux à l’Université de Californie à Berkeley. Il est titulaire d’un B.Sc. et d’un M.Sc. de l’Université d’Auckland et d’un doctorat de l’Université de Calgary (1969), tous en chimie. Le professeur Macdonald a publié plus de 1 100 articles dans des revues à comité de lecture et des comptes rendus de conférences, et a publié quatre livres. Il est membre de la Société royale du Canada, de la Société royale de Nouvelle-Zélande (les « Académies nationales » de ces pays) et de l’Académie des sciences de l’UE. Il bénéficie d’un indice Hirsch de 79 et ses articles ont été cités plus de 27 846 fois.

Rejoignez-nous sur Télégram pour des informations libres et non censurées  :

t.me/Epochtimesfrance

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.

Voir sur epochtimes.fr
PARTAGER