Een bijdrage van Ferdinand Engelbeen

In de klimaatdiscussie duikt regelmatig de vraag op of klimaatmodellen, waarop het klimaatbeleid is gebaseerd, wel voldoende betrouwbaar zijn. In enkele commentaren (op Henk dJ en Hermie) schreef Ferdinand Engelbeen daarover onlangs het volgende.

In antwoord op Henk dJ.

Een beetje late reactie op jouw reactie, pas vandaag op deze discussie terecht gekomen …

Even ter verduidelijking: mijn achtergrond is proceschemie, maar door ervaring en blijven studeren met vele disciplines in aanraking gekomen en sinds eind jaren ’70 in de (proces)computers gerold, inclusief het gebruik van (chemische) modellen. Nu al ruim 10 jaar met pensioen, dus ook “niet meer bij” zou Rosanne Hertzberger zeggen. Ook al ruim 40 jaar geïnteresseerd in het klimaat, na het lezen van een boek over de invloed van de zon op het aardse klimaat…

Om te beginnen: het IPCC heeft als opdracht de bijdrage van de mens op het klimaat te bepalen. Heeft dus geen enkele reden om naar de bijdrage van de natuur zelf te kijken. Dat zit dan ook nauwelijks in de klimaatmodellen (enkel als “pure” stralingsenergie, zonder al te veel terugkoppelingen).

Verder heb ik uit (niet zo beste) ervaring geleerd dat een (chemisch) model maar net zo goed is als men ALLE deelnemende factoren zo nauwkeurig mogelijk kent. Als er één factor ontbreekt of verkeerd is ingeschat, dan gaat het model compleet de mist in. In klimaatmodellen zitten zo veel half/onbekende factoren dat je tientallen runs kan doen waarbij je simpelweg wat jouw het meest plausibele voorkomt kan uitkiezen. De hele range van 1,5 – 4,5 graad Celsius zegt al genoeg: als je een brug ontwerpt met zulke tolerantie, dan is de kans groot dat ze vroeg op laat instort … Hier gaat het dan wel over vele triljoenen aan geld …

De werkelijk gemeten opwarming in de afgelopen decennia ligt rond 1,5ºC voor 2xCO2, dat is rond de ondergrens. Dat het IPCC nu schreeuwt dat we zelfs die 1,5ºC niet halen is dus enkel gebaseerd op de “ergste” modellen.

Overigens zitten er veel meer nuances in wat de klimaatwetenschappers denken, daarvoor is de enquête van Hans von Storch en Dennis Bray verhelderend.

Zo is amper 20% (!) van de klimaatwetenschappers er van overtuigd dat de klimaatmodellen de wolkenvorming adequaat weergeven. Maar 1% meer of minder wolken heeft hetzelfde energiebalans effect als 2xCO2…

Simpel gezegd: de huidige klimaatmodellen zijn gewoon waardeloos, maar daar is de hele IPCC retoriek met alle geldstromen van dien wel op gebaseerd … Niet bepaald degelijke wetenschap …

In antwoord op Hermie.

Ik heb in de beginjaren van RealClimate aldaar aardige bijdragen geleverd, o.m. over de compenserende bijdrage van aerosolen aan de invloed van CO2 om de temperatuur “dip” 1945 – 1975 te verklaren. Na verloop van tijd verdween de helft van mijn bijdragen in cyberspace, zodat ik het heb opgegeven daar nog enige commentaar te leveren. Jammer, want het had een goede bron van discussie kunnen worden.

Wat betreft de grafieken: vergeet de temperaturen van GISS, HadCRU en alle andere temperatuur reeksen op het oppervlak: die zijn zo dikwijls aangepast dat ze gewoon totaal onbetrouwbaar zijn. De laatste aanpassing door het “aanpassen” van de zeewater oppervlak temperaturen door Thomas Karl (ex-NOAA) is daar een schitterend voorbeeld van: het verleden werd plots kouder, het heden warmer.

Niet dat aanpassingen soms nodig zijn, maar dan om objectieve redenen: gemiddeld gaan dan de data wat omhoog of wat omlaag. maar verandert er weinig in de trend. Als echter alle aanpassingen eenzijdig één kant op gaan, dan klopt er iets niet…

Ook de tweede satelliet reeks van RSS is sinds kort niet meer betrouwbaar: men heeft de directe vergelijkende grond/ballon data vervangen door “gemodelleerde”. Pure manipulatie.

UAH satelliet data hebben ook de nodige correcties gehad, maar die zijn nog steeds gebaseerd op wat ze moeten zijn: baancorrecties, tijdcorrecties, vergelijking met ballondata, enz. Niet direct op grondhoogte, maar gezien het CO2 effect vooral in de hogere troposfeer van de tropen te vinden zou zijn – volgens de klimaatmodellen – zitten de modellen gegarandeerd fout, want die “hot spot” is niet te vinden…

In een andere reactie op Henk dJ schreef schreef Ferdinand Engelbeen:

Ik heb de indruk dat veel van de antwoorden op de enquête van Bray/von Storch op basis van een buikgevoel zijn en niet erg beredeneerd: als slechts 20% van de ondervraagden één van de belangrijkste klimaatregelingen als onvoldoende weergegeven in de klimaatmodellen beschouwd, dan is zo’n model waardeloos. Als 80% van de ondervraagden daarna dan grotendeels overtuigd is dat de modellen het in de (verre) toekomst wel goed (zullen) doen, dan klopt er iets niet in hun kennis van modellen…

Verder is het een “must” voor een model dat het de calibratiejaren zo goed mogelijk weergeeft, anders heeft het geen enkele zin om verder te gaan. Dat zegt echter totaal niets over de capaciteit van het model om de toekomst goed weer te geven: je kan bv. de (onzekere) invloed van aerosolen verdubbelen of halveren, dan kan je door halveren of verdubbelen mits aanpassen van het effect van 2xCO2 de hele periode 1900-2000 even goed simuleren, de toekomstige opwarming wordt dan echter ook 2x zo groot of halveert…  Zie hier.

Uit nogal wat onderzoeken blijkt dat wolken de meest adequate klimaatregeling is die we op aarde hebben: over een jaar is er een verschil van ongeveer 20 W/m2 invallend zonlicht tussen onze NH zomer (minimum) en winter (maximum). Dat geeft amper aanleiding tot een temperatuurverandering, integendeel: de gemiddelde aardetemperatuur in de NH zomers zijn iets warmer dan de ZH zomers, maar dat is meer een kwestie van land/oceaan oppervlak.

Waardoor? Door de bewolking in de tropen die toeneemt bij hogere temperaturen en afneemt bij lagere. Zie o.m. hierhier en hier.

Wat betreft oceaanstromen: El Niño zit er wel in, maar rudimentair, als stochastisch effect, zonder duidelijke oorzaak. Langere periodieke oceaanstromen zoals de 60-80 jaar cycli van PDO, NAO, AO, … zitten er niet in om van extra lange cycli zoals de 1000-1200 jaar golfbeweging tussen warmer (Minoïsche, Romeinse, Middeleeuwse periodes) en kouder nog te zwijgen.

Als je de PDO vergelijkt met de opwarming, dan is het duidelijk dat er een correlatie tussen beide is: 1910-1945, 1976-2000 waren PDO positief en sterke opwarming, 1946-1975 gaf een lichte afkoeling en 2000-heden een lichte opwarming.

Met even goede argumenten kunnen we dus beweren dat de oceaanstromen de drijvende kracht achter de opwarming zijn en dat CO2 enkel verantwoordelijk is voor het kleine verschil in “stijgsnelheid” tussen 1946-1975 en 2000-heden…

Nog ter aanvulling:

Volgens het meest recente IPCC rapport zou het verschil tussen 1,5ºC en 2ºC opwarming catastrofale gevolgen hebben. Technisch gezien is die 0,5ºC  het verschil in “klimaat” tussen Brussel en Amsterdam. De volledige 1,5ºC is de “opwarming” van Parijs ten opzichte van Amsterdam. Al de daarop volgende catastrofen zitten enkel in de fantasie van de klimaatmodellen. Sinds we uit de Kleine IJstijd kruipen met een geschatte 0,8ºC opwarming zijn er niet meer extreme weersfenomenen: niet in regenval, droogte, tornado’s (in de VS), globale orkanen of orkaansterkte (integendeel) of zeespiegelstijging…

Aldus Ferdinand Engelbeen.

In een recente peer-reviewed publicatie getiteld, ‘A Test of the Tropical 200- to 300-hPa Warming Rate in Climate Models’, hebben Ross McKitrick and John Christy de klimaatgevoeligheid (het temperatuureffect van een verdubbeling van de CO2-concentratie in de atmosfeer) in klimaatmodellen nader getoetst. Hun conclusie was dat alle modellen meer warmte projecteerden dan in werkelijkheid werd gemeten.

Samenvatting

Overall climate sensitivity to CO2 doubling in a general circulation model results from a complex system of parameterizations in combination with the underlying model structure. We refer to this as the model’s major hypothesis, and we assume it to be testable. We explain four criteria that a valid test should meet: measurability, specificity, independence, and uniqueness. We argue that temperature change in the tropical 200- to 300-hPa layer meets these criteria. Comparing modeled to observed trends over the past 60 years using a persistence-robust variance estimator shows that all models warm more rapidly than observations and in the majority of individual cases the discrepancy is statistically significant. We argue that this provides informative evidence against the major hypothesis in most current climate models.

Lees verder hier.

We hebben het hier vaak betoogd:

Die verschrikkelijke opwarming bestaat alleen maar in de virtuele werkelijkheid van de klimaatmodellen.

Ergo:

Het huidige miljarden verslindende klimaatbeleid ontbeert een soliede wetenschappelijke basis.