30-12-2012

Antarctica warmer!


Bron: Google Earth

Afgelopen week was het ongetwijfeld weer feest in huize Van Calmthout. De wetenschapsredacteur van de Volkskrant had een bericht gemaakt over een recente publicatie van Bromwich et al. in Nature.

Het verhaal begint in 2009, als Steig et al in Nature publiceren over recente temperatuurontwikkelingen op Antarctica. Steig et al vonden voor West Antarctica vanaf 1956 tot 2006 een temperatuurstijging van 0,17 °C/decennium  (+/- 0,06 °C) , dus voor de gehele periode een stijging van 0,85 °C.


Reconstructed annual mean West Antarctic temperature anomalies 1957 - 2006
Bron:  Steig et al 2009


De resultaten van Steig et al werden in datzelfde jaar nog door O’Donnell et al gecorrigeerd. Ze stelden vast dat Steig et al op een aantal cruciale punten fouten hadden gemaakt. Zo waren de satellietgegevens onjuist gecalibreerd en was de ruimtelijke invulling onjuist gedaan (er zijn zeer weinig meetpunten op Antarctica).    O’Donnell  en zijn team hanteerden een volgens hen betrouwbaarder methode en kwamen tot de conclusie dat de opwarming van West Antarctica eigenlijk alleen had plaats gevonden in haar uitloper, Peninsula. De opwarming op het schiereiland bedroeg tussen 1957 en 2006 0,3 °C/decennium. Op het overige deel van West Antarctica is de opwarming in genoemde periode gering.

Hieronder ziet men de dramatische bijstelling van de temperatuuranomalie voor het gehele continent als men de methode van O’Donnell et al toepast:


Temperatuuranomalie  voor correctie
 

Temperatuuranomalie na correctie. Bron  O’Donnell

In de laatste figuur is met rode punt de ligging van Byrd Station weergegeven, dat we later nog zullen tegenkomen.  Grijs geleurd zijn de gebieden die in genoemde periode geen statistisch significante trend laten zien.

De studie van O’Donnell  was ongetwijfeld een domper voor allen die zo graag in een stevige opwarming van de aarde willen geloven als gevolg van menselijk gedrag. De opwarming van Antarctica viel allerzins mee en was eigenlijk alleen zichtbaar op het schiereiland. Later bleek dat die opwarming vooral het gevolg was van het opwarmen van de Kaap Hoornstroom en niets te maken heeft met ‘global warming’.

En dan was er afgelopen week de publicatie van Bromwich et al. Bromwich et al in hun abstract:  “ West Antarctica has probably warmed since the 1950s, but there is disagreement regarding the magnitude, seasonality and spatial extent of this warming. This is primarily because long-term near-surface temperature observations are restricted to Byrd Station in central West Antarctica, a data set with substantial gaps. “.

Dat laatste klopt, kijk maar eens naar de GISS data van dit station:


Bron: GISS/NASA
 

 


Bron:  GISS NASA
 

Te zien is dat er eigenlijk geen sprake is van een meetreeks: er zijn grote hiaten. Bovendien waren er sterke aanwijzingen dat de meetgegevens onjuist waren vanwege verplaatsingen van apparatuur, veranderingen in apparatuur en dergelijke. Kortom, eigenlijk deugt er van de data niet veel. En pas op: in de eerste grafiek is er een sterke uitschieter te zien in 1970. De vertikale schaal van deze grafiek verschilt echter van die van de tweede grafiek!

Wat hebben Bromwich et al nu gedaan? Zij hebben een van de sensoren opgehaald die gebruikt is op Byrd Station en hem geijkt aan de Universiteit van Wisconsin. Ze ontdekten een softwarefout die foute data had geïntroduceerd in de meetreeks. Die fouten zijn door het team ‘hersteld’. Vervolgens hebben ze geautomatiseerde analysedata van de atmosfeer gebruikt om de grote leemtes in de reeks op te vullen.
Wat de uitkomst van deze grootschalige ‘homogenisatie’  van de temperatuurreeks van Byrd Station is kunt u op de volgende grafiek zien:


Bron: supplement Bromwich

Bromwich et al komen voor West Antarctica tot de volgende conclusies:  “The record reveals a linear increase in annual temperature between 1958 and 2010 by 2.4±1.2 °C, establishing central West Antarctica as one of the fastest-warming regions globally.”.  Dat is een conclusie die er niet om liegt.

Maar hoe ziet een en ander er uit als we alleen maar uitgaan van de GISS/NASA data en geen gebruik maken van alle technieken die Bromwich et al toepassen? Dat kunt u hieronder zien:


Bron :  GISS/NASA en WUWT

Als men alle bekende GISS/NASA data van Byrd Station in een grafiek plaatsen en een lineaire trendlijn intekenen komt men uit op een temperatuurstijging van 1957 t/m 2012 van 2 °C, dat wil zeggen een stijging per decennium van 0,357 °C.  Dat ligt iets onder de raming van Bromwich et al van 0,4  °C/decennium.

Kijken we echter naar het verloop van de temperatuur in de periode 1957-2012, dan zien we dat de temperatuurstijging vooral plaats heeft gevonden in de periode vóór 1990. Voor de periode na 1990 is ook een trendlijn ingetekend. Het is duidelijk: na 1990 is de trend in Byrd Station 0: er vindt sinds 1990 geen opwarming meer plaats. Bromwich et al corrigeren bovendien de data vanaf 1988, zodat op basis hiervan de trend vanaf 1990 zelfs negatief is vergeleken met de GISS/NASA data.

Conclusies: Bromwich et al maken van een zeer onvolledige meetreeks een volledige record. Die ‘gemaakte’ meetreeks van slechts 1 meetstation dient dan als basis voor een keiharde conclusie voor geheel West Antarctica: “….establishing central West Antarctica as one of the fastest-warming regions globally. ” . Daarbij gaat men  volledig voorbij aan het feit dat men in Byrd Station al meer dan 20 jaar geen opwarming meer meet. Bromwich noemt dit in een interview met The New York Times “the weather in West Antarctica seems to have become somewhat erratic.”  (onregelmatig).

Kortom, voor Van Calmthout voldoende houvast om er in de Volkskrant weer stevig tegenaan te gaan met de alarmerende kop: Antarctica in halve eeuw 2,5 graad warmer. Het volk moest blijkbaar met kerst nog eens eventjes met de neus op de 'feiten'  gedrukt worden. En als die niet voorhanden zijn dan maken we die toch? Saillant is dat in de Volkskrant van afgelopen weekeinde een prachtig artikel stond met een top-10 van grootste wetenschappelijke blunders. Het zelfreinigend vermogen van sommige wetenschappers is niet groot, maar van wetenschapsjournalisten eigenlijk wel?

 


26-12-2012

CO2 in het geologisch verleden

De welhaast hysterische wijze waarop door klimaatalarmisten een  1 op 1 koppeling tussen atmosferisch CO2-gehalte en aardse temperatuur wordt gesuggereerd kan niet vaak genoeg bestreden worden.  Dat doe je het beste door cleane feiten te presenteren. En natuurlijk de gouden regel toepassen die we kennen uit de propagandistische literatuur, namelijk die feiten herhalen en nogmaals herhalen.

In zijn lezing op de klimaatconferentie in Rijsoord ( 8-12-2012)  zette geoloog Harry Priem nog eens op een rijtje wat het atmosferisch CO2-gehalte en het aardse temperatuurverloop op geologische tijdschaal geweest zijn. Dat laatste wordt fraai geïllustreerd door onderstaande grafiek. Vanuit een geologisch en planetaire perspectief bezien is een van de meest opvallende eigenschappen van systeem aarde dat gedurende de hele geologische geschiedenis de temperatuurschommelingen steeds binnen een vrij smalle band gelegen hebben.  Bovendien zorgden die aardse temperaturen er meestal voor dat er watermassa’s met gematigde temperaturen mogelijk waren, wat zeker heeft bijgedragen tot het ontstaan van leven op onze planeet.


Bewerking naar Hamilton + Christiansen

De aardse geschiedenis kende veel langere perioden met hogere temperaturen dan met lagere, vergeleken met de huidige 15° C gemiddeld. Dat de grafiek in 0 BP  veel lager eindigt dan de lijn van 15° C is het gevolg van het feit dat de gemiddelde temperatuur gedurende het Kwartair veel lager is dan de huidige, gevolg van relatief langdurige glacialen in vergelijking met de zeer korte interglacialen Zie de figuur hieronder die het gereconstrueerde temperatuurverloop van de afgelopen 350.000 jaar weergeeft (archief ijskern Vostok).


Bron:  Sime et al 2009

In onderstaande grafiek is een reconstructie weergegeven van het atmosferisch CO2 op basis van het zogenaamde GEOCARB3 model en proxies.

Bron:  Royer & Berner 2004

Het GEOCARB3 model is een model waarin met behulp van een aantal parameters zoals verwering en temperatuur een reconstructie gemaakt is van het CO2-gehalte in de atmosfeer. Berner gaat uit van de veronderstelling dat er sprake is van een steady state van de koolstofstromen die tussen atmosfeer en oceanen aanwezig zijn. De verwering van silicaatgesteente is in het model de spil waar alles om draait. In onderstaande figuur is door Priem de diverse sinks en sources van CO2 weergegeven.


Bron:  Harry Priem

Opvallend is dat het atmosferisch CO2 gedurende de laatste 700 miljoen jaar steeds tussen de 200 en 7500 ppm schommelde. Het merendeel van de tijd was het CO2-gehalte veel hoger dan het huidige niveau van 390 ppm,, dat in de geologische geschiedenis wordt alleen geëvenaard in het Laat Paleozoïcum. In onderstaande grafiek zijn temperatuur en CO2-gehalte samengebracht:


Bron: Scotese

Voor wie meer wil lezen over dit onderwerp kan uiteraard in het menu onder “De Feiten”  het hoofdstuk “CO2 in het verleden” er op naslaan.  De bij de lezing van Priem behorende tekst kunt u hier nalezen.
 
16-12-2012

Ruwe versie IPCC rapport 5 is gelekt


De ruwe versie van het AR5 rapport, dat in 2013 moet verschijnen, is op het internet gezet door een van de reviewers, Alec Rawls. U kunt alle hoofdstukken downloaden van zijn site stopgreensuicide.

Dit is natuurlijk wereldnieuws, omdat veel wetenschappelijke informatie nu snel bij het publiek komt. En dat is informatie die nog niet door de politieke zeef gegaan is. De figuur hieronder is een van de klimatologische ‘bommen’ in het nieuwe rapport. Het laat zien dat de huidige gemiddelde temperatuur op aarde nu al buiten alle voorspellingen van de voorafgaande 4 IPCC-rapporten valt.
 

Alec verdedigt zijn actie als volgt:
I believe that the leaking of this draft is entirely legal, that the taxpayer funded report report is properly in the public domain under the Freedom of Information Act, and that making it available to the public is in any case protected by established legal and ethical standards, but web hosting companies are not in the business of making such determinations so interested readers are encouraged to please download copies of the report for further dissemination in case this content is removed as a possible terms-of-service violation. My reasons for leaking the report are explained below.   ”

En:
The ethics of leaking tax-payer funded documents requires weighing the “public’s right to know” against any harm to the public interest that may result. The press often leaks even in the face of extreme such harm, as when the New York Times published details of how the Bush administration was tracking terrorist financing with the help of the private sector Society for Worldwide Interbank Financial Telecommunication (SWIFT), causing this very successful anti-terror program to immediately collapse. That was a bad leak, doing great harm to expose something that nobody needed to know about. With the UN’s IPCC reports the calculus is reversed. UN “climate chief” Christina Figueres explains what is at stake for the public: … we are inspiring government, private sector, and civil society to [make] the biggest transformation that they have ever undertaken. The Industrial Revolution was also a transformation, but it wasn’t a guided transformation from a centralized policy perspective. This is a centralized transformation that is taking place because governments have decided that they need to listen to science.

So may we please see this “science” on the basis of which our existing energy infrastructure is to be ripped out in favor of non-existent “green” energy? The only reason for secrecy in the first place is to enhance the UN’s political control over a scientific story line that is aimed explicitly at policy makers. Thus the drafts ought to fall within the reach of the Freedom of Information Act.
The Obama administration implicitly acknowledged this when it tried to evade FOIA by setting up private “backdoor channels” for communications with the IPCC. If NCAR’s Gerald Meehl (a lead author of AR5′s chapter on near-term climate change), has working copies of the draft report (and he’s only one of dozens of U.S. government researchers who would), then by law the draft report (now finished) should be available to the public.

The IPCC’s official reason for wanting secrecy (as they explained it to Steve McIntyre in  January 2012) is so that criticisms of the drafts are not spread out across the internet but get funneled through the UN’s comment process. If there is any merit to that rationale it is now moot. The comment period ended November 30th so the comment process can no longer be affected by publication.
As for my personal confidentiality agreement with the IPCC, I regard that as vitiated by the systematic dishonesty of the report (“omitted variable fraud” as I called it in my FOD comments). This is a general principle of journalistic confidentiality: bad faith on one side breaks the agreement on the other. They can’t ask reviewers to become complicit in their dishonesty by remaining silent about it.
Then there is the specific content of the Second Order Draft where the addition of one single sentence demands the release of the whole. That sentence is an astounding bit of honesty, a killing admission that completely undercuts the main premise and the main conclusion of the full report, revealing the fundamental dishonesty of the whole
. ”

Hier gaan we de komende maanden nog veel meer van horen.


15-12-2012

Klimaatmodellen en betrouwbaarheid

Ik heb hier al vaker laten zien dat klimaatmodellen hun beperkingen hebben, met name als ze gebruikt worden om op langere termijn voorspellingen te doen. Mark Maslin en Patrick Austin van het University College in Londen hebben daarover  in juni 2012 geschreven in Nature onder de titel ‘Climate models at their limit?

De huidige generatie modellen is weliswaar beter dan ooit in het nabootsen van het complexe klimaatsysteem, maar merkwaardig genoeg produceren deze geavanceerde modellen eerder méér dan minder onzekerheden in hun voorspellingen. Volgens Maslin en Austin hebben klimaatmodellen hun limiet bereikt voor wat betreft predictie.

De oorzaken van deze paradox zijn divers. De meest voor de hand liggende is het feit dat modellen de werkelijkheid niet zijn. Modellen zijn per definitie niet in staat om het zeer complexe systeem  van het aardse klimaat betrouwbaar na te bootsen. Oreskes et al van de University of California hebben aangetoond dat het daarom onmogelijk is om de deugdelijkheid van klimaatmodellen vast te stellen en te valideren.

De tweede factor is dat de opzet van modellen sterk uitleen loopt, en dus ook de parameterisatie van belangrijke klimaatprocessen zoals wolkvorming. Met name de grote ruimtelijke variatie van de neerslag zorgt er al voor dat regionale voorspelling hoogst onzeker zijn. Zo levert een van de bekendste modellen, HadCM3 van Metoffice, een onnauwkeurigheid van de jaarlijkse afvoer van het stroomgebied van de Mekong Rivier   van een afname van 5,4% tot een toename van 4,5%.  De maandelijkse afvoer schommelt zelfs van -16% tot +55%. Waarden waar geen enkele beleidsmaker iets mee kan.

De derde oorzaak is dat de verwachte hoeveelheden broeikasgassen en aerosolen aan het einde van deze eeuw gebaseerd zijn op economische modellen die zonder twijfel maar een slag slaan naar het gebruik van fossiele energiedragers over 90 jaar. De energiemarkt is heftig in beweging: aan de ene kant zien we een toename van ‘groene’  energiebronnen, aan de andere kant worden steenkool en aardgas steeds goedkoper dankzij nieuwe wintechnieken. Er is niemand die kan overzien wat dat betekent voor de situatie over 10 jaar, laat staan over 90 jaar.  Er is aan toe te voegen dat de invloed op het aardse klimaat van verandering van broeikasgassen en aerosolen nog lang niet duidelijk is.

De huidige generatie klimaatmodellen zijn goed in staat de onzekerheden van complexe factoren te kwantificeren. De chemie van de atmosfeer en de ruimtelijke resolutie van de nieuwe modellen zijn beter dan ooit. Maar tegelijkertijd betekent het incorporeren van complexe processen tevens het toevoegen van meer onbekenden. Analyse van deze nieuwste modellen toont bijvoorbeeld een grotere spreiding van de voorspelde globale temperatuur dan voorheen.

Een beetje vreemd is het als na het benoemen van al deze toenemende onzekerheden in de nieuwe generatie modellen Maslin en Austin toch blijk geven van een groot vertrouwen in diezelfde modellen. Ze maken zich zorgen over de toegenomen scepsis ten aanzien van klimaatmodellen en geven zelfs aan op welke manier het vertrouwen van het ‘publiek’  in de betrouwbaarheid van modellen vergroot kan worden. Dat doet me denken aan de grote schrijver Gerard Reve, die, toen hij werd aangevallen door vakbroeders vanwege zijn commerciële houding, de kritiek pareerde door simpelweg te verklaren dat hij het inderdaad allemaal voor de publiciteit en het geld deed, want "ik heb een winkel.". Zo openlijk heb ik wetenschappers echter nog nooit horen spreken.
 


14-12-2012

Voorspellingen doen in chaotische systemen

De lezing van Henry Masson op de klimaatconferentie in Rijsoord op 8 december 2012  was bijzonder, maar voor mij soms erg moeilijk te volgen.  Dat had niet zozeer te maken met het onderwerp , hoe betrouwbaar kun je tijdreeksen doortrekken in de toekomst, als wel  omdat zijn benadering niet klimatologisch (natuurkundig) maar statistisch is.

 


Hij bekijkt de problematiek vanuit wiskundig/statistisch oogpunt, en komt tot opmerkelijke conclusies. In de figuur hierboven is dat weergegeven: voor de wiskundige benadering is het klimaatsysteem een black box.

Het uitgangspunt is dat het klimaatsysteem  een chaotisch systeem is. Een dergelijk systeem heeft bepaalde eigenschappen die niet af te leiden zijn uit die van de samenstellende delen. Een van de gevolgen daarvan is dat ze niet-lineair zijn: kleine afwijkingen in het systeem kunnen tot  zeer diverse gevolgen leiden. Een ander kenmerk is dat het gedrag van een complex systeem op een bepaald moment vooral bepaald wordt door de daaraan voorafgaande gebeurtenissen.  De combinatie van deze eigenschappen zorgt er voor dat het nauwelijks mogelijk is om aan de hand van tijdreeksen voorspellingen te doen voor de toekomst. Een aanwijzing daarvoor zijn de diverse temperatuurpredicties in het 4e rapport van het IPCC en het werkelijke verloop van de globale temp vanaf 2000 ( grafieken hieronder). 

 

 

Het klimaatsysteem is vooral daarom chaotisch omdat we nog steeds geen volledig zicht hebben op de afzonderlijke onderdelen van het systeem, met hun specifieke werking. Een eigentijds voorbeeld is het gedrag van wolken in de energiebalans van de aarde. Masson stelt dat vanwege het chaotisch karakter van het klimaat het in feite onmogelijk is om voorspellingen te doen over de temperatuur. Complexe systemen zijn sterk non-lineair, waardoor ze niet geschikt zijn voor ‘klassieke’  regressie-analyse e.d. De gebruikelijke methoden om ruis uit een meetreeks te verwijderen zijn gebaseerd op de vooronderstelling dat de data Gausiaans verdeeld zijn rond een trendlijn. Volgens Masson levert een dergelijke techniek vaak een zogenaamd hockey-stickeffect op zoals we dat ook kennen van de publicaties van Mann et al.

 


Tijdreeksen worden vaak beïnvloed door een zekere mate van random noise, bijvoorbeeld door externe factoren of vanwege beperkingen in het modelleren. In een aantal gevallen wordt het systeem dan chaotisch: de indicatoren bewegen dan rond een of meer ‘strange attractors’. In de bovenste grafiek links  is er nog sprake van een voorspelbaar signaal met enige ruis, in de onderste is het signaal niet voorspelbaar en chaotisch.

      

De rechter grafiek toont een voorbeeld van een dergelijk signaal rond attractors.  Het is de tijdreeks van de temperatuur van de bekende Vostok ijsboring op Antarctica.

Masson liet tijdens de lezing zien dat de functie   chaotisch kan worden afhankelijk van de grootte van de variabele α. De functie kan dan van stabiel.....

licht chaotisch worden.......

en dan steeds chaotischer worden:


Bij een hele lichte wijziging van de variabele α verandert zelfs de positieve trend in de vorige grafiek in bijna geen trend:

Het is daarom van het grootst belang om in tijdreeksen een methode toe te passen om eventueel chaotisch gedrag te ontdekken.  Masson maakt daarbij gebruik van een aantal statistische technieken, waarvan de zogenaamde recurrence plots mij het best bij zijn gebleven, al was het alleen al vanwege de wonderlijke patronen die daarbij kunnen ontstaan.  Recurrence plots vormen krachtig  kwalitatief visueel gereedschap om   patronen in tijdreeksen te ontdekken.

Onderstaande plot betreft de temperatuurreeks van Ukkel sinds 1830. Volgens Masson toont de plot dat er geen trend te ontdekken is in het signaal.

Masson concludeert :


 
9-12-2012

De rol van de zon

Op de klimaatconferentie van 8 december in Rijsoord hield paleo-ecoloog Bas van Geel van de UvA een voordracht over de onderschatte rol van de zon op het aardse klimaat. Hij hekelde de houding van het IPCC die de rol van CO2 op het aardse klimaat overschat en die van de zon onderschat. Op onderstaande figuur uit het IPCC-rapport van 2007 is dat goed te zien:

De blauwe band toont het temperatuurverloop volgens de door het IPCC gebruikte klimaatmodellen in de diverse regio’s als er geen ‘CO2-effect’  is. Het ziet er allemaal erg dramatisch uit, reden waarom deze figuur graag gebruikt wordt om de rol van de mens op het klimaat te benadrukken. Dat deed Rob van Dorland van het KNMI in zijn lezing.

Van Geel toont in zijn voordracht aan dat hier sprake is van onderschatting van de rol van de zon. Dat de zon in de ogen van het IPCC een ondergeschikte rol speelt is goed te zien op onderstaande figuur. De totale antropogene radiative forcing wordt door het IPCC 15x groter ingeschat dan die van de zon.

De activiteit van de zon is onder andere herkenbaar aan het aantal zonnevlekken aan het oppervlak.  Bekend is dat het aantal zonnevlekken een zekere variatie in de tijd kent.  In het menu onder “Nieuwe Inzichten”  is in de hoofdstukken ‘De Zon’  en ‘Zonnecycli’  daarover al het een en ander geschreven.

Op de figuur is te zien dat vooral in de vorige eeuw de activiteit van de zon sterk is toegenomen. Van Dorland beweerde in een reactie dat na 1958 (de piek in de grafiek) de activiteit weer afgenomen is en dat invloed op de temperatuur meer gerelateerd is aan de toename van de activiteit dan aan de grootte ervan.  Door Van Geel werd dat ontkend en ikzelf heb ook in de literatuur geen aanwijzing kunnen vinden dat Van Dorlands opmerking juist zou zijn.


Bron: Damon et al, 1998

Behalve waarnemingen van het aantal zonnevlekken worden ook kosmogene isotopen in natuurlijke archieven gebruikt om de veranderingen in de activiteit van de zon te meten. In planten wordt 14C gevonden, in ijskernen 10Be. In bovenstaande grafiek is te zien dat 14C en 10Be isotopen prachtig de periodische en aperiodische variaties van de zonneactiviteit volgen. In de grafiek zijn de waarden van 14C EN 10Be omgekeerd evenredig met de zonneactiviteit.

Vele voorbeelden laten volgens Van Geel zien dat het klimaat hypergevoelig is voor relatief kleine veranderingen in de activiteit van de zon. Die hypergevoeligheid alleen verklaard worden met versterkingsmechanismen. Op bovenstaande figuur is te zien dat in stalagmieten in Oman de correlatie tussen het 14C isotoop en de temperatuur zeer opvallend is. Het zuurstofisotoop 18O in neerslag wordt in de paleoklimatologie gebruikt om de temperatuur van neerslagwater vast te stellen.

Ook de opmerking van Van Dorland als zouden onderzoeksresultaten alleen regionaal correlaties vertonen lijkt geen hout te snijden: in een publicatie van Stuyver et al uit 1998 wordt een opmerkelijke synchrone correlatie gevonden in 14C gehalten tussen 1550 en 1750 op 3 continenten:

 


Bovenstaande data komen uit een studie van Bond c.s. uit 2001, gepubliceerd in Science.  Bond en zijn team onderzochten de afzettingen die door ijsbergen op de bodem van het noordelijk deel van de Atlantische Oceaan zijn afgezet vanaf het einde van de laatste ijstijd tot nu toe.  Behalve dat in koude periodes de sedimenten veel verder van de landijsmassa's werden afgezet , varieert ook de dikte van de sedimenten behoorlijk). In de grafiek is te zien dat er een nauwe correlatie is tussen 10Be  en het voorkomen van dat zogenaamde ‘ice-rafted debris’. Zie ook verdere informatie over deze studie onder 'Niwue Inzichten'.

De data uit de publicatie van Bond et al zijn ook gebruikt door Magny in 2007, waarin hij een verband aantoont met de waterstanden in Alpenmeren in Laat-Pleistoceen en Holoceen.


Er zijn nog vele andere onderzoeksresultaten die aantonen dat zonne-activiteit van grote invloed is op het aardse klimaat. Zo is er de publicatie van Sejrup uit 2010 over de respons van de temperatuur van de Noorse Zee sinds 1000 jaar...

 


......het eigen onderzoek van Van Geel aan veenafzettingen......


... die weer goed corresponderen met de meerafzettingen in het Meerfelder Maar, een restant van en oude caldera in de Eiffel. Alhoewel de fluctuaties van de totale zonnestraling gedurende het Holoceen relatief klein zijn geweest lijken de gevolgen toch groot.  Onderstaande grafiek is van de publicatie van Steinhilber et al uit 2009.

Als we inzoomen op de ontwikkeling van de globale temperatuur van de afgelopen eeuw dan zien we een bekende dip in de temperatuur tussen 1940 en 1975. Menig wetenschapper wil ons graag doen geloven dat die het gevolg is van luchtvervuiling die inkomende zonnestraling hindert. Als je de totale zonnestraling  aan buitenzijde van de atmosfeer  (Hoyt + Schatten, 1997)  vergelijkt met de temperatuur ontstaat een ander beeld:

Zonnecyclus 24 blijft lager dan enkele jaren geleden voorspeld, hetgeen een voorbode kan zijn voor een koelere periode in het wereldklimaat. Van Geel noemde dit het grootste experiment dat momenteel gaande is.

De globale temperatuur op aarde stijgt al meer dan een decennium niet meer. Niemand weet welke kant hij opgaat, maar als de invloed van de zon groter is dan die van CO2 is de mogelijkheid van afkoeling groot. 

Toen enkele jaren geleden de  opwarming van de aarde niet meer vol te houden was door klimaatalarmisten heeft men stilletjes het begrip klimaatopwarming vervangen door klimaatverandering. Een pleonasme lijkt me. Als blijkt dat afkoeling ons deel wordt (wat ik niet hoop) dan staat ons een nieuwe strategie van de klimaatalarmisten te wachten:


 
9-12-2012

Klimaatconferentie Rijsoord


Gisteren, 8 december, vond in het planetarium in Rijsoord bij Rotterdam een interessant bijeenkomst plaats van klimaatadepten. De bedoeling was om in klein gezelschap te spreken over die zaken waarover men het in de klimatologie niet eens is en daarvoor een gelijk aantal ‘voor- en tegenstanders’  uit te nodigen. Dat is helaas niet gelukt vanwege diverse afzeggingen, zodat uiteindelijk alleen Rob van Dorland van het KNMI het op moest nemen tegen een meerderheid van kritische klimaatvolgers.

Het planetarium is onderdeel van het Museum Johannes Postschool, waar op 15 mei 1940 in de Tweede Wereldoorlog de capitulatie van Nederland plaats vond. De dag werd geopend met de film The Final Frontier, een eigen productie van Museum Johannes Postschool. Deze film gaat over het klimaat en de (beperkte) invloed van de mens daarop. Bijzonder was dat de film vertoond werd met behulp van het digitaal full dome video projectiesysteem op de ronde projectiekoepel van het museum.

Het initiatief voor deze dag lag bij Hans Labohm en Arthur Rörsch, eerstgenoemde was tevens de dagvoorzitter. De rode draad in de dag was een aantal zeer interessante lezingen, waarvan ik u de komende tijd verslag hoop te doen.
 

16-10-2012

Zeespiegel deel 3

Op 5-10-2012 schreef ik dat de zeespiegelstijging in Den Helder al 146 jaar constant is. De afwezigheid van enige versnelling in de zeespiegelstijging is niet in lijn met de opvatting dat de het globale zeeniveau gerelateerd is aan de globale temperatuur. Vermeer en Rahmstorf schreven in 2009:  “ When applied to observed data of sea level and temperature for 1880–2000, and taking into account known anthropogenic hydrologic contributions to sea level, the correlation is >0.99, explaining 98% of the variance. For future global temperature scenarios of the Intergovernmental Panel on Climate Change’s Fourth Assessment Report, the relationship projects a sea-level rise ranging from 75 to 190 cm for the period 1990–2100.  ”


Bovenstaande figuur uit de publicatie van Vermeer en Rahmstorf ,  “Global sea level linked to global temperature” (PNAS, 2009) ,
toont met de rode lijn de gemeten zeespiegelstijging en –versnelling vanaf 1880. Er zijn twee periodes te herkennen met versnelling van de stijging: tussen 1930 en 1950, en vanaf 1980.

Ook Church en White herkennen in hun studie een versnelling rond 1930, de tweede versnelling vindt plaats na 1990. Zie hier en hier.
Omdat er in de relatieve zeespiegelstijging van Den Helder geen enkele versnelling te bespeuren valt, was ik benieuwd of dat elders op aarde anders zou zijn. Immers, de perioden van versnelling van de zeespiegel zouden ergens in de tide-gauge-data toch merkbaar moeten zijn? Ik wilde daarvoor gebruik maken van meetstations die over de afgelopen 100 jaar een continue meetreeks produceerden.  Daarvoor maakte ik wederom gebruik van de databank PSMSL.

 

Om een indicatie te krijgen van de geografische spreiding van de gezochte data maakte ik gebruik van bovenstaande figuur uit de publicatie van Church en White uit 2011. Duidelijk is te zien dat er aan het begin van de 20e eeuw slechts een beperkt aantal meetstations was, met een sterke concentratie in Nederland, Duitsland,  Denemarken, Japan en de USA. Ik ben alle aangegeven locaties in de databank nagegaan en heb naast Den Helder nog 7 andere meetstations gevonden met een min of meer continue meetreeks vanaf 1910 tot 2010 :

Victoria, Canada
San Francisco, USA
New York, USA
Honolulu, USA
Balboa, Panama
Fremantle, Australië
North Shields, GB

Er zijn nog enkele meetstations met een meetreeks van (meer dan) een eeuw, maar die liggen dicht bij een van bovenstaande stations en leverden geen relevante meetgegevens op. Omdat ik niet in staat ben om sterke verticale bewegingen in de aardkorst statistisch te elimineren heb ik afgezien van meetstations die in sterke mate onderhevig zijn aan epirogenetische en tektogenetische bewegingen, zoals in Scandinavië en Japan. Omwille van de eenvoud ben ik ervan uitgegaan dat voor  de overgebleven meetstations geldt dat bodembewegingen gedurende de afgelopen eeuw constant waren. Ik ben immers alleen geïnteresseerd in een eventuele versnelling van de zeespiegel. Dit zijn de resultaten:

 
 
 
 
 
 
 

 

Het beeld is in alle gevallen duidelijk: van een versnelling van de zeespiegelstijging is geen sprake. Omdat in alle grafieken te controleren heb ik behalve de lineaire trendlijn  (zwart) ook de exponentiele trendlijn (rood) in elke grafiek weergegeven. Beide lijnen vallen in alle grafieken vrijwel geheel samen. Van beide trendlijnen zijn de R2 –waarden in de grafieken weergegeven. Om te laten zien wat de lineaire trendlijn en exponentiele trendlijn doen als er in een meetreeks sprake is van een versnelling heb ik een eenvoudige lineaire meetreeks gemaakt, met tussen de horizontale waarden 9 en 13 een versnelling in de reeks . Het resultaat ziet u hier onder:


Comclusie: in bovenstaande meetreeksen van tide-gauge-metingen over de gehele aarde  zijn geen versnellingen in de zeespiegelstijging waar te nemen. Dat staat dus haaks op de gegevens van Church en White, Vermeer en Rahmstorf en falsifieert de hypothese dat het globale zeeniveau  sterk gerelateerd is aan de globale temperatuur. De zeespiegelstijging lijkt zich niets aan te trekken van relatief korte ( enkele decennia) perioden van temperatuurstijging zoals die waargenomen zijn in de afgelopen eeuw.

Over de oorzaken van deze discrepantie graag een volgende keer.
 


15-10-12012

Al 16 jaar geen temperatuurstijging
 

Bron: Daily Mail

Met Office in Groot Brittannië  erkent nu ook dat de mondiale temperatuurstijging die in de jaren ’70 van de vorige eeuw begon, al meer dan 15 jaar geleden is geëindigd. Trouwe lezers van deze site weten dat ik al een jaar geleden liet zien dat er vanaf 1996  geen stijging meer te bekennen is in de gemiddelde temperatuur op aarde, en dat het in ons land ook al heel lang niet meer warmer wordt.

De klimaatmodellen die het IPCC hanteerde voor haar rapport uit 2007 hebben geen van alle deze standstil kunnen voorspellen. Die modellen worden weliswaar elk jaar verbeterd maar blijken tot nu toe niet goed in staat om ook maar bij benadering de temperatuurtrend juist weer te geven . Zie hiervoor ook de bijdrage van 28-8-9012.

Prof. Judith Curry van Georgia Tech University in de USA sei tegen een journalist van de Daily Mail:  “ Climate models are very complex, but they are imperfect and incomplete. Natural variability  [the impact of factors such as long-term temperature cycles in the oceans and the output of the sun] has been shown over the past two decades to have a magnitude that dominates the greenhouse warming effect.   It is becoming increasingly apparent that our attribution of warming since 1980 and future projections of climate change needs to consider natural internal variability as a factor of fundamental importance. ”

Zelfs Phil Jones van de University of East Anglia, een van de belangrijkste spelers in het Climategate schandaal geeft op bepaalde punten Curry gelijk:  “ We don’t fully understand how to input things like changes in the oceans, and because we don’t fully understand it you could say that natural variability is now working to suppress the warming. We don’t know what natural variability is doing. ”

Zie voor het hele artikel hier.

Of de periode van 16 jaar lang genoeg is om van een trend te spreken is onderwerp van discussie tussen klimatologen.  Jones vindt dat nog te kort, anderen niet. Overigens hoeft dit plateau waarop de wereldtemperatuur zich bevindt niet te betekenen dat er van stijging in de nabije toekomst geen sprake meer is. Wetenschappers die CO2 een grote rol toedichten in het klimaat menen nog steeds dat de temperatuur wel moet stijgen gezien de stijging van het atmosferisch CO2. Aan de andere kant zijn er astronomen zoal prof. De Jager die menen dat de huidige zonneactiviteit wijst op een daling van de temperatuur op aarde op korte termijn.

Een ding is al duidelijk: de activisten en organisaties die de mensheid willen wijzen op de klimaat-Apocalyps, hebben er wijs aan gedaan om enkele jaren geleden stilletjes het adagium ‘opwarming’ te verruilen voor ‘klimaatverandering’. Nu steeds meer mensen inzien dat klimaatverandering in feite een pleonasme is, is  de nieuwe toverformule ‘duurzaamheid’.  Het wordt tijd dat dit laatste begrip een eenduidige omschrijving krijgt.
 


12-10-2012

Zeespiegel deel 2

In de vorige bijdrage heb ik aandacht besteed aan het langjarig gemiddeld zeeniveau in Den Helder. Conclusie was dat de zeespiegelstijging in Den Helder tussen 1865 en 2012  geen enkele versnelling laat zien.
De data waarop de grafiek van Den Helder gebaseerd is komt van PSMSL  in Groot Brittannië  en NOAA in de USA.

PSMSL en NOAA baseren hun reeksen op  data die komen van diverse organisatie in veel landen.  Zo levert Rijkswaterstaat de data van Den Helder. Hieronder ziet u een lijst van meetstations die PSMSL gebruikt, inclusief zeeniveautrends:

Bron:  PSMSL en NOAA
 
Het betreft 194 meetstations.  Om beter zicht te krijgen op de trends in zeespiegelstijging heb ik de data van de stations in Excel ingevoerd.  Daarvoor heb ik alleen die stations gebruikt waarvan de data doorlopen tot na 2005. Er blijven dan 147 stations over. Dit zijn de resultaten:

De meeste trendwaarden liggen ergens tussen 0 en 4. Opmerkelijk is dat er vrij veel stations zijn die over de gemeten periode een negatieve stijging vertonen, en relatieve zeespiegeldaling dus. Vooral aan het begin van de grafiek is een dergelijke cluster te zien. Dat zijn alle meetstations in Scandinavië. Scandinavië veert sinds het einde van de laatste ijstijd (10.000 jaar geleden) op als gevolg van het afsmelten van de Scandinavische ijskap. Dat effect, glacio-isostasie genoemd, is zo sterk dat het stijgen van het land sneller gaat dan de absolute zeespiegelstijging.

Ook sommige Candese meetstations vertonen dit beeld als gevolg van het afsmelten van de Canadese ijskap. Verder is er nog een aantal meetstations dat vanwege subductie een sterke stijging van het land vertoont en derhalve een negatieve zeespiegelstijging. 
 Voorbeelden daarvan zijn te o.a. vinden in Japan. Aan de bovenkant  van de grafiek zijn ook uitschieters te zien. Deze meetstations tonen een opvallend grote relatieve zeespiegelstijging. Deze meetstations ondervinden een sterke daling van het land als gevolg van subductie, of als gevolg van sterke sedimentatie.

Probleem blijft dat alle meetstations op een of andere wijze beïnvloed worden door bodemdalingen en –stijgingen. Gemiddeld over de gehele aarde zou de bodemdaling theoretisch de 0 moeten naderen. Als we uitgaan van een perfect gelijkmatige geografische en geologische spreiding van alle meetstations dan zou de eerste grafiek bruikbaar zijn om de gemiddelde absolute zeespiegelstijging te berekenen. Die zou in dat geval  0,68 zijn, dus 6,8 cm/eeuw. Maar de meetstations liggen niet perfect gelijkmatig verspreid: er zijn relatief veel stations in Europa en Noord-Amerika, en relatief weinig in Afrika. Men kan er dus van uit gaan dat de ongelijkmatige spreiding de grafiek beïnvloedt.

Opvallend blijft dat de meeste stations een trend aangeven tussen 0 en 4. Ik vermoed daarom dat ergens in deze wolk de gemiddelde absolute zeespiegelstijging verborgen ligt. Daarom ga ik de extreem afwijkende stations buiten beschouwing laten. Ik heb alle stations met een negatieve waarde verwijderd, alsmede alle stations met een trend van > 4 . Dit is volkomen arbitrair en wetenschappelijk onverantwoord, daar ben ik me van bewust. Maar wil een beeld krijgen van de globale zeespiegeltrend.    Het resultaat is dit:



De rode lijn is de gemiddelde waarde van de trends van de overgebleven  102 meetstations: 1,56.  Ik schat dat dit nog aan de hoge kant is. Een volgende keer meer over de trends bij individuele stations.
 
5-10-2012

Zeespiegel Den Helder stijgt al 146 jaar constant


De zeespiegel bij Den Helder wordt al vanaf 1865 meerdere malen per dag gemeten. De gegevns zijn van PSMSL, de instantie die de meetgegevens van vrijwel alle getijdemetingen bijhoudt.  Met behulp van deze gegevens berekent men dagelijkse, maandelijkse en jaarlijkse gemiddelden. In bovenstaande figuur heb ik de jaarlijkse gemiddelden uitgezet in een grafiek. Tevens heb ik een lineaire trendlijn door Excel laten berekenen en tekenen. Dat is de zwarte lijn. Zoals u ziet is er geen versnelling in de zeespiegelstijging te bekennen. De verticale schaal is gebaseerd op de zogenaamde RLR,  Revised Local Reference, de standaardisatie die  PSMSL toepast op de meetgegegevens.

Waarom is het feit dat er geen versnelling te constateren valt bijzonder? Omdat het IPCC in haar rapport uit 2007 stelde:  “ Satellite altimetry... shows that since 1993, sea level has been rising at a rate of around 3 mm/yr, significantly higher than the average during the previous half century. Coastal tide gauge measurements confirm this observation.”. Dat had het IPCC natuurlijk niet zelf verzonnen, maar gehaald uit een toen recente publicatie van Church en White uit 2006, A 20th century acceleration in global sea-level rise. Natuurlijk kan men tegenwerpen dat Den Helder niet de wereld is, maar ik zal een volgend keer laten zien dat het verloop van de zeespiegelstijging in Den Helder eerder regel dan uitzondering is op aarde.

De jaarlijkse schommelingen zijn tamelijk groot, zodat de R-kwadraat van de lineaire trendlijn niet groter is dan 0,7625. De blauwe lijn lijkt heel fraai de lineaire trendlijn te volgen. Om te zien of er in de data toch geen sprake is van een versnelling in de zeespiegelstijging zoals het IPCC en Church en White beweren, heb ik hieronder voor dezelfde date een exponentiele trendlijn ingetekend. Zoals te zien is, is deze vrijwel kaarsrecht, hetgeen ook bevestigd wordt door r2= 0,7624. Een afwijking van de r2 van de lineaire trendlijn van slechts 1/1000  !

 


Dat alarmisten ons graag willen laten geloven dat de zeespiegel vanwege AGW veel harder stijgt dan vroeger heb ik hier al vaker aan de kaak gesteld. Ik denk bijvoorbeeld aan professor Pier Vellinga uit Wageningen die op de televisie de zeespiegelstijging van de afgelopen 80 jaar met een factor 7 (!) overdreef (zie De Dogma’s, hoofdstuk  De Zeespiegel Stijgt).


Pier Vellinga's visserslatijn 

De Deltacommissie onder leiding van Cees Veerman ( de man die overal verstand van heeft) voorspelt een maximale zeespiegelstijging van maar liefst 135 cm voor het eind van de eeuw.  De zeespiegelstijging in Den Helder is de afgelopen 100 Jaar niet meer dan 15 cm gestegen.  Dat betreft de relatieve zeespiegelstijging, dus inclusief de bodemdaling ter plaatse van ongeveer 5 cm/eeuw. En van een versnelling is nog steeds geen sprake. De zee moet dus voortmaken!
 

5-10-2012

Duurzame 100 van Trouw nader toegelicht

 

Het dagblad Trouw publiceert jaarlijks een top-100 van Nederlanders die getoond hebben dat ze duurzaam in het leven staan. Volgende week is het weer zo ver.  Nu is duurzaamheid in wezen een deugdelijke eigenschap. Ik ben zelf ook het type dat iets dat kapot is probeert te repareren, had al 20 jaar geleden zonnecollectoren op mijn dak, scheid braaf het afval et cetera. 

Maar nogal wat mensen die op het top-100 lijstje van Trouw staan vallen juist op door andere eigenschappen, zoals het schaamteloos omarmen van de AGW-theorie, geloven in een welvarende samenleving die uitsluitend draait op zonne- en windenergie, Fukushima een ‘ramp’  noemen terwijl er geen enkel slachtoffer gevallen is, gentech heel eng vinden (‘je weet nooit hoe het uit de hand kan lopen’,  et cetera et cetera. Voor hen heeft duurzaamheid dus een andere betekenis.

Veel van deze lieden denken het morele gelijk aan hun kant te hebben (goede mensen) en verkondigen graag hun blijde boodschap. Een aantal van hen kunt u derhalve voor een aanzienlijk bedrag inhuren als spreker. De op deze wijze extra geëmitteerde CO2  wordt natuurlijk maatschappelijk verantwoord afgekocht door het laten planten van een boom.

Kortom, het werd tijd dat deze lieden eens nader onder het licht werden gehouden. En dat doen de initiatiefnemers van de site http://www.duurzame100.nl/ op humoristische wijze! Volg de link en geniet! Geniet met mate uiteraard, want het leven is geen lolletje.


28-9-2012

Klimaatmodellen zitten er flink naast

De geavanceerde klimaatmodellen die voorspellen wat de ontwikkeling van de temperatuur op aarde zal worden de komende decennia zitten er flink naast. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres en heeft de meest recente cijfers eens voor de parlementariërs op een rijtje gezet. Hieronder ziet u wat dat opgeleverd heeft.


Christy gebruikt voor de vergelijking 38 klimaatmodellen uit de CMIP5 dataset. Meer hierover is te vinden in de Climate Explorer van het KNMI.

Hij zette vervolgens de datareeksen op basis van metingen ook in de grafiek. Dat zijn de reeksen van NCDC, NASA, HadCRUT4, RSSLT en UAHLT. De laatste  zijn datasets verkregen door satellieten. De referentieperiode is 1979-1983. Conclusie: vrijwel alle modellen schatten de temperatuurontwikkeling op aarde veel te hoog in.

De temperatuurstijging in het Arctische gebied is zoals bekend sterker dan de gemiddelde aardse temperatuur. De recente afname in het oppervlak van het zomerse drijfijs wordt vaak door alarmisten gebruikt om de ‘catastrofale gevolgen van de antropogene opwarming’ te duiden. Weliswaar doen de modelmatige voorspellingen het in het gebied tussen 70 °NB en 90 ° NB het wat beter dan voor de aarde als geheel, maar ook hier schatten de meeste modellen de temperatuurontwikkeling veel hoger in dan wat in werkelijkheid gemeten is.

Bekijken we dezelfde cijfers voor de regio met drijfijs rond Antarctica ( 60 ° ZB tot 75 ° ZB), dan is ook hier hetzelfde beeld als voor de aarde als geheel: de modellen voorspelen een flinke stijging van de temperatuur in het gebied, terwijl de gemeten waarden zelfs een lichte daling vertonen.

Modellen zijn dus tot nu toe slecht in het voorspellen van de temperatuurontwikkeling op aarde. Desondanks zijn ze zonder terughoudendheid gebruikt door het IPCC en andere instanties om ons er van te doordringen dat een grote opwarming gaande was met mogelijk desastreuze gevolgen.

Hawkins en Sutton hebben in 2009 onderzoek gedaan naar de onzekerheid in klimaatmodellen. Onderstaande figuur stamt uit de publicatie. De oranje kleur betreft de interne variabiliteit.


Mojib Latif van de universiteit van Kiel voegt aan de onzekerheid in het gebruik van modellen om de temperatuur te voorspellen nog een extra factor toe: de onvoorspelbare externe invloeden op het klimaatsysteem. Over wellicht de belangrijkste, de zon, is hier al vaker geschreven.

Over het drijfijs graag een volgende keer.
 


23-9-2012

Het weer wordt steeds extremer


Verdroogde mais in de Midwest van de USA 2012, bron: http://www.farmersguardian.com

Dat is wat klimaatalarmisten de ‘gewone man’ graag willen laten geloven. Dat idee is gevoed door het derde rapport van het IPCC en gebaseerd op klimaatmodellen. Op basis van de gebruikte modellen werd een toename van extremen gebeurtenissen in het weer voorspeld, als gevolg van stijgende temperaturen. Ik heb hier al vaker laten zien dat die voorspelling tot op heden niet bevestigd wordt door waarnemingen. Zie hiervoor 'Meer Naruurrampen' in het hoofdstuk 'De feiten' in het menu.

Met name als het hier of daar de weersomstandigheden ‘records’ breken is het weer tijd voor sommigen om het dogma van het extremer wordende weer uit de kast te halen en op te poetsen. Nu zijn er in het weer een schier oneindig aantal records om te breken, zodat er altijd wel ergens een sneuvelt. De aarde is immers zeer groot en het weer zeer dynamisch.

Afgelopen zomer was het opmerkelijk droog in de Midwest van de USA. Er werd al rap gesproken van een ongekende droogte en een link met de vermeende antropogene opwarming werd snel gelegd. De vraag is natuurlijk of het inderdaad een zeer uitzonderlijke en ongekende situatie betrof. Daar heeft Christy vorige week enkele interessante dingen over gezegd. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres. Het verslag daarvan kunt u hier vinden.

In bovenstaande grafieken is de droogte in de Midwest weergegeven voor de periode van januari 1900 t/m juli 2012. Zoals te zien is is er wel sprake van meer dan gemiddelde droogte in de Midwest, maar van extreme omstandigheden is geen sprake. Duidelijk is ook te zien dat in de eerste helft van de periode grote droogte veel vaker voorkwam dan in de tweede helft. Bekijkt men dat voor de gehele USA dan is dit beeld hetzelfde:

Interessant is ook om te kijken naar records op het gebied van dagelijkse maximum en minimum temperaturen. Meehl et al (2009) hebben gepubliceerd over de records in dagelijkse maximum en minimum temperaturen in de USA. De studie, Relative increase of record high maximum temperatures compared, liet een onmiskenbare toename van de records van de dagelijkse maximum temperatuur zien ten opzichte van records in de dagelijkse minimum temperatuur.

Meehl et al : “The current observed value of the ratio of daily record high maximum temperatures to record low minimum temperatures averaged across the U.S. is about two to one. … Following an A1B emission scenario for the 21st century, the U.S. ratio of record high maximum to record low minimum temperatures is projected to continue to increase, with ratios of about 20 to 1 by mid-century, and roughly 50 to 1 by the end of the century. ”. A1B emission scenario slaat op de CO2-emissies door de mens en is terug te vinden in het vierde rapport van het IPCC.


De ratio record max. temp/min. temp gaat inderdaad vanaf eind jaren ’60 van de vorige eeuw omhoog. Zoals te zien is hebben Meehl et al hun studie gebaseerd op gegevens vanaf 1950. Interessant is wat Christy laat zien over een wat langere periode, namelijk 1895 – 2012. Hij gebruikt daarvoor 970 meetstations die een continue meetreeks van tenminste 80 jaar hebben (NOAA/NCDC/USHCNv2). Zoals te zien is is het aantal records van maximum temperaturen vanaf de er uit springende jaren ’30 van de vorige eeuw flink afgenomen en zijn al meer dan een halve eeuw tamelijk constant.

Op onderstaande grafiek is van dezelfde 970 langjarige meetreeksen de records van de dagelijkse minimum temperatuur te zien. Er was een piek aan records te zien aan het begin van de vorige eeuw, en een lichte daling vanaf begin jaren ’80.

Voor de 704 USHCNv2 meetstations die een meetreeks van meer dan 100 jaar hebben heeft Christy de ratio record max.temp/min.temp in een grafiek weergegeven:

Vergelijk deze grafiek eens met die van Meehl et al. Het is duidelijk: als men een langere periode van waarnemingen aanhoudt wordt het beeld volledig anders. Christy zegt terecht: “…the claim of rapidly increasing ratios would not hold”. Ik ben met Christy van mening dat het beter is af te gaan op meetgegevens dan op de uitkomsten van modellen.

Gaan we even terug naar de “extreme” droogte van de zomer 2012 zoals die geclaimed wordt door klimaatalarmisten. Piechota et al ( 2004 , The Western U.S. Drought: How Bad Is It? ) reconstrueerden de droogte in het Upper Colorado River Basin (UCRB) vanaf 1500. Het resultaat is hieronder te zien. De grijze balken geven perioden weer met meer dan gemiddelde droogte. De lijn is het voortschrijdend gemiddelde van de zogenaamde Palmer Hydrological Drought Index (PHDI), een droogte-index gebaseerd op neerslag en temperatuur. Negatieve waarden zijn perioden met grote droogte. De 20e eeuw komt naar voren als een relatief natte periode. Zo wisselt het beeld dat men van droogte krijgt door te wisselen van tijdschaal. Mijns inziens wordt dat de afgelopen jaren veel te weinig gedaan.

Een volgende keer wellicht wat meer over het optreden van Christy voor het congrescomité voor Energy and Power.


 

7-9-2012

CO2 , de zon en de temperatuur op aarde

Een tijdje terug publiceerde Russ Steele op zijn  weblog onderstaande grafiek van de hand van meteoroloog Joe Bastardi. Men ziet voor de periode 1979 tot heden het verloop van het CO2-gehalte in de atmosfeer zoals gemeten op Mauna Loa Observatory op Hawaii, de globale zee-en landtemperatuur volgens de datareeks  HadCRUT3, en de SST (sea surface temperature) volgens de datareeks HadSST2.


Russ vraagt zich af:  “ If the admission to the school of your choice, be it Cornell, or lets say Columbia or Harvard, depended on you answering this question — “Given the facts presented in the chart below, is CO2 driving the Earth’s temperature?” — how would you answer it?

En bezie nu eens de figuur over de inkomende zonnestraling en de maximum dagtemperaturen in de USA.  De figuur is afkomstig van een onderzoek door Willie Soon and William M. Briggs, waarvan de resultaten gisteren werden gepresenteerd in de Washington Times.

 


Bron: BEST project University of California

Het toont een sterke correlatie tussen inkomende zonnestraling en de oppervlaktetemperatuur in de USA. Tot nu toe werden bij dergelijke onderzoeken ook altijd de nachttemperaturen meegenomen, wat natuurlijk verwonderlijk is omdat de zon dan niet schijnt. De variatie in inkomende zonnestraling  (in W/m2) is erg klein, maar de maximum dagtemperatuur  in vooral wolkenloze regio’s volgt die opvallend goed.
Soon:  “Pictures like these cannot be drawn for temperature and CO2 concentration. There just is no such close match between the steady rise in atmospheric CO2 concentration and the often dramatic ups and downs of surface temperatures in and around the Arctic, China and the United States.” Waarvan acte zou ik zeggen (zie eerste figuur).

Soon en Briggs hebben al eerder een dergelijke sterke correlatie tussen zonnestraling en maximum temperaturen waargenomen in diverse andere regio’s op aarde. Zo vonden ze  een dergelijke correlatie ook bij hun onderzoeken in het Arctische gebied  en China. Ook de onderzoekers Van Loon en Meehl hebben in een aantal recente publicaties  (hier en hier) deze zonnestraling-oppervlaktetemperatuur-hypothese  wetenschappelijk op de kaart gezet.

De verklaring voor de sterke relatie tussen zonnestraling en temperatuur  is volgens Soon en Briggs te vinden in de conveyor belt,  de grote thermohaline circulatie  die grote massa’s water verplaatst in de oceaanbekkens. Hierbij is vooral de uitwisseling tussen Arctische Zee en tropen van belang.


Bron:  Wikipedia
 
Soon verklaart:  “…we were able to provide a self-consistent explanation for these observed apparent sun-climate correlations, which involves the exchange of heat and moisture between the equator and the Arctic region. In addition, we recently discovered direct evidence that changes in solar activity have influenced what has been called the “conveyor belt” circulation of the great Atlantic Ocean currents over the past 240 years. For instance, solar-driven changes in temperature and in the volume of freshwater output from the Arctic cause variations in sea surface temperature in the tropical Atlantic five to 20 years later. These peer-reviewed results, appearing in several science journals, make it difficult to maintain that changes in solar activity play no or an insignificant role in climate change. ”.

We zullen hier ongetwijfeld meer van horen.
 
5-9-2012 

Delhi en het UHI-effect

Een recent onderzoek van Javed Mallick en Atiqur Rahman  toont een sterke correlatie tussen verstedelijking en oppervlaktetemperatuur in Delhi (India).  Het is bekend dat de verwijdering van natuurlijke vegetatie en de vervanging daarvan door antropogene materialen als asfalt, steen, beton en dergelijke en aanwezigheid van warmtebronnen een temperatuurverhogende werking hebben. Omdat dit effect het grootst is in urbane gebieden wordt dit het Urban Heat Island-effect genoemd. Zoals bekend is er al een aantal jaren een levendige discussie hoe groot een dergelijk effect is en welke invloed het UHI heeft op de meetgegevens van meetstations. Zie hiervoor het hoofdstuk De Feiten en dan UHI.

De onderzoekers hebben met hun publicatie bijgedragen aan de kennis over de relatie tussen  UHI en urbanisatiegraad. Ze maakten gebruik van datasets van de satelliet ASTER die de oppervlaktetemperatuur van Delhi  weergeven, alsmede gegevens van de bevolkingsdichtheid in Delhi  (Census of India 2001). De satelliet ASTER meet  onder andere infrarood met een resolutie tot 15 m. Gebruikt zijn de nachtelijke gegevens van 7 oktober 2001. Op het kaartje hieronder ziet men de ruimtelijke variatie in oppervlaktetemperatuur  in genoemde nacht.


Oppervlaktetemperatuur 's nachts 7 oktober 2001

Zoals te zien is is de ruimtelijke variatie in nachtelijke temperatuur erg groot, , en varieren van 23,9  °C tot 40 °C.  Op onderstaande kaart is de bevolkingsdichtheid van Delhi weergegeven. Duidelijk is te zien dat de gebieden met de hoogste temperaturen ook de gebieden zijn met de grootste bevolkingsdichtheid.


Bevolkingsdichtheid Delhi 2001

Op het derde kaartje zijn beide gegevens in een kaart weergegeven:

Oppervlaktetemperatuur en bevolkingsdichtheid gecombineerd

Maar nog sprekender is de volgende grafiek, die aan duidelijkheid niets te wensen over laat:


Correlatie temperatuur en bevolkingsdichtheid

De waarde van de logaritmische regressie (R2) is 0,748, wat wijst op een sterke correlatie tussen bevolkingsdichtheid en temperatuur.

De grote ruimtelijke variabiliteit van de temperatuur in Delhi is opvallend, en correspondeert niet met schattingen van het UHI door onder andere GISS-NASA, die op veel lagere waarden uitkomen. Natuurlijk zijn niet alle urbane gebieden vergelijkbaar met het urbane gebied Delhi. Omvang van steden en andere ruimtelijke factoren  zullen vaak afwijken van die in India. Desondanks lijkt de uitkomst van dit onderzoek  me een extra stimulans om het UHI en de problematiek van meetstationlocaties nog een keer serieus onder de loep te nemen.


9-7-2012

Sterke zeespiegelstijging verwacht?  Deel 3

 

Bron: www.zeelandnet.nl

In de vorige bijdrage schetste ik de problemen om bij een haffenkust zoals die van North Carolina zeespiegelreconstructies te doen. Een dergelijke kust (ook de Nederlandse kust is van oorsprong een haffenkust) is te dynamisch van aard om betrouwbare data op te leveren. Kemp et al deden dat toch, in 2011, in hun publicatie getiteld  “Climate related sea-level variations over the past two millennia”. Deze publicatie leverde zeedata over de afgelopen 2 millennia.

In deze bijdrage ga ik in op het door Kemp et al gebruikte wiskundige model om met behulp van de gereconstrueerde zeespiegeldata van de afgelopen 2000 jaar een voorspelling te doen voor de komende eeuwen. Tom Moriarty heeft in zijn weblog climatesanity het gebruikte model aan een nadere inspectie onderworpen. Moriarty is fysicus en Senior Scientist bij de  US Department of Energy’s National Renewable Energy Laboratory. Moriarty ploos het gebruikte wiskundige model van Kemp et al uit en gebruikte daarvoor ook de modellen die de auteurs in voorafgaande publicaties gebruikten. Zie hiervoor zijn bijdragen.  KMVR2011 is de bovengenoemde publicatie van Kemp:

Here is the KMVR2011 model:



where



Where H is the sea level, T(t) is the global temperature, Too, a1, a2, b and τ are all constants and To(t) is a to-be-determined time varying function related to T(t) as defined by equation Ia.

Now, consider the following temperature evolution.  It is nearly the same as equation II from my previous post, but has an additional unitless constant, γ (a.k.a. “gamma”), in the exponential…



If equation II is inserted into equation I, then…



Rearranging terms in equation III gives…



H is the sea level.  dH/dt, the derivative of the sea level,  is the sea level rise rate.  d2H/dt2, the second derivative of the sea level, is the rate at which the sea level rise rate changes.  That is, d2H/dt2, is the acceleration.  If d2H/dt2, is positive, the sea level rise rate is increasing.  Conversely, if d2H/dt2, is negative, then the sea level rise rate is decreasing.  Taking the time derivative of equation IIIa gives…



Let’s also consider the difference in the sea level rise rates at some time, t, for different values of γ.  We can do this by analyzing the derivative of dH/dt (equation IIIa) with respect to γ.



What does the math tell us? KMVR2011 does not conclude with specific values for their model constants and their time varying T0(t).  Instead, they present probability density distributions for some constants, or combination of constants.  However, there are some definite constraints that can be noted about the variables and their relationships to each other.  These constraints are key to my conclusions.

Constraints:
*)  a1 + a2 = a, where a1 and a2 are defined in KMVR2011 (see equation I, above) and a is defined in VR2009.  VR2009 found a = 5.6 mm/yr/K.
*)  a1 > 0 mm/yr/K  and a2 > 0 mm/yr/K.  KMVR20011 states that the distribution of a1 for their Bayesian analysis varied between 0.01 and 0.51 mm/yr/K.   Needless to say, if either of these terms were less than zero the KMVR2011 model would make even less sense that it does now.  That would be a road that the KMVR2011 authors do not want to travel.
*)  b < 0 .  VR2009 found b = -49 mm/K.   KMVR2011 varied b about -49 mm/K with σ2 = (10 mm/K)2 for their Bayesian analysis.

( VR2009 is de publicatie van Vermeer en  Rahmstorf , 2009 PNAS paper, “Global sea level linked to global temperature“ ( Rob de Vos))

*)  C  > 0.  C is a unitless constant that I introduced, and for the purposes of this post I am constraining C to be greater than zero.
*)  γ > 0.  γ is a unitless constant that I introduced, and for the purposes of this post I am constraining γ to be greater than zero.
*)  Time, t, is restricted to about 1900 and later for my hypothetical temperature (equation II).  This insures that T(t) > T0(t), which in turn insures that dT0(t)/dt > 0.

The equations above, coupled with the listed constraints guarantee the signs of the derivatives shown in table 1, below.


Table 1. Derivatives of temperatures and second derivatives of sea level.
Green “up arrows” indicate increasing values and red “down arrows” indicate decreasing values.


As you can see from table 1, it gets little confusing for 0<γ<1.  When a1, a2, b, C, and γ conform to the listed constraints, the signs of the various derivatives are known with certainty as long as…



But when …



at some point in time t- t’ will become large enough that d2H/dγdt will become positive.  When that time occurs depends on the choices of a1, a2, b  and γ.  If we choose a1, a2 and b to agree with VR2009 (recall a1 +a2 = a = 5.6 mm/yr/K, and b = -49 mm/K) and γ = 0.8, then d2H/dγdt will continue to be negative until t – t’ = 44 years
. “.

De conclusie van Moriarty uit bovenstaande exercitie in hogere wiskunde is nogal absurd: Het model van Kemp et al levert bij hogere temperatuurstijgingen geen stijging van het zeeniveau op maar een daling ervan! Deze grafiek geeft de temperatuurstijging weer bij verschillende scenario’s:


En dit zij de gevolgen voor de zeespiegel als men het model van Kemp et al hanteert:


Conclusie: het gehanteerde model voorspelt zeespiegeldalingen bij temperatuurstijgingen. Volgens Kemp is dit een gevolg van het feit dat de constante b een negatief teken heeft.

Stefan Rahmstorf zei over Moriarty:  “ Science progresses by peer-reviewed publications, not blogs. We are well advanced in preparing a paper that includes the latest sea level data and groundwater pumping estimates, as well as looking at a number of other factors. That will be up for discussion once it appears in the peer-reviewed literature. (Without giving away too much, I can probably already say that we come to different conclusions from what you claim.) ”.

Dit commentaar van Rahmstorf deed hij vóór de laatste publicatie. Misschien zou het voor de wetenschap goed zijn als  Rahmstorf zijn academische arrogantie eens opzij zou zetten. Moriarty is niet de eerste ‘leek’  die buiten het formele circuit van publicaties om laat zien dat hij verstand van zaken heeft. Maar helaas wordt hij , net als McIntyre, gezien als een gevaarlijke buitenstaander. Dat dit tot verhitte debatten en ferme uitspraken leidt leest men in deze blog.

Een volgende keer meer over de temperatuurreconstructie van de afgelopen 2 millenia door Mann et al.
 


5-7-2012

Sterke zeespiegelstijging verwacht?  Deel 2


Bron: agreenliving.org

In de vorige bijdrage heb ik een beeld geschetst van de opbouw van de publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin Vermeer, Long-term sea-level rise implied by 1.5°C and 2°C warming levels, in Nature Climate Change van 24 juni 2012. De publicatie  leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”. Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is. 

In deze bijdrage zal ik me richten op de lokatie van het onderzoek en de problemen en onzekerheden die daarmee samenhangen. Daarover heb ik a eerder op deze site geschreven. In een volgende bijdrage zal ik aandacht besteden aan het model dat de onderzoekers gebruikt hebben.

In het artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.




 
Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.
 


Bron: Mörner

Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

 

Bron: WUWT

Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijk Hampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

Bron: WUWT

Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.


 


1-7-2012

Sterke zeespiegelstijging verwacht?  Deel 1

Bron:  http://www.ncg.knaw.nl


" Opwarming van het klimaat zorgt de komende eeuwen voor een significante stijging van de zeespiegel. Zelfs bij een succesvol klimaatbeleid met een opwarming van minder dan 2 graden Celsius stijgt de zeespiegel deze eeuw 75 tot 80 centimeter ten opzichte van 2000. Rond 2300 is een verdere stijging tussen de 1,5 en 4,0 meter te verwachten, met als meest waarschijnlijke stijging 2,7 meter. Dat schrijven internationale klimaatonderzoekers, waaronder van Wageningen University, in het wetenschappelijk tijdschrift Nature Climate Change van 24 juni. Zij doen die uitspraken op basis van zeer uitvoerige berekeningen van de zeespiegelstijging in de afgelopen duizend jaar en beleidsscenario’s rond de uitstoot van broeikasgassen in de komende eeuwen.

Met een gericht klimaatbeleid kan de uitstoot van CO2 verder worden teruggebracht en daarmee de opwarming op max.  1,5 graad Celsius uitkomen. In die omstandigheden valt volgens de onderzoekers de meest waarschijnlijke stijging in 2300 lager uit, maar die is dan naar schatting nog altijd ruwweg 1,5 meter. Als de klimaatopwarming in de komende eeuwen uitkomt op 3 graden, dan is een stijging tussen 2 en 5 meter te verwachten, met een meest waarschijnlijke stijging van 3,5 meter."


Aan de aanhalingstekens en de cursieve letter is al te zien dat dit een citaat is en dat dit niet uit eigen koker komt. Het is een deel van een persbericht dat de WUR gepubliceerd heeft naar aanleiding van een nieuwe publicatie van Michiel Schaeffer, William Hare, Stefan Rahmstorf en Martin Vermeer, Long-term sea-level rise implied by 1.5°C and 2°C warming levels,  in Nature Climate Change van 24 juni  2012.

  Nu waren we al wat gewend na het rapport van de Deltacommissie onder leiding van Cees Veerman. De commissie bestond uit 10 mensen, van wie er zeggen en schrijven 3 iets hebben gestudeerd dat met het onderwerp zeespiegel te maken heeft. Conclusie van de commissie: rond 2100 is de zeespiegel tussen 65 en 130 cm gestegen. Hoon was hun deel, toen bleek dat die 130 cm bij elkaar gerommeld was. Wat dat betreft vallen die 75 tot 80 cm in het jaar 2100 van het rapport van Schaeffer et al best wel mee. Maar is het reëel? 

Schaeffer et al zeggen dit:

Projecting sea level into the future is still associated with large uncertainties. Physics-based models attempting to predict the combined contributions from thermal expansion, glaciers and ice sheets are not yet mature and underestimate the SLR observed in past decades. One of the largest uncertainties at present is the response of the Greenland and Antarctic ice sheets, where process-based models do not capture the full response so far observed1, nor the timescales of response seen in the palaeorecord.
 

While these models are further developed, semi-empirical models have emerged as a complementary approach and have shown their ability to reproduce sea-level evolution over the past millennium and the modern tide-gauge record well, leading to projections that are robust against different choices of input data and statistical approach. It remains open, however, how far the close link between global sea level and temperature found for the past will carry on into the future.

Despite this caveat, the results presented here provide at least plausible estimates for sea-level evolution in the coming centuries and a number of robust insights into how it can be affected by mitigation measures. A key aspect of this, irrespective of the exact numbers, is the long response time of sea level that is physically expected from the slow response of large ice sheets and the deep ocean to climate change, and also found in palaeoclimate data2. This slow response means that about half of the twenty-first century SLR is already committed from past emissions
. ”.

Voorzichtigheid dus ook bij de auteurs, maar desalniettemin een voorspelling van een forse zeespiegelstijging voor de komende 90 jaar. Laat ik daarom eens enkele aspecten van de publicatie onder de loep nemen. In de publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  maken de auteurs gebruik van een zogenaamd semi-empirisch model om toekomstige zeespiegelstijging te voorspellen. Voor het gebruik van dit model is een record van zeespiegeldata een voorwaarde. De publicatie “Long-term sea-level rise implied by 1.5°C and 2°C warming levels”  leunt daarom sterk op een publicatie van Kemp et al uit 2011, getiteld “Climate related sea-level variations over the past two millennia”.

Deze publicatie voorziet de onderzoekers van zeedata over de afgelopen 2 millennia. Zoals te zien is zijn ook hier Rahmstorf en Vermeer leading authors. Pikant is dat Michael (hockeystick) Mann co-auteur is. Michael Mann was nodig om de auteurs te voorzien van cijfers over de temperatuur van de afgelopen 2000 jaar. Die komen uit zijn publicatie uit 2008, getiteld “Proxy-based reconstructions of hemispheric and global surface temperature variations over the past two millennia”.

Dus de opzet ziet er als volgt uit:

1) De publicatie van Schaeffer et al doet een voorspelling over de toekomstige zeespiegel in 2012
2) Daarvoor is een reconstructie nodig van de zeespiegel over de afgelopen 2000 jaar, die wordt geleverd door Kemp et al in 2011
3) De reconstructie van de zeespiegel gedurende de afgelopen 2000 jaar kan niet zonder een reconstructie van de globale temperatuur van de afgelopen 2000 jaar, en die wordt geleverd door Mann et al in 2008

Volgende keer ga ik dieper in op de publicatie van Kemp et al. 
 


21-6-2012

Vegetatie Sahel houdt langjarig gemiddelde neerslag in de gaten?

Kort geleden heb ik aandacht besteed aan een vraag in het examen aardrijkskunde voor het havo. Als u denk dat dit een eenmalige uitglijder was geef ik nu een kijkje in het herexamen aardrijkskunde voor het havo van afgelopen dinsdag.Opdracht 16 van het herexamen:

 

Dit is de grafiek die bij de opdracht hoort. Trouwe lezers herkennen hem van een recente bijdrage over het examen havo van 2 weken geleden, en al wat langer van het hoofdstukje ‘De Sahara Groeit’.


Een leuke vraag: je test het lezen van de grafiek en de kandidaat moet het verband begrijpen tussen neerslag en de verschuiving van vegetatiezones.  En dit is het antwoord uit het officiële correctiemodel:

Ik moest het antwoordmodel twee maal lezen, en begreep toen dat de examenmakers een enorme fout hebben gemaakt. Ziet u wat er fout is? Aan het antwoordmodel te zien zou er in 1965 sprake moeten zijn van een omslagpunt, waardoor vegetatiezones verschuiven. Ik pijnigde mijn hersens wat er in godsnaam aan de hand was met 1965. Toen begreep ik de absurde redenering die de examencommissie/CITO hier gevolgd heeft: tussen 1950 en  1965 waren de jaarlijkse hoeveelheid neerslag groter dan het langjarig gemiddelde, erna kleiner. De examenmakers denken dus dat het langjarig gemiddelde van de neerslag in de Sahel een omslagpunt is dat verschuiving van vegeatiezones triggert. Onbegrijpelijk.

Het gaat om het verschuiven van vegetatiezones. Die zones verschuiven vanwege in dit geval veranderingen in het neerslagpatroon. Het is in het geheel niet interessant of in bepaalde jaren de neerslag boven of onder het langjarig gemiddelde ligt. Het gaat om de dynamiek, niet het absolute getal. Van 1950 tot 1985 neemt de jaarlijkse hoeveelheid neerslag in de Sahel af. Deze afname zorgt voor een verschuiving van de vegetatiezones richting evenaar. Na 1985 nemen de jaarlijkse hoeveelheden neerslag in de Sahel weer toe, met als gevolg een verschuiving van de vegetatiezones naar het noorden.Of de jaarlijkse neerslag boven of onder het gemiddelde ligt is zoals reeds gezegd in het geheel niet van belang. Hoe zou zoiets überhaupt moeten? Een gemiddelde is een rekenkundige waarde, niets meer dan dat.
Vegetatie reageert op veranderingen in de externe factoren, niet op een door de mens berekend gemiddelde.

In het neerslagpatroon in de Sahel zit een periodiciteit, die waarschijnlijk samenhangt met die van de AMO, Atlantic Multidecadal Oscillation. Dat is een maat voor de natuurlijke variabiliteit van de SST (sea surface temperature) van de noordelijke Atlantische Oceaan , met een periodiciteit van 60 tot 80 jaar. Het dieptepunt in die periodiciteit hebben we rond 1985 gehad. Velen herinneren zich nog wel de vreselijke beelden van verhongerende mensen in de Sahel. Vanaf 1985 neemt de neerslag weer toe, en met een periodiciteit van 60 tot 80 jaar is te verwachten dat die neerslagtoename in de Sahel nog wel tot het midden van deze eeuw zal doorgaan. Wat overigens niet wil zeggen dat het elk volgend jaar natter is. Daarvoor is het neerslagpatroon in deze regio te wisselvallig.

Het eerste deel van het antwoord moet derhalve luiden:  tussen 1950 en 1985 neemt de jaarlijkse neerslag af, met als gevolg naar het zuiden verschuivende vegetatiezones. Na 1985 neemt de jaarlijkse neerslag toe, en verschuiven de vegetatiezones naar het noorden.
Examencommissie/CITO : een dikke 1 dus voor het antwoord op vraag 16 !


17-6-2012

Het einde der tijden als wapen voor een nieuwe wereldorde
  Het artikel van Pascal Bruckner in de Volkskrant van 15-6-2012 over het gevaar van het moderne doemdenken is mij uit het hart gegrepen. De planeet als het nieuwe proletariaat dat moet worden gered van uitbuiting is exact wat de afgelopen jaren in het westen is gebeurd.

Bruckner is filosoof en als associate professor verbonden aan het Institut d’Études Politiques de Paris. Dit instituut leidt van oudsher de Franse politieke en diplomatieke elite op. Het artikel van Bruckner is oorspronkelijk in het Engels verschenen in City Journal

Arabist Hans Jansen schreef al in 2007 in HP dat de mens een eigenaardig, mogelijk aangeboren, verlangen naar het einde der tijden heeft. Bruckners constatering dat schrijvers, politici, journalisten en wetenschappers wedijveren in het schilderen van de verschrikkingen als we ons leven niet beteren stemt me niet vrolijk. Hij schrijft: “  De angst die deze intellectuelen zaaien, is een soort vraatzuchtig enzym dat zorgen opslokt, zich ermee voedt en vervolgens op zoek gaat naar nieuwe zorgen. Toen de kerncentrale van Fukushima instortte na de enorme aardbeving in Japan van maart 2011, was dat niet meer dan een bevestiging van een reeds aanwezige angst die slechts wachtte op invulling. Over een half jaar zijn we weer in de greep van een andere angst: een pandemie, de vogelgriep, smeltende ijskappen of de straling van mobieltjes. Angst wordt ook een zichzelf vervullende profetie. De media berichten dat jonge mensen wakker liggen van de zorgen over de opwarming van de aarde. Alsof dat verbazing wekt; dezelfde media pompen die zorgen er voortdurend in. Als een echoput weerspiegelen opiniepeilingen de opvattingen die de media verspreiden. Zo worden we ingeënt tegen de vrees door het steeds weer herhalen van dezelfde thema's. ”

Diegenen die niet mee doen in deze apocalyptische stoelendans worden verketterd en verguisd: “De econoom Rajendra Pachauri, het hoofd van het Intergovernmental Panel on Climate Change van de VN, heeft de Deense statisticus en eco-scepticus Bjørn Lomborg zelfs vergeleken met de Führer. De Amerikaanse klimaatwetenschapper James Hansen heeft oliemaatschappijen die 'twijfel proberen te zaaien over de opwarming van de aarde' beschuldigd van 'ernstige misdaden tegen de menselijkheid en de natuur'. Hansen bestempelde treinen die kolen vervoeren als 'doodstransporten'. Ellen Goodman, columnist van The Boston Globe, schreef dat 'ontkenners van de opwarming op gelijke voet staan met ontkenners van de holocaust'.  ”

Al Gore, de voormalige vice-president van de USA, is een prominente speler in het rondreizende circus van angstprofeten. In zijn documentaire ‘An Inconvenient Truth’ stelde hij: “ De mensheid zit op een tijdbom. Als de overgrote meerderheid van de wetenschappers gelijk heeft, hebben we nog maar tien jaar om een enorme catastrofe af te wenden die het hele klimaatsysteem van onze planeet in een duikvlucht van gigantische vernietiging zal storten. Dat zal gepaard gaan met extreem weer, overstromingen, droogte, epidemieën en dodelijke hittegolven die erger zijn dan we ooit hebben meegemaakt: een catastrofe die we zelf hebben veroorzaakt. ”. Dat een dergelijke voorspelling zelfs op de examencommissie en het CITO indruk maakte heb ik in de bijdragen van 6 juni en 8 juni j.l. duidelijk gemaakt.

Vanuit allerlei hoeken is al jaren sprake van een vloedgolf van propaganda over de opwarming van de aarde en voor de noodzaak om van buitenaf in te grijpen in de economie van de rijke landen. Een aantal kiezers in het Westen is extreem gevoelig voor zulke verhalen en omhelst deze nieuwe leer van harte. Hans Jansen constateerde dat de mens in zijn borst ‘een heftig heimwee naar het einde der tijden’ draagt. De VN en in het bijzonder het IPCC zijn daarmee voertuigen geworden om een nieuwe wereldorde tot stand te brengen. Arme landen vormen de meerderheid in deze organisaties, en veel leiders van die arme landen zien de rapporten van het IPCC en de klimaatconferenties als vehikels om Westerse geldstromen om te buigen naar hun eigen land. Het kapitalistisch productiesysteem wordt verantwoordelijk geacht voor de naderende ondergang, dan wel verantwoordelijk gesteld om opportunistische redenen. Maar er is hoop vanuit onverwachte hoek: het is op aarde de afgelopen 15 jaar niet warmer geworden. Of dat indruk maakt op de doemdenkers valt te betwijfelen.


Bron:  Climate Explorer KNMI

 

13-6-2012

Koudeperiode in Younger Dryas gevolg van inslag
Bron:  NOAA

Op deze site is al vaak aandacht besteed aan de temperatuurgang van de laatste ijstijd naar het Holoceen tot heden. Zie onder “De Dogma’s”  het hoofdstuk “Unieke Temperatuurstijging”. De vermoedens dat de koudeperiode op de overgang van Weichselien naar Holoceen het gevolg was van een extraterrestrische gebeurtenis worden ondersteund door de uitkomsten van een recente publicatie van de Universiteit van Californië in Santa Barbara.

Op bovenstaande grafiek is die koudeperiode  tussen 13.000  en 11.500 jaar BP  duidelijk waar te nemen. De getoonde data komen van de GRID2 ijskern op Groenland (data hier). Proxies als ijs- en gasisotopen leverden een betrouwbare reconstructie op van de temperatuur op de overgang van Pleistoceen naar Holoceen. Een kleine 15.000 jaar BP steeg de temperatuur in Groenland sterk, een teken dat het Weichselglaciaal ten einde was. Maar rond 14.500 BP daalde de temperatuur trapsgewijze weer tot op glaciaal niveau, om pas vanaf 12.500 BP op te veren tot de bekende Holocene waarden. Van deze abrupte klimaatwijzigingen vinden we op veel plaatsen op aarde bewijzen.


Bron:  Wikipedia

Tot nu toe was de meest aangehangen theorie dat de afkoeling het gevolg was van het uitvallen van de warme zeestroom in het noordelijk deel van de Atlantische Oceaan.  De gedachte was dat het Agassizmeer in Noord-Amerika, dat een enorme hoeveelheid smeltwater van het Canadese landijs bevatte, leeg liep in de Atlantische Oceaan. Die enorme hoeveelheid zoet water zou dan de thermohaline circulatie verstoord hebben, waardoor er geen warm tropisch water meer naar het noordelijk deel van de Atlantische Oceaan gevoerd zou zijn, met sterke afkoeling tot gevolg.


Bron:  Wikipedia

Ook theorieën over een zonnewind en over een langdurige verschuiving van de straalstroom deden de ronde, alsmede een grote vulkaanuitbarsting.  Maar zoals het er nu naar uit ziet kunnen we al deze theorieën overboord zetten. De uitkomsten van de ploeg van professor James Kennett lijken tamelijk overtuigend.  Het team deed onderzoek naar sedimentgesteenten uit de genoemde periode op een drietal plaatsen, namelijk Pennsylvania, South Carolina en Syrië.  Op alle plaatsen werd een dun laagje sediment gevonden dat gevormd moet zijn bij temperaturen van 1700 tot 2200 °C. Het moet daarom wel het gevolg zijn van de botsing tussen de aarde en een lichaam dat vanuit de ruimte de aarde bereikte. De gevolgen voor flora en fauna waren groot: veel soorten, waaronder mammoeten, verdwenen definitief van de aarde.


Bron:  UCSB

Het ontdekte laagje bestaat uit glasachtig materiaal, dat ontstaat als zand door enorme hitte smelt en gaat koken. Dergelijk materiaal is ook gevonden bij Meteor Crater in Arizona.  Vergelijkbare onderzoeksresultaten uit Venezuela  en Duitsland versterken het vermoeden dat de koudeperiode van het Younger Dryas geen terrestrische oorzaak heeft maar een kosmische.


Bron:  www.meteorcrater.com
 

8-6-2012

Nogmaals klimaatveranderingen en regiem

In de vorige bijdrage heb ik aandacht besteed aan het recente HAVO-examen aardrijkskunde.  Met name de vraag over klimaatverandering en regiem van Rijn en Maas kon mijn waardering niet wegdragen, het officiële antwoord in het correctiemodel nog minder. Omdat ik nieuwsgierig was naar de afvoercijfers van Rijn en Maas heb ik die opgezocht.  Een zeer uitgebreide database over water in Nederland is Waterbase van het Ministerie van Verkeer en Waterstaat. Dit is de link naar de de Engelstalige Waterbase.

 

De afvoerdata van de Maas (Eijsden) zijn het uitgebreidst en beginnen in 1950.  Die van de Rijn (Lobith) zijn aanwezig vanaf 1989. Het meest recente jaar dat geheel in de database aanwezig is op dit moment is 2010. In bovenstaande grafiek heb ik de afvoer van de Maas weergegeven. De zwarte lijn is de lineaire trendlijn, de donkerblauwe lijn verbindt de data met de hoogste afvoer in elk jaar. Begin jaren ’90 en rond 2000 zijn er wel enkele jaren geweest met een verhoogde winterafvoer, na 2002 verdwijnen die extreme winterafvoeren weer.


De Rijn geeft hetzelfde beeld: enkele pieken in de jaren ’90 en rond 2000, na 2002 verdwijnen die piekafvoeren weer uit het beeld. Omdat van beide rivieren de piekafvoer in de winter ligt, is het duidelijk dat deze gerelateerd moet zijn aan het neerslagpatroon in NW Europa. Het is daarom te verwachten dat de afvoergrafiek van de Rijn sinds 1950 eenzelfde patroon zal hebben als dat van de Maas.

Conclusie: op basis van de meetgegevens vanaf 1950 is het antwoord op vraag 30  in het correctiemodel  onjuist.


6-6-2012

HAVO examen aardrijkskunde goes climate

 

Ik ben de afgelopen tijd niet in staat geweest om bijdragen te schrijven voor de site: de examens slokten teveel van mijn (vrije) tijd op. Maar ook de eindexamens van het voortgezet onderwijs besteden aandacht aan klimaatverandering. Vorige week  zaten de eindexamenleerlingen HAVO die het prachtige vak aardrijkskunde volgen achter de opgaven. Een aantal opgaven was klimatologisch van aard, bijvoorbeeld over de invloed van klimaatverandering vanaf het eind van de laatste ijstijd op het karakter van de Mississippi (zie plaatjes hierboven). Prima opdrachten.


Ook de vragen over het Tjaadmeer (hierboven)  waren heel aardig.  Wat wel opvalt is het bovenschrift van de kaartjes: `Verdroging van het Tjaadmeer tussen 1963 en 2001´. De kaartjes tonen dat er sprake is van verdroging van 1963 tot 1987, maar daarna gebeurt er eigenlijk weinig met de oppervlakte van het meer. Er zijn wel kleine verschillen, maar men kan niet stellen dat er tot 2001 sprake is van toenemende verdroging.  Suggestieve kop derhalve.  Trouwe lezers weten dat ik onder het kopje `De Sahara groeit`  onder `De Dogma´s` heb aangetoond dat vanaf 1984 de Sahel steeds meer neerslag krijgt, als gevolg van de AMO  (Atlantische Multidecadale Oscillatie).  Zie in de betreffende paragraaf meer over dit onderwerp. Het neerslagverloop is hieronder weergegeven. Fraai is te zien waarom het aannemelijk is  dat het Tjaadmeer na 1984 niet kleiner geworden is:


 Neerslag Sahel  1900 - 2010   Bron:  JISAO

Opgave 30 is de klimaatopdracht waar ik de meeste moeite mee heb.  Die luidt: “ Het veranderende klimaat is van invloed op het regiem van de Rijn en de Maas. Leg uit hoe het veranderende klimaat het regiem van de Rijn en de Maas beïnvloedt.”  . Het probleem is de term  ‘veranderende klimaat’. Daarmee hanteert men een proces dat niet gekoppeld is aan een bepaalde periode, dat wil zeggen het kan zowel slaan op het verleden als op wat komen gaat. Wat geweest is weten we min of meer, en  van een eenduidige klimaatverandering in de stroomgebieden van Rijn en Maas is geen sprake. Bovendien: hoever moet men hier terugkijken? 10 jaar, 100 jaar, tot aan de laatste ijstijd?

Nog veel lastiger wordt het als we de term ‘veranderende klimaat’ in de toekomst plaatsen. Ook hier weer de vraag: over welke periode hebben we het? Nu zijn er wel wat voorspellingen gedaan door het IPCC, waarvan de gemene strekking is dat het allemaal wat woester en extremer zal worden. Het KNMI echoot dat regelmatig netjes na. Of dat ook zo zal zijn zal de toekomst leren, de ervaring van de laatste jaren geeft in elk geval geen aanleiding om dat met stelligheid te kunnen beweren.

En toch is dat laatste juist wat de examencommissie/CITO van de HAVO-leerlingen verlangt. Het correctievoorschrift luidt namelijk: “ Een voorbeeld van een juiste uitleg is:  Klimaatverandering zal leiden tot een onregelmatiger neerslagregiem / extremere weersomstandigheden waardoor het regiem van de Rijn en de Maas onregelmatiger wordt.”.  Dat is inderdaad een voorbeeld van een juiste uitleg. Maar als een leerling het omgekeerde beweert is dat ook juist. Maar dat staat niet in het correctievoorschrift. En ook het verslag van het KNAG over dit examen ( advies hoe om te gaan met afwijkingen van het correctiemodel) zwijgt hierover in alle talen. Wel adviseert men mijns inziens ten onrechte docenten om de termen ‘hoger’  en ‘lager’ in verband met het begrip regiem fout te tellen. Onjuist, omdat regiem slaat op de schommelingen in de waterafvoer  gedurende een bepaalde periode. Dat is dus de amplitude, en die kan groter en kleiner worden.

Wat was dus het juiste antwoord? Dat klimaatveranderingen kunnen leiden tot zowel het groter worden als het kleiner worden van het regiem van de Rijn en de Maas, afhankelijk van de vraag in welke richting die veranderingen plaats zullen vinden. En dat laatste weet niemand met zekerheid. Helaas zijn  leerlingen in ons voortgezet onderwijs op het gebied van klimaatverandering een beetje voorgeprogrammeerd, zodat velen het  ‘juiste’ antwoord gegeven hebben. Lees: het ‘gewenste’ antwoord. Jammer. Is hier sprake van opzet bij de examencommissie/CITO ?  Ik denk het niet. Ik vermoed dat er (te) weinig fysisch geografen in de commissie/CITO zitten.

Voor diegenen die het allemaal eens na willen lezen hier de links:

Examen aardrijkskunde havo 2012 eerste tijdvak

Bijlage

Correctievoorschrift

KNAG advies


16-5-2010

De nieuwe hockeystick van Yamal

Wie kent er de hockeystick van Michael Mann niet? De grafiek die jarenlang het boegbeeld is geweest van klimaatalarmisten en het IPCC.

 


Bron: IPCC

Een deel van de data die Mann gebruikte was gebaseerd op proxies van jaarringen van de Bristle pine-tree. De grafiek had enkele grote manco’s. Zo ontbrak het Middeleeuws Optimum zijn met name de data van de gebruikte jaarringen omstreden. Van de gebruikte statistische methode is door McIntyre en McKitrick gehakt gemaakt, bevestigd in o.a. het Wegman rapport dat elders op de site uitgebreid behandeld is.

Velen van u zullen al min of meer op de hoogte zijn  van de verwikkelingen rond de zogenaamde Yamal data. Yamal is een schiereiland in het noorden van Siberie, waar de grootste aardgasvelden van Rusland liggen.  Maar het is ook de plek waar paleoklimatologen proxies vandaan hebben gehaald. Ook daar is kort gezegd commotie over ontstaan. Onderzoeker Briffa van CRU in Groot Brittannië heeft namelijk een tijdje geleden een fraaie temperatuurgrafiek geproduceerd op basis van een aantal bomen op Yamal. Ook deze grafiek heeft weer die onheilspellende knik zoals we die al kenden van de hockeystick.


Bron: CRU

Het grijze deel is het aantal bomen waarop de grafiek is gebaseerd.  Voor de meest recente jaren was dat aantal geslonken tot slechts 5. Zie de data van NOAA.   Nu is 5 wel erg weinig om een betrouwbare grafiek te krijgen.

 


Bron: BishopHill

McIntyre  wilde de betrouwbaarheid van de grafiek natrekken, maar kon dat niet doen omdat Briffa weigerde de data te openbaren. Dat is uiteindelijk (gedeeltelijk) gelukt door gebruik te maken van een langdurige procedure die een beetje te vergelijken valt met onze Wet Openbaarheid Bestuur. Gelukkig was er ook hulp van de Russische onderzoeker Hantemirov. Wat bleek? Er waren destijds veel meer bomen ‘beschikbaar’  dan het handjevol dat Briffa had gebruikt voor zijn reconstructie, namelijk 120.


Bron: ClimateAudit


Zoals te zien is is de hockeystick helemaal verdwenen.
Lees voor de details  deze sites: Bishop Hill ,  Staatvanhetklimaat,   ClimateAudit .

 

De emoties laaiden de afgelopen weken hoog op. Het alarmistenblog RealClimate viel McIntyre ongekend fel aan. Zie hier.

Als we afzien van alle commotie rond het niet verstrekken van onderzoeksdata (schande) en de statistische gebreken van de Briffa’s publicaties, dan blijft er een belangrijke vraag over: zijn er betrouwbare thermometermetingen in de regio? Want dan kunnen we de proxy-data vergelijken met de meetgegevens. Die data zijn er. Er is in de regio (zie nevenstaand kaartje van de Yamal regio) 1 meetstation, namelijk Salehard (Salechard). Dat is het rode puntje op de kaart.

Hieronder een detailweergave van Salehard. Het meetstation is zoals vaak gelegen op het vliegveld van de kleine nederzetting Salehard.

 
Bron:   NASA


 

Salehard heeft een temperatuurreeks vanaf 1882 tot heden, dus die dekt fraai het laatste deel van de Yamalreeks van Briffa. Hieronder de grafiek van de gemeten temperatuur, data GHCN,  raw data.

 

Bron: KNMI Climate Explorer


En hieronder de gehomogeniseerde datareeks volgens GISS:


Bron: GISS

Zoals men kan zien is er geen enkele opwaartse trend aan het einde van de meetreeks van Salehard waar te nemen. Ik zou zelfs zeggen dat de reeks opvallend vlak is, als we in aanmerking nemen dat de temperatuurstijging van de afgelopen decennia volgens de theorie versterkt in het temperatuursignaal boven de poolcirkel is waar te nemen. Ik blijf de discussie met belangstelling volgen.
 


14-5-2012

Noordpool in september 2012 ijsvij.
 

Bron:  National Geographic News

Dat voorspelde Jay Zwally,  onderzoeker bij NASA in 2007. Dr. Jay Zwally is project scientist bij NASA’s ICESat missie. Zwally zei in een interview met National Geographic News:

"At this rate, the Arctic Ocean could be nearly ice-free at the end of summer by 2012, much faster than previous predictions….At this rate, the Arctic Ocean could be nearly ice-free at the end of summer by 2012, much faster than previous predictions."   En:  "The Arctic is often cited as the canary in the coal mine for climate warming," said Zwally, who as a teenager hauled coal. "Now as a sign of climate warming, the canary has died. It is time to start getting out of the coal mines."

Hieronder ziet u de meest recente gegevens van de ijsgang in de Arctische Zee:


Bron: NORSEX

Het ziet er niet naar uit dat Dr. Zwally gelijk krijgt. Dat weet hij zelf intussen ook wel natuurlijk. In een interview in 2010 met  EarthSky  durfde hij zijn voorspelling al niet meer te herhalen. Wel haalde hij nog een keer de kanarie in de kolenmijn erbij om zijn bezorgdheid kracht bij te zetten.

Bovenstaaande voorspelling is een fraai staaltje van overdrijving, niet geheel onbekend in klimatologenland, helaas. 
 


11-5-2012

De temperatuur in Madrid

De vorige bijdrage ging over  CET, Central England Temperature. Net als voor De Bilt zagen we dat de temperatuur daar de afgelopen 15 jaar niet meer is gestegen. Er was zelfs sprake van een lichte daling. Op zich was dit niet zo verwonderlijk, omdat centraal Engeland in dezelfde klimaatregio ligt als ons land. Het is dus te verwachten dat de temperatuurtendens van de afgelopen 15 jaar in Engeland niet veel zal afwijken van die in Nederland.

Daarom vandaag een blik op Madrid, Spanje. Ik kom graag in Spanje. Het meetstation ligt op het vliegveld Barajas, en zoals te zien is dicht bij de start- en landingsbaan. Ik schat de afstand tot de baan zo’n 60 m. Barajas is een WMO-station met de code: 8221 MADRID/BARAJA. Meer over dit meetstation hier.

Dit is het temperatuurverloop gedurende de afgelopen 15 jaar:

 


De data komen van GISS, omdat Climate Explorer van het KNMI niet geheel 2011 kon weergeven. Ook hier hetzelfde beeld: de afgelopen 15 jaar was er geen sprake van temperatuurstijging. De lineaire trendlijn laat zelfs een  daling zien. Die daling is ruim 0,6 °C  over 15 jaar.  Vergelijk dit eens met de globale temperatuurstijging van 0,7 °C over de gehele 20e eeuw die in 'brede kringen' voor grote onrust heeft gezorgd.

Het vliegveld Barajas ligt op een steenworp afstand van de bebouwde kom van Madrid, zodat UHI-effecten ongetwijfeld aanwezig zijn. GISS corrigeert dit in de meetreeks, zoals bekend op een tamelijk onduidelijke manier. De ligging van het station vlak bij de start- en landingsbaan doet vermoeden dat ook hier effecten zullen zijn op de temperatuurmetingen. Informatie hierover van andere vliegveldstations wijzen uit dat toenemend vliegverkeer de metingen positief beïnvloeden. Mij is niet bekend dat GISS dit type lokale invloed ook meeneemt in haar homogenisaties. Het is derhalve aannemelijk dat de temperatuur op Barajas sterker is gedaald dan de grafiek aangeeft. 


5-5-2012

Engeland en de opwarming.

 
 
Bron:  Stormtrack
 Deze week was ik enkele dagen in Engeland en verbaasde me over het gemak waarmee ook daar ‘de opwarming’ van Groot-Brittannië in de media een plaats heeft gekregen. En dan heb ik het niet over The Guardian, een krant waar klimaatalarmisten de afgelopen jaren vrij spel kregen, maar in een krant als The Times. Ik was dan ook nieuwsgierig naar die opwarming, en kon me niet indenken dat de Britse opwarming ‘dramatischer’ is verlopen dan die in ons eigen land. Vandaar dat ik op onderzoek uit ben gegaan naar wat meetgegevens.

Het geluk wil dat men in Engeland veel eerder dan in andere landen begonnen is met het serieus meten van de temperatuur. De Central England Temperature-reeks is een van de oudste temperatuurmeetreeksen op aarde en begint al in 1659. In de jaren ’70 van de vorige eeuw heeft het Hadley Centre de meetreeks gecontinueerd tot op heden. Het betreft een beperkt aantal meetstations in de regio van zuidelijke Midlands tot Lancaster, zoals aangegeven op nevenstaand kaartje.

Hieronder is de gang van de temperatuur te zien vanaf het begin tot en met 2010. Het zijn jaargemiddelden in °C.


Bron data : Hadley Centre

De reeks vertoont een licht stijgende trend (zwarte lijn) vanaf het begin van de metingen met een opwarming van 0,26°C per eeuw.  Geen verrassing, de aarde en dus ook Engeland warmt al sinds het einde van de Kleine IJstijd gestaag op. Dat is in ieder geval ten dele het gevolg van veranderende zonneactiviteit, die een zekere periodiciteit veroorzaakt in de temperatuur aan het aardoppervlak.  Zie hiervoor onder andere “Zonnecycli”  in het hoofdstuk  “Nieuwe inzichten”.

De temperatuurlijn toont ook dat de lichte stijging niet gelijkmatig is, de temperatuur gaat op en neer gedurende soms langere periodes. Maar ook kortere periodes geven soms een sterke variabiliteit: temperatuurvariaties tussen twee opeenvolgende jaren van meer dan 2 °C zijn geen uitzondering. Een dergelijke grote sprong in korte tijd is te zien in de tweede helft van de jaren ’80 van de 20e eeuw. De stijging van de temperatuur wordt nog steeds door een deel van de wetenschappers gezien als een gevolg van antropogene factoren, vooral die van CO2 als broeikasgas.


Bron data : Hadley Centre en Earth Policy

In bovenstaande grafiek is naast de CET-lijn  de jaarlijkse emissies in miljoenen tonnen CO2 als gevolg van het verbranden van fossiele brandstoffen afgezet tegen de tijd. Vergelijk deze lijn eens met de temperatuurreeks van CET, en constateer dat er geen enkele correlatie is.

De klimaatsite c3headlines  heeft enige tijd geleden al eens gekeken naar de CET en geconstateerd dat er in het afgelopen decennium erg veel records gesneuveld zijn op het gebied van gemiddeld hoogste temperaturen. Iedereen kent de gretigheid waarmee dit gebruikt wordt om de invloed van antropogeen CO2  ‘aan te tonen’.  Als men naar het verloop van de CET grafiek kijkt vanaf 1659 dan is het niet meer dan logisch dat in een gestaag stijgende temperatuurreeks gedurende meer dan 350 jaar de hoogste temperaturen in het laatste stukje van de reeks zitten. De jaren uit het laatste decennium zijn steeds  met rood aangegeven.

Interessante vraag is of de temperatuurvariaties in de  CET groter zijn gedurende afgelopen decennia dan in de rest van de langdurige meetreeks. Met andere woorden: is de temperatuurgang van de afgelopen decennia afwijkend, zoals alarmisten vaak beweren? Hieronder is een aantal tabellen afgebeeld die antwoord geven op deze vraag. De eerste geeft de jaren weer met de grootste temperatuurverandering in 1 jaar:


Zoals is te zien zit geen enkel recent jaar in de top-10. Het dichtste bij komt nog 2001, met een toename van  0,67 °C, waardoor dit jaar op de 71e plaats komt. En hier de jaren met de grootste temperatuursprong over een periode van 10 jaar. Het laatste jaar van elke decade is als teljaar genomen:


Ook hier geen enkel recent jaar in de top-10. De decade die eindigde in 2005 en een temperatuurverandering van 1,24 °C  vertoonde, komt op een 22e plaats. Nemen we een periodelengte van 20 jaar dan valt 1 jaar uit het laatste decennium in de top-10, namelijk 2006 met een 8e plaats:

Bij periodes van 30 jaar valt het afgelopen decennium weer buiten de prijzen. Het jaar 2006 werd 20e:

Tenslotte de cijfers voor periodes van 40 jaar en 50 jaar. Ook hier geen schokkkende extremen in de afgelopen decennia:



Kortom: geen extreme opwarming gedurende de afgelopen decennia. Als men ervan uitgaat dat CET een deugdelijke proxy is voor de temperatuurontwikkeling op het noordelijk halfrond en daarmee voor de aarde, dan is er weinig aan de hand.

De Tjechische blogger Luboš Motl produceerde over de CET ook een aantal grafiekjes. Hij vergeleek de opwarmingtrends in periodes van 30 jaar, omdat deze de grootste kans zouden moeten geven op een extreem opwarmingssignaal:


Niets spectaculairs te zien in de laatste decennia. Eind 17e en begin 18 e eeuw waren de periodes met opwarming langduriger dan de recente. Hieronder een lijstje met de top-10:

1691 - 1720, 5.039 °C/eeuw
1978 - 2007, 5.038 °C/ eeuw
1977 - 2006, 4.95 °C/ eeuw
1690 - 1719, 4.754 °C/ eeuw
1979 - 2008, 4.705 °C/ eeuw
1688 - 1717, 4.7 °C/ eeuw
1692 - 1721, 4.642 °C/ eeuw
1694 - 1723, 4.524 °C/ eeuw
1689 - 1718, 4.446 °C/ eeuw
1687 - 1716, 4.333 °C/ eeuw

Als je voor alle zekerheid de periodes een lengte van 50 jaar geeft, levert dat voor de afgelopen decennia nog steeds geen bijzonderheden op:

 

Ze kunnen in elk geval niet concurreren met de laat 17e en begin 18e eeuw: 1960 – 2009 met een stijging van 2.65 °C/eeuw valt zelfs buiten de top-10. Winnaar is 1688-1737 met een trend van 3.83 °C/eeuw. Als de periode 100 jaar is, dan zien we nog steeds geen uitzonderlijke situatie voor de afgelopen eeuw:

De opwarmingtrend voor 1909-2008 was 0.87 °C/eeuw, die van 1663-1762 was 0.86 °C/eeuw.  Geen spectaculair verschil.
Tot slot was ik benieuwd of de CET een andere tendens zou aangeven voor de temperatuur van de afgelopen 15 jaar dan De Bilt (zie ook “Temperatuur De Bilt”  in hoofdstuk “De Feiten”. Het resultaat ziet u hieronder:


Bron: http://climexp.knmi.nl

De afgelopen 15 jaar is er in Midden Engeland, net als in Nederland, geen opwarming meer maar zelfs een daling van 0,2 graden. Het wordt tijd dat Britse media de feiten eens onder ogen zien.
 


20-4-2012

"Our planet is warming at a rapid rate"

De site ScepticalScience heeft een bijdrage gepubliceerd over de snelle opwarming van onze planeet. Daarin tracht men aan te tonen dat er momenteel geen sprake is van een stabilisering van de temperatuur op  aarde, maar dat de opwarming onverminderd doorgaat, en wel in een rap tempo.  Men bekijkt dan met name het globale temperatuurverloop van de afgelopen 30 a 35 jaar. In de grafiek hieronder zien we het verloop van de globale temperatuur zoals gereconstrueerd door  Hadley Centre in Groot-Brittannië op basis van bestaande meetreeksen.

De temperatuurstijging vanaf 1975 is onmiskenbaar, en afgezien van (terechte) discussies over juistheid van metingen en legitimiteit van homogenisaties, wordt algemeen aanvaard dat de globale temperatuur gestegen is. Het artikel tracht de meningsverschillen wat aan te scherpen door te spreken van ‘climate deniers’, een beetje rare term voor diegenen die het klimaatdebat kritisch volgen en zich niet in de luren laten leggen door al te alarmistische verhalen. Ik ken niemand die de temperatuurstijging van na 1975 ontkent.

Het gaat dan ook niet om het ontkennen van de temperatuurstijging, maar om de stagnatie van de temperatuurstijging gedurende de afgelopen 15 jaar. In bovenstaande figuur is het verloop van de maandelijkse globale temperatuur volgens GISS weergegeven vanaf 1996.  Alhoewel er formeel nog niet gesproken mag worden van een trendbreuk, is de stagnatie van de temperatuurstijging toch aardig persistent. Hansen neemt een termijn van 17 jaar om vast te stellen of een forcing natuurlijk is dan wel antropogeen.

De schrijver van ScepticalScience gebruikt bovenstaande grafiek van de global heat content om aan te tonen dat er nog steeds sprake is van opwarming. Er wordt gesteld:  “ ….the continuing rise of both global and ocean heat content  is probably the best indicator that global warming hasn’t even slowed down ” .  Inderdaad is in de grafiek een sterke stijging te zien tussen 2000 en 2008, wat in tegenspraak lijkt met de afvlakking van de globale oppervlaktetemperatuur. De grafiek is een bewerking op basis van data die Church et al hebben gebruikt in hun publicatie uit 2011. Bekijken we echter de data tot 2012 van het NODC die de onovertroffen KNMI Climate Explorer ons aanreikt, dan zien we een ander beeld:

Vanaf 2003 is er geen sprake meer van een stijging van de heat content.  De time lag tussen stagnatie van globale temperatuur en ocean heat content is makkelijk te verklaren vanwege het enorme bufferend vermogen van de oceanen en de menging van water tussen diverse niveaus. De heat content van land + atmosfeer en ijs speelt nauwelijks een rol van betekenis. Het lijkt er dus op dat de ‘best indicator’  van de site achterhaald is door de werkelijkheid.


Bovenstaande animatie laat zien wat die vreselijke klimaatontkenners doen met de stijgende wereldtemperatuur: ze knippen de reeks in stukjes, die elk geen stijging vertonen. Het is een beetje Donquichotte-achtige bewijsvoering, waarbij de vijand gecreëerd wordt en daarna bestreden. Ik ken geen enkele kritische klimaatvolger die op dergelijke wijze de recente temperatuurstijging benadert. Wellicht nog belangrijker is dat het artikel suggereert dat het gebrek aan opwarming van de afgelopen jaren het gevolg is van kortstondige effecten die vrijwel alle afkoelend werken, zoals ENSO, vulkanisme en zonneactiviteit. In onderstaande grafieken is  af te lezen welke invloed volgens Rahmstorf et al  deze effecten hebben gehad op de oppervlaktetemperatuur.

MEI is Multivariate ENSO Index, een maat voor de invloed van ENSO, AOD is Aerosol optical depth, een maat voor de invloed van vulkanisme op inkomende kortgolvioge straling, en TSI staatvoor total solar irradiance. Het resultaat van de wijze van analyse door Rahmstorf et al voor 5 datareeksen  ziet u hieronder:

Het ziet er indrukwekkend uit, maar is het dat ook? Daar zijn toch wat twijfels over gerezen. Die twijfels worden, ik ben daar eerlijk in, meteen getriggerd door de naam van de onderzoeker. De naam Rahmstorf is in klimatologenland immers niet onomstreden. Behalve dat hij bekend staat als een rasechte alarmist, is hij onlangs door het  Kölner Landgericht veroordeeld vanwege het feit dat hij onwaarheden over een wetenschapsjournaliste had verkondigd die haar in de uitoefening van haar beroep hebben geschaad. Irene Meisscher had het namelijk gewaagd het IPCC  te bekritiseren vanwege alarmistische passages over de toekomstige landbouwproduduktie in Afrika, als gevolg van de vermeende opwarming van de aarde. Deze waren niet op 'peer-reviewed' literatuur gebaseerd, maar toch in de samenvatting van het IPCC-rapport terecht gekomen en werden vervolgens in de klimaatalarmistische uitspraken van Pachauri en Ban Ki Moon hoog opgespeeld. Later zou dit bekend worden als 'Africagate'.

Bob Tisdale heeft wat kritisch noten gekraakt over het Rahmstorf artikel. Een ervan is dat Rahmstorf et al in hun publicatie behalve ENSO, zon en vulkanen nog een vierde ‘’externe”  variabele mee laten doen in hun regressieanalyse, namelijk de lineaire temperatuurtrend.  Afgezien van inhoudelijke bezwaren of de lineaire trend wel een externe variabele is,  laat Tisdale zien wat het effect van die vierde factor is. De eerste grafiek is met , de tweede zonder de lineaire trend.

Dat komt omdat het mee laten wegen van de lineaire trend in de analyse grote effecten heeft op de schaal waarop de andere factoren van invloed zijn op de temperatuur, maar ook en in het bijzonder omdat daardoor invloed van de zonne-instraling omgekeerd wordt.  Zie de grafieken hieronder:

 

Het tweede bezwaar is dat Rahmstorf et al de ENSO data gebruiken als externe factor en te weinig rekening houden met de zeer complexe invloed van ENSO op de oppervlaktetemperatuur. Daarover is al vaker gepubliceerd.  De auteur van het artikel in ScepticalScience  stelt:  “ Although the rate of warming of surface air and lower troposphere temperatures appear to have slowed over the past few years, the same could be said at any virtually any point in time by cherrypicking short-term noise and ignoring the long-term trend ”.  Het lijkt me dat het artikel zelf een aardig bewijs levert van cherrypicking en en veronachtzamen van langetermijntrends.
 


3-4-2012

UHI deel 7: Roy Spencer toont sterk UHI-effect aan


Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in Huntsville, heeft een interessant onderzoek  gedaan naar het UHI-effect, het effect dat stedelijke gebieden leiden tot hogere luchttemperaturen.  Op deze site is over het UHI-effect al meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en dan “UHI”. Wat heeft Spencer gedaan?  Hij heeft de Integrated Surface Database (ISD)  van The National Climatic Data Center gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan 20.000 meetstations.  Eerst heeft Spencer die stations op het Noordelijk halfrond geselecteerd die een ononderbroken temperatuurreeks hebben vanaf minimaal 1973 t/m 2011. Daarvan heeft Spencer de unadjusted International Surface Hourly (ISH) gebruikt, en wel op 4 momenten per etmaal.


Bron: SEDAC

Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is.  Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks.

Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5x5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.

De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:

Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.

Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.

Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data.   These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”


 

 
1-4-2012

Temperatuurverloop in de 21e eeuw.

Bovenstaande grafiek stamt , zoals bekend, uit het laatste rapport van het IPCC uit 2007. Het voorspelt het temperatuurverloop  in de 21e eeuw volgens een aantal scenario’s . De rode lijn geeft het voorspelde temperatuurverloop weer volgens de IPCC scenariofamilie met een voortgaande economische groei en grootschalig gebruik van fossiele brandstoffen. Het IPCC voorspelt een gemiddelde temperatuurstijging in de 21e eeuw van 2,3 °C  +/-  0,6 °C.  Zie voor een uitgebreide behandeling van de diverse scenario’s het betreffende IPCC-rapport.

De voorspellingen zijn gebaseerd op de uitkomsten van een aantal klimaatmodellen, GCM’s genaamd. De meest geavanceerde klimaatmodellen zijn een koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest complexe modellen die gebruikt worden en zijn voortdurend “under construction”. Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn HadAM3 van het Hadley Center in Groot Brittannië , GFDL CM2.X van NOAA Geophysical Fluid Dynamics Laboratory in de USA en ModelE van GISS.

Nu is het interessant om te bezien of 12 jaar na de start van de voorspelling in 2000 de klimaatmodellen het goed gedaan hebben. Hieronder is het verloop van de globale oppervlaktetemperatuur weergegeven volgens Hadcrutv3. Zoals te zien is er sinds bijna 15 jaar geen opwaartse tendens meer te bespeuren in de grafiek.

 

De beide zwarte lijnen geven de grenzen aan van de voorspelling door het IPCC tot 2015. De temperatuur blijft vlak en is de laatste jaren onder de geprojecteerde temperatuur volgens de klimaatmodellen terecht gekomen. Blijkbaar hebben de klimaatmodellen grote moeite om het temperatuurverloop te voorspellen. Hoe is dat te verklaren?

Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn, kennen ze een aantal tekortkomingen. De belangrijkste zijn:
• Bij koppeling van het atmosferische model aan het oceanische model moeten in sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige vulkaanuitbarstingen.
• Alle modellen schieten tekort in het voorspellen van de temperatuur in de stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze. Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.

Maar er is nog een aspect waarin GCM’s tekort schieten. Nicola Scafetta heeft recent enkele opmerkelijke publicaties daarover het licht doen zien. Scafetta is onderzoeker aan de Duke UIniversity in North Carolina en een expert op het gebied van  statistiek en nonlineaire modellen van complexe processen. Een prima specialisatie om klimaatmodellen aan de tand te voelen. Hij bestudeerde de invloed van astronomische oscillaties op de temperatuur en vergeleek de resultaten met de klimaatmodellen die door het IPCC gebruikt worden.

Het bleek dat de huidige klimaatmodellen onvoldoende de belangrijke decadale en multidecadale oscillaties kunnen reproduceren zoals die in het temperatuursignaal van 1850 tot 2011 te zien zijn. Zie de grafiek hieronder.


Bron:  Scafetta

Scafetta onderscheidt een viertal oscillaties in de temperatuurlijn, namelijk een van 9,1 jaar, een met een lengte van 10 tot 11 jaar, een van ongeveer 20 jaar en een van ongeveer 60 jaar. De eerste lijkt gerelateerd aan de getijdencycli  als gevolg van de aantrekkingskracht van Maan en Zon, de andere drie vinden hun oorsprong in de banen van met name Jupiter en Saturnus. In onderstaande grafiek is te zien dat er een opmerkelijke correlatie bestaat tussen het gemeten temperatuurverloop en de vier genoemde cycli.

Scafetti heeft op basis van de 4 oscillaties een model gemaakt en dat model gecalibreerd ten opzichte van een tweetal meetreeksen, namelijk de globale temperatuur van 1850-1950 ( blauwe lijn) en van 1950-2010 (groene lijn).  Calibreren is een techniek met behulp waarvan men een tweetal reeksen vergelijkt, in dit geval de gemeten waarden van de globale temperatuur en de modelmatige berekeningen van de temperatuur.  De lijnen in de grafiek zijn “detrended”, dat wil zeggen dat de lichte stijging vanaf het einde van de Kleine IJstijd tot heden eruit gehaald is.  Zie hierover onder andere in het menu “De feiten”  en dan “Temperatuur Wereld”.

Over de 60-jarige cyclus is op deze site al het een en ander geschreven in het kader van de AMO, de Atlantische Multidecadale Oscillatie.  Volgens onderzoekster De Raa van het IMAU is de AMO het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht.  Zie Onder “De Feiten”  het hoofdstuk over “Temperatuur wereld” voor een uitgebreide bijdrage hierover. Scafetta  meent echter dat deze oscillatie wellicht een astronomische oorzaak heeft  (Mazzarella et al 2011).

Er is nog tenminste één oscillatie die in het model van Scafetta niet meegenomen is, en dat is de oscillatie met een periodiciteit van enkele eeuwen. In de grafiek hieronder is een viertal oscillaties weergeven met een periodiciteit van ongeveer 1000 jaar.


Bron: Humlum et al 2011

Zoals hiervoor al geduid zijn alle klimaatmodellen op een aantal punten geparameteriseerd. Dat geldt onder andere voor het antropogene aandeel in de temperatuurstijging van de afgelopen eeuw. Hoe sterk die antropogene invloed door de diverse modellen wordt ingeschat laat onderstaande figuur zien. De grafieken zijn afkomstig van de bijdrage van werkgroep 1 van het IPCC rapport uit 2007. Het zijn vergelijkingen tussen de globale gemiddelde oppervlaktetemperatuur (HadCRUT3, de zwarte lijnen)  en de antropogene plus natuurlijke forcings (rode lijn in grafiek a)  en alleen de natuurlijke forcings (blauwe lijn in grafiek b). De rode lijn is het gemiddelde resultaat van 58 simulaties die 14 modellen hebben geproduceerd. De blauwe lijn is het resultaat van 19 simulaties door 5 modellen.


Bron: IPCC

Volgens het IPCC is er tussen 1970 en 2000 sprake van een afkoeling van 0 °C  tot 0,2 °C als gevolg van natuurlijke forcings (in dit geval enkele vulkaanuitbarstingen). De gemeten temperatuurstijging in deze periode is 0,5 °C, dus de antropogene forcing tussen 1970 en 2000 is 0,5 °C tot 0,7 °C  groot geweest.  Op basis hiervan is de temperatuurprojecties tot 2100 gebaseerd zoals we die zagen in de eerste figuur.

Hiervoor is al opgemerkt dat de onderliggende natuurkundige mechanismen voor de 4 oscillaties nog onderwerp van wetenschappelijke discussies vormen. Scafetta stelt echter dat die onderliggende mechanismen niet echt nodig zijn:  de oscillaties kunnen we volgens Scafetta beschouwen als een ‘description of the dynamical evolution of the climate system’. Klaarblijkelijk kun je de harmonische componenten van de klimaatdynamiek empirisch modelleren zonder dat je weet hebt van de onderliggende natuurkundige processen. Dat deed ook William Thomson, beter bekend als Lord Kelvin, bij het beschrijven en voorspellen van getijden.  De beroemde getijdevoorspelmachine van Kelvin is daarop gebaseerd: zie onderstaande afbeelding.


Getijdemachine van Lord Kelvin. Bron: Wikipedia

Scafetta gebruikt dezelfde benadering als Kelvin destijds en werkt die op twee manieren verder uit:

1) Bezien of de door het IPCC gehanteerde modellen de temperatuuroscillaties kunnen reproduceren
2) Bezien of er op basis van de oscillaties een model te ontwikkelen is om klimaatverandering te voorspellen

Bij de vergelijking van klimaatmodellen om te bezien of deze de globale temperatuur goed weten te reproduceren maakte Scafetta onder andere gebruik van het ‘Coupled Model Intercomparison Project’ (CMIP3). Dat is bereikbaar en downloadbaar via de onovertroffen KNMI Climate Explorer. De resultaten van het ModelE van GISS  zijn in de volgende grafiek te zien:


Bron:  NASA

Vergelijking met de meetresultaten van HadCRUT3 levert het volgende beeld op:


Bron:  Scafetta

De resultaten van GISS ModelE zijn 1 °C naar beneden verschoven om vergelijking mogelijk te maken.  Zoals te zien is is de reproductie door ModelE verre van goed. Voor alle andere door het IPCC gehanteerde modellen gelden dezelfde tekortkomingen: weliswaar laat de reproductie een stijgende trend zien, maar van bijvoorbeeld de duidelijk zichtbare 60-jarige cyclus in meetreeks van HadCRUT is in de modelsimulatie niets terug te vinden. Voor alle andere klimaatmodellen geldt hetzelfde: geen enkel model is in staat om de oscillaties in de meetreeks te simuleren, en de grote vulkaanuitbarstingen hebben een te groot afkoelend effect. Zie voor de andere modellen deze bijlage.

Zoals hiervoor al was aangegeven wordt de opwarming sinds 1970 vanwege antropogene forcing door het IPCC geschat op 0,5 °C  - 0,7 °C. Deze schatting vormt de basis voor de voorspellingen van het IPCC over het globale temperatuurverloop in de 21e eeuw volgens de diverse scenario’s. Scafetta toont aan dat wanneer rekening wordt gehouden met de 60-jarige cyclus de geschatte toename zeker met 0,3 °C naar beneden dient te worden bijgesteld over de periode 1970-2000.  


Op basis van de 4 oscillaties die Scafetta onderscheidt in de temperatuurreeks sinds 1880 maakte hij een empirisch model dat een betere voorspelling voor de komende decennia zou weergeven dan de door het IPCC gebruikte klimaatmodellen. In bovenstaande grafiek zijn zowel de IPCC-voorspelling (groene band) als de projectie op basis van het empirisch model (blauwe band) weergeven. De gele lijn is het temperatuurverloop zonder correctie voor antropogene opwarming, de zwarte lijn is inclusief  bovengenoemde correctie. Het temperatuurverloop sinds 2000 lijkt tot nu toe inderdaad veel beter de voorspelling van het empirische model te volgen dan van de IPCC-modellen. Voor de gehele 21e eeuw ziet het plaatje er als volgt uit:

 

Het model is gecalibreerd ten opzichte van de temperatuurreeks 1850 – 1950 en 1950 – 2011. Het is duidelijk dat de beide curves heel goed de temperatuurvariabiliteit van 1850 tot 2011 reconstrueren, met een gemiddelde fout van slechts 0,05 °C. Volgens het empirisch model zal de globale temperatuurstijging in de 21e eeuw uitkomen tussen 0,3 °C en 1,2 °C. Vergelijk dat eens met de 1,0 °C tot 3,6 °C van het IPCC. Het model van Scafetta is vergeleken met de meeste klimaatmodellen een eenvoudig model, dat zeker verbeterd kan worden, maar het doet het tot nu toe al veel beter dan alle klimaatmodellen die het IPCC hanteert.

Toch is ook Scafetta voorzichtig: “Will my forecast curve work, hopefully, for at least a few decades? Well, my model is not a “oracle crystal ball”. As it happens for the ocean tides, numerous other natural cycles may be present in the climate system at all time scales and may produce interesting interference patterns and a complex dynamics. Other nonlinear factors may be present as well, and sudden events such as volcano eruptions can always disrupt the dynamical pattern for a while. So, the model can be surely improved. Perhaps, whether the model I proposed is just another illusion, we do not know yet for sure. What can be done is to continue and improve our research and possibly add month after month a new temperature dot to the graph to see how the proposed forecast performs

Scafetta weet dat  " the science is not settled "  ook geldt voor zijn eigen model. Menig klimaatwetenschapper kan daar wat van leren.

 

 

23-9-2012

Het weer wordt steeds extremer


Verdroogde mais in de Midwest van de USA 2012, bron: http://www.farmersguardian.com

Dat is wat klimaatalarmisten de ‘gewone man’ graag willen laten geloven. Dat idee is gevoed door het derde rapport van het IPCC en gebaseerd op klimaatmodellen. Op basis van de gebruikte modellen werd een toename van extremen gebeurtenissen in het weer voorspeld, als gevolg van stijgende temperaturen. Ik heb hier al vaker laten zien dat die voorspelling tot op heden niet bevestigd wordt door waarnemingen. Zie hiervoor dit hoofdstuk.

Met name als het hier of daar de weersomstandigheden ‘records’ breken is het weer tijd voor sommigen om het dogma van het extremer wordende weer uit de kast te halen en op te poetsen. Nu zijn er in het weer een schier oneindig aantal records om te breken, zodat er altijd wel ergens een sneuvelt. De aarde is immers zeer groot en het weer zeer dynamisch.

Afgelopen zomer was het opmerkelijk droog in de Midwest van de USA. Er werd al rap gesproken van een ongekende droogte en een link met de vermeende antropogene opwarming werd snel gelegd. De vraag is natuurlijk of het inderdaad een zeer uitzonderlijke en ongekende situatie betrof. Daar heeft Christy vorige week enkele interessante dingen over gezegd. Dr. John R.Christy, professor aan de University of Alabama Huntsville is op 20 september j.l. gehoord door de Energy and Power Subcommittee van het Congres. Het verslag daarvan kunt u hier vinden.

In bovenstaande grafieken is de droogte in de Midwest weergegeven voor de periode van januari 1900 t/m juli 2012. Zoals te zien is is er wel sprake van meer dan gemiddelde droogte in de Midwest, maar van extreme omstandigheden is geen sprake. Duidelijk is ook te zien dat in de eerste helft van de periode grote droogte veel vaker voorkwam dan in de tweede helft. Bekijkt men dat voor de gehele USA dan is dit beeld hetzelfde:

Interessant is ook om te kijken naar records op het gebied van dagelijkse maximum en minimum temperaturen. Meehl et al (2009) hebben gepubliceerd over de records in dagelijkse maximum en minimum temperaturen in de USA. De studie, Relative increase of record high maximum temperatures compared, liet een onmiskenbare toename van de records van de dagelijkse maximum temperatuur zien ten opzichte van records in de dagelijkse minimum temperatuur.

Meehl et al : “The current observed value of the ratio of daily record high maximum temperatures to record low minimum temperatures averaged across the U.S. is about two to one. … Following an A1B emission scenario for the 21st century, the U.S. ratio of record high maximum to record low minimum temperatures is projected to continue to increase, with ratios of about 20 to 1 by mid-century, and roughly 50 to 1 by the end of the century. ”. A1B emission scenario slaat op de CO2-emissies door de mens en is terug te vinden in het vierde rapport van het IPCC.


De ratio record max. temp/min. temp gaat inderdaad vanaf eind jaren ’60 van de vorige eeuw omhoog. Zoals te zien is hebben Meehl et al hun studie gebaseerd op gegevens vanaf 1950. Interessant is wat Christy laat zien over een wat langere periode, namelijk 1895 – 2012. Hij gebruikt daarvoor 970 meetstations die een continue meetreeks van tenminste 80 jaar hebben (NOAA/NCDC/USHCNv2). Zoals te zien is is het aantal records van maximum temperaturen vanaf de er uit springende jaren ’30 van de vorige eeuw flink afgenomen en zijn al meer dan een halve eeuw tamelijk constant.

Op onderstaande grafiek is van dezelfde 970 langjarige meetreeksen de records van de dagelijkse minimum temperatuur te zien. Er was een piek aan records te zien aan het begin van de vorige eeuw, en een lichte daling vanaf begin jaren ’80.

Voor de 704 USHCNv2 meetstations die een meetreeks van meer dan 100 jaar hebben heeft Christy de ratio record max.temp/min.temp in een grafiek weergegeven:

Vergelijk deze grafiek eens met die van Meehl et al. Het is duidelijk: als men een langere periode van waarnemingen aanhoudt wordt het beeld volledig anders. Christy zegt terecht: “…the claim of rapidly increasing ratios would not hold”. Ik ben met Christy van mening dat het beter is af te gaan op meetgegevens dan op de uitkomsten van modellen.

Gaan we even terug naar de “extreme” droogte van de zomer 2012 zoals die geclaimed wordt door klimaatalarmisten. Piechota et al ( 2004 , The Western U.S. Drought: How Bad Is It? ) reconstrueerden de droogte in het Upper Colorado River Basin (UCRB) vanaf 1500. Het resultaat is hieronder te zien. De grijze balken geven perioden weer met meer dan gemiddelde droogte. De lijn is het voortschrijdend gemiddelde van de zogenaamde Palmer Hydrological Drought Index (PHDI), een droogte-index gebaseerd op neerslag en temperatuur. Negatieve waarden zijn perioden met grote droogte. De 20e eeuw komt naar voren als een relatief natte periode. Zo wisselt het beeld dat men van droogte krijgt door te wisselen van tijdschaal. Mijns inziens wordt dat de afgelopen jaren veel te weinig gedaan.

Een volgende keer wellicht wat meer over het optreden van Christy voor het congrescomité voor Energy and Power.

 

 

 


13-6-2012

Koudeperiode in Younger Dryas gevolg van inslag

Bron: NOAA

Op deze site is al vaak aandacht besteed aan de temperatuurgang van de laatste ijstijd naar het Holoceen tot heden. Zie onder “De Dogma’s” het hoofdstuk “Unieke Temperatuurstijging”. De vermoedens dat de koudeperiode op de overgang van Weichselien naar Holoceen het gevolg was van een extraterrestrische gebeurtenis worden ondersteund door de uitkomsten van een recente publicatie van de Universiteit van Californië in Santa Barbara.

Op bovenstaande grafiek is die koudeperiode tussen 13.000 en 11.500 jaar BP duidelijk waar te nemen. De getoonde data komen van de GRID2 ijskern op Groenland (data hier). Proxies als ijs- en gasisotopen leverden een betrouwbare reconstructie op van de temperatuur op de overgang van Pleistoceen naar Holoceen. Een kleine 15.000 jaar BP steeg de temperatuur in Groenland sterk, een teken dat het Weichselglaciaal ten einde was. Maar rond 14.500 BP daalde de temperatuur trapsgewijze weer tot op glaciaal niveau, om pas vanaf 12.500 BP op te veren tot de bekende Holocene waarden. Van deze abrupte klimaatwijzigingen vinden we op veel plaatsen op aarde bewijzen.


Bron: Wikipedia

Tot nu toe was de meest aangehangen theorie dat de afkoeling het gevolg was van het uitvallen van de warme zeestroom in het noordelijk deel van de Atlantische Oceaan. De gedachte was dat het Agassizmeer in Noord-Amerika, dat een enorme hoeveelheid smeltwater van het Canadese landijs bevatte, leeg liep in de Atlantische Oceaan. Die enorme hoeveelheid zoet water zou dan de thermohaline circulatie verstoord hebben, waardoor er geen warm tropisch water meer naar het noordelijk deel van de Atlantische Oceaan gevoerd zou zijn, met sterke afkoeling tot gevolg.


Bron: Wikipedia

Ook theorieën over een zonnewind en over een langdurige verschuiving van de straalstroom deden de ronde, alsmede een grote vulkaanuitbarsting. Maar zoals het er nu naar uit ziet kunnen we al deze theorieën overboord zetten. De uitkomsten van de ploeg van professor James Kennett lijken tamelijk overtuigend. Het team deed onderzoek naar sedimentgesteenten uit de genoemde periode op een drietal plaatsen, namelijk Pennsylvania, South Carolina en Syrië. Op alle plaatsen werd een dun laagje sediment gevonden dat gevormd moet zijn bij temperaturen van 1700 tot 2200 °C. Het moet daarom wel het gevolg zijn van de botsing tussen de aarde en een lichaam dat vanuit de ruimte de aarde bereikte. De gevolgen voor flora en fauna waren groot: veel soorten, waaronder mammoeten, verdwenen definitief van de aarde.

 


Bron: UCSB

Het ontdekte laagje bestaat uit glasachtig materiaal, dat ontstaat als zand door enorme hitte smelt en gaat koken. Dergelijk materiaal is ook gevonden bij Meteor Crater in Arizona. Vergelijkbare onderzoeksresultaten uit Venezuela en Duitsland versterken het vermoeden dat de koudeperiode van het Younger Dryas geen terrestrische oorzaak heeft maar een kosmische.


Bron: www.meteorcrater.com
 

8-6-2012

Nogmaals klimaatveranderingen en regiem

In de vorige bijdrage heb ik aandacht besteed aan het recente HAVO-examen aardrijkskunde. Met name de vraag over klimaatverandering en regiem van Rijn en Maas kon mijn waardering niet wegdragen, het officiële antwoord in het correctiemodel nog minder. Omdat ik nieuwsgierig was naar de afvoercijfers van Rijn en Maas heb ik die opgezocht. Een zeer uitgebreide database over water in Nederland is Waterbase van het Ministerie van Verkeer en Waterstaat. Dit is de link naar de de Engelstalige Waterbase.

 

De afvoerdata van de Maas (Eijsden) zijn het uitgebreidst en beginnen in 1950. Die van de Rijn (Lobith) zijn aanwezig vanaf 1989. Het meest recente jaar dat geheel in de database aanwezig is op dit moment is 2010. In bovenstaande grafiek heb ik de afvoer van de Maas weergegeven. De zwarte lijn is de lineaire trendlijn, de donkerblauwe lijn verbindt de data met de hoogste afvoer in elk jaar. Begin jaren ’90 en rond 2000 zijn er wel enkele jaren geweest met een verhoogde winterafvoer, na 2002 verdwijnen die extreme winterafvoeren weer.


De Rijn geeft hetzelfde beeld: enkele pieken in de jaren ’90 en rond 2000, na 2002 verdwijnen die piekafvoeren weer uit het beeld. Omdat van beide rivieren de piekafvoer in de winter ligt, is het duidelijk dat deze gerelateerd moet zijn aan het neerslagpatroon in NW Europa. Het is daarom te verwachten dat de afvoergrafiek van de Rijn sinds 1950 eenzelfde patroon zal hebben als dat van de Maas.

Conclusie: op basis van de meetgegevens vanaf 1950 is het antwoord op vraag 30 in het correctiemodel onjuist.


6-6-2012

HAVO examen aardrijkskunde goes climate

 

Ik ben de afgelopen tijd niet in staat geweest om bijdragen te schrijven voor de site: de examens slokten teveel van mijn (vrije) tijd op. Maar ook de eindexamens van het voortgezet onderwijs besteden aandacht aan klimaatverandering. Vorige week zaten de eindexamenleerlingen HAVO die het prachtige vak aardrijkskunde volgen achter de opgaven. Een aantal opgaven was klimatologisch van aard, bijvoorbeeld over de invloed van klimaatverandering vanaf het eind van de laatste ijstijd op het karakter van de Mississippi (zie plaatjes hierboven). Prima opdrachten.


Ook de vragen over het Tjaadmeer (hierboven) waren heel aardig. Wat wel opvalt is het bovenschrift van de kaartjes: `Verdroging van het Tjaadmeer tussen 1963 en 2001´. De kaartjes tonen dat er sprake is van verdroging van 1963 tot 1987, maar daarna gebeurt er eigenlijk weinig met de oppervlakte van het meer. Er zijn wel kleine verschillen, maar men kan niet stellen dat er tot 2001 sprake is van toenemende verdroging. Suggestieve kop derhalve. Trouwe lezers weten dat ik onder het kopje `De Sahara groeit` onder `De Dogma´s` heb aangetoond dat vanaf 1984 de Sahel steeds meer neerslag krijgt, als gevolg van de AMO (Atlantische Multidecadale Oscillatie). Zie in de betreffende paragraaf meer over dit onderwerp. Het neerslagverloop is hieronder weergegeven. Fraai is te zien waarom het aannemelijk is dat het Tjaadmeer na 1984 niet kleiner geworden is:

 


Neerslag Sahel 1900 - 2010 Bron: JISAO

Opgave 30 is de klimaatopdracht waar ik de meeste moeite mee heb. Die luidt: “ Het veranderende klimaat is van invloed op het regiem van de Rijn en de Maas. Leg uit hoe het veranderende klimaat het regiem van de Rijn en de Maas beïnvloedt.” . Het probleem is de term ‘veranderende klimaat’. Daarmee hanteert men een proces dat niet gekoppeld is aan een bepaalde periode, dat wil zeggen het kan zowel slaan op het verleden als op wat komen gaat. Wat geweest is weten we min of meer, en van een eenduidige klimaatverandering in de stroomgebieden van Rijn en Maas is geen sprake. Bovendien: hoever moet men hier terugkijken? 10 jaar, 100 jaar, tot aan de laatste ijstijd?

Nog veel lastiger wordt het als we de term ‘veranderende klimaat’ in de toekomst plaatsen. Ook hier weer de vraag: over welke periode hebben we het? Nu zijn er wel wat voorspellingen gedaan door het IPCC, waarvan de gemene strekking is dat het allemaal wat woester en extremer zal worden. Het KNMI echoot dat regelmatig netjes na. Of dat ook zo zal zijn zal de toekomst leren, de ervaring van de laatste jaren geeft in elk geval geen aanleiding om dat met stelligheid te kunnen beweren.

En toch is dat laatste juist wat de examencommissie/CITO van de HAVO-leerlingen verlangt. Het correctievoorschrift luidt namelijk: “ Een voorbeeld van een juiste uitleg is: Klimaatverandering zal leiden tot een onregelmatiger neerslagregiem / extremere weersomstandigheden waardoor het regiem van de Rijn en de Maas onregelmatiger wordt.”. Dat is inderdaad een voorbeeld van een juiste uitleg. Maar als een leerling het omgekeerde beweert is dat ook juist. Maar dat staat niet in het correctievoorschrift. En ook het verslag van het KNAG over dit examen ( advies hoe om te gaan met afwijkingen van het correctiemodel) zwijgt hierover in alle talen. Wel adviseert men mijns inziens ten onrechte docenten om de termen ‘hoger’ en ‘lager’ in verband met het begrip regiem fout te tellen. Onjuist, omdat regiem slaat op de schommelingen in de waterafvoer gedurende een bepaalde periode. Dat is dus de amplitude, en die kan groter en kleiner worden.

Wat was dus het juiste antwoord? Dat klimaatveranderingen kunnen leiden tot zowel het groter worden als het kleiner worden van het regiem van de Rijn en de Maas, afhankelijk van de vraag in welke richting die veranderingen plaats zullen vinden. En dat laatste weet niemand met zekerheid. Helaas zijn leerlingen in ons voortgezet onderwijs op het gebied van klimaatverandering een beetje voorgeprogrammeerd, zodat velen het ‘juiste’ antwoord gegeven hebben. Lees: het ‘gewenste’ antwoord. Jammer. Is hier sprake van opzet bij de examencommissie/CITO ? Ik denk het niet. Ik vermoed dat er (te) weinig fysisch geografen in de commissie/CITO zitten.

Voor diegenen die het allemaal eens na willen lezen hier de links:

Examen aardrijkskunde havo 2012 eerste tijdvak

Bijlage

Correctievoorschrift

KNAG advies

 


16-5-2010

De nieuwe hockeystick van Yamal

Wie kent er de hockeystick van Michael Mann niet? De grafiek die jarenlang het boegbeeld is geweest van klimaatalarmisten en het IPCC.

 


Bron: IPCC

Een deel van de data die Mann gebruikte was gebaseerd op proxies van jaarringen van de Bristle pine-tree. De grafiek had enkele grote manco’s. Zo ontbrak het Middeleeuws Optimum zijn met name de data van de gebruikte jaarringen omstreden. Van de gebruikte statistische methode is door McIntyre en McKitrick gehakt gemaakt, bevestigd in o.a. het Wegman rapport dat elders op de site uitgebreid behandeld is.

Velen van u zullen al min of meer op de hoogte zijn van de verwikkelingen rond de zogenaamde Yamal data. Yamal is een schiereiland in het noorden van Siberie, waar de grootste aardgasvelden van Rusland liggen. Maar het is ook de plek waar paleoklimatologen proxies vandaan hebben gehaald. Ook daar is kort gezegd commotie over ontstaan. Onderzoeker Briffa van CRU in Groot Brittannië heeft namelijk een tijdje geleden een fraaie temperatuurgrafiek geproduceerd op basis van een aantal bomen op Yamal. Ook deze grafiek heeft weer die onheilspellende knik zoals we die al kenden van de hockeystick.


Bron: CRU

Het grijze deel is het aantal bomen waarop de grafiek is gebaseerd. Voor de meest recente jaren was dat aantal geslonken tot slechts 5. Zie de data van NOAA. Nu is 5 wel erg weinig om een betrouwbare grafiek te krijgen.

 


Bron: BishopHill

McIntyre wilde de betrouwbaarheid van de grafiek natrekken, maar kon dat niet doen omdat Briffa weigerde de data te openbaren. Dat is uiteindelijk (gedeeltelijk) gelukt door gebruik te maken van een langdurige procedure die een beetje te vergelijken valt met onze Wet Openbaarheid Bestuur. Gelukkig was er ook hulp van de Russische onderzoeker Hantemirov. Wat bleek? Er waren destijds veel meer bomen ‘beschikbaar’ dan het handjevol dat Briffa had gebruikt voor zijn reconstructie, namelijk 120.


Bron: ClimateAudit


Zoals te zien is is de hockeystick helemaal verdwenen.
Lees voor de details deze sites: Bishop Hill , Staatvanhetklimaat, ClimateAudit .

 

De emoties laaiden de afgelopen weken hoog op. Het alarmistenblog RealClimate viel McIntyre ongekend fel aan. Zie hier.

Als we afzien van alle commotie rond het niet verstrekken van onderzoeksdata (schande) en de statistische gebreken van de Briffa’s publicaties, dan blijft er een belangrijke vraag over: zijn er betrouwbare thermometermetingen in de regio? Want dan kunnen we de proxy-data vergelijken met de meetgegevens. Die data zijn er. Er is in de regio (zie nevenstaand kaartje van de Yamal regio) 1 meetstation, namelijk Salehard (Salechard). Dat is het rode puntje op de kaart.

Hieronder een detailweergave van Salehard. Het meetstation is zoals vaak gelegen op het vliegveld van de kleine nederzetting Salehard.


Bron: NASA


 

Salehard heeft een temperatuurreeks vanaf 1882 tot heden, dus die dekt fraai het laatste deel van de Yamalreeks van Briffa. Hieronder de grafiek van de gemeten temperatuur, data GHCN, raw data.

 

Bron: KNMI Climate Explorer


En hieronder de gehomogeniseerde datareeks volgens GISS:


Bron: GISS

Zoals men kan zien is er geen enkele opwaartse trend aan het einde van de meetreeks van Salehard waar te nemen. Ik zou zelfs zeggen dat de reeks opvallend vlak is, als we in aanmerking nemen dat de temperatuurstijging van de afgelopen decennia volgens de theorie versterkt in het temperatuursignaal boven de poolcirkel is waar te nemen. Ik blijf de discussie met belangstelling volgen.
 


14-5-2012

Noordpool in september 2012 ijsvij.
 

 


Bron: National Geographic News

 

Dat voorspelde Jay Zwally, onderzoeker bij NASA in 2007. Dr. Jay Zwally is project scientist bij NASA’s ICESat missie. Zwally zei in een interview met National Geographic News:

"At this rate, the Arctic Ocean could be nearly ice-free at the end of summer by 2012, much faster than previous predictions….At this rate, the Arctic Ocean could be nearly ice-free at the end of summer by 2012, much faster than previous predictions." En: "The Arctic is often cited as the canary in the coal mine for climate warming," said Zwally, who as a teenager hauled coal. "Now as a sign of climate warming, the canary has died. It is time to start getting out of the coal mines."

Hieronder ziet u de meest recente gegevens van de ijsgang in de Arctische Zee:


Bron: NORSEX

Het ziet er niet naar uit dat Dr. Zwally gelijk krijgt. Dat weet hij zelf intussen ook wel natuurlijk. In een interview in 2010 met EarthSky durfde hij zijn voorspelling al niet meer te herhalen. Wel haalde hij nog een keer de kanarie in de kolenmijn erbij om zijn bezorgdheid kracht bij te zetten.

Bovenstaaande voorspelling is een fraai staaltje van overdrijving, niet geheel onbekend in klimatologenland, helaas.
 


11-5-2012

De temperatuur in Madrid

De vorige bijdrage ging over CET, Central England Temperature. Net als voor De Bilt zagen we dat de temperatuur daar de afgelopen 15 jaar niet meer is gestegen. Er was zelfs sprake van een lichte daling. Op zich was dit niet zo verwonderlijk, omdat centraal Engeland in dezelfde klimaatregio ligt als ons land. Het is dus te verwachten dat de temperatuurtendens van de afgelopen 15 jaar in Engeland niet veel zal afwijken van die in Nederland.

Daarom vandaag een blik op Madrid, Spanje. Ik kom graag in Spanje. Het meetstation ligt op het vliegveld Barajas, en zoals te zien is dicht bij de start- en landingsbaan. Ik schat de afstand tot de baan zo’n 60 m. Barajas is een WMO-station met de code: 8221 MADRID/BARAJA. Meer over dit meetstation hier.

Dit is het temperatuurverloop gedurende de afgelopen 15 jaar:

 


De data komen van GISS, omdat Climate Explorer van het KNMI niet geheel 2011 kon weergeven. Ook hier hetzelfde beeld: de afgelopen 15 jaar was er geen sprake van temperatuurstijging. De lineaire trendlijn laat zelfs een daling zien. Die daling is ruim 0,6 °C over 15 jaar. Vergelijk dit eens met de globale temperatuurstijging van 0,7 °C over de gehele 20e eeuw die in 'brede kringen' voor grote onrust heeft gezorgd.

Het vliegveld Barajas ligt op een steenworp afstand van de bebouwde kom van Madrid, zodat UHI-effecten ongetwijfeld aanwezig zijn. GISS corrigeert dit in de meetreeks, zoals bekend op een tamelijk onduidelijke manier. De ligging van het station vlak bij de start- en landingsbaan doet vermoeden dat ook hier effecten zullen zijn op de temperatuurmetingen. Informatie hierover van andere vliegveldstations wijzen uit dat toenemend vliegverkeer de metingen positief beïnvloeden. Mij is niet bekend dat GISS dit type lokale invloed ook meeneemt in haar homogenisaties. Het is derhalve aannemelijk dat de temperatuur op Barajas sterker is gedaald dan de grafiek aangeeft.

 


5-5-2012

Engeland en de opwarming.

 

Bron: Stormtrack
Deze week was ik enkele dagen in Engeland en verbaasde me over het gemak waarmee ook daar ‘de opwarming’ van Groot-Brittannië in de media een plaats heeft gekregen. En dan heb ik het niet over The Guardian, een krant waar klimaatalarmisten de afgelopen jaren vrij spel kregen, maar in een krant als The Times. Ik was dan ook nieuwsgierig naar die opwarming, en kon me niet indenken dat de Britse opwarming ‘dramatischer’ is verlopen dan die in ons eigen land. Vandaar dat ik op onderzoek uit ben gegaan naar wat meetgegevens.

Het geluk wil dat men in Engeland veel eerder dan in andere landen begonnen is met het serieus meten van de temperatuur. De Central England Temperature-reeks is een van de oudste temperatuurmeetreeksen op aarde en begint al in 1659. In de jaren ’70 van de vorige eeuw heeft het Hadley Centre de meetreeks gecontinueerd tot op heden. Het betreft een beperkt aantal meetstations in de regio van zuidelijke Midlands tot Lancaster, zoals aangegeven op nevenstaand kaartje.

Hieronder is de gang van de temperatuur te zien vanaf het begin tot en met 2010. Het zijn jaargemiddelden in °C.


Bron data : Hadley Centre

De reeks vertoont een licht stijgende trend (zwarte lijn) vanaf het begin van de metingen met een opwarming van 0,26°C per eeuw. Geen verrassing, de aarde en dus ook Engeland warmt al sinds het einde van de Kleine IJstijd gestaag op. Dat is in ieder geval ten dele het gevolg van veranderende zonneactiviteit, die een zekere periodiciteit veroorzaakt in de temperatuur aan het aardoppervlak. Zie hiervoor onder andere “Zonnecycli” in het hoofdstuk “Nieuwe inzichten”.

De temperatuurlijn toont ook dat de lichte stijging niet gelijkmatig is, de temperatuur gaat op en neer gedurende soms langere periodes. Maar ook kortere periodes geven soms een sterke variabiliteit: temperatuurvariaties tussen twee opeenvolgende jaren van meer dan 2 °C zijn geen uitzondering. Een dergelijke grote sprong in korte tijd is te zien in de tweede helft van de jaren ’80 van de 20e eeuw. De stijging van de temperatuur wordt nog steeds door een deel van de wetenschappers gezien als een gevolg van antropogene factoren, vooral die van CO2 als broeikasgas.


Bron data : Hadley Centre en Earth Policy

In bovenstaande grafiek is naast de CET-lijn de jaarlijkse emissies in miljoenen tonnen CO2 als gevolg van het verbranden van fossiele brandstoffen afgezet tegen de tijd. Vergelijk deze lijn eens met de temperatuurreeks van CET, en constateer dat er geen enkele correlatie is.

De klimaatsite c3headlines heeft enige tijd geleden al eens gekeken naar de CET en geconstateerd dat er in het afgelopen decennium erg veel records gesneuveld zijn op het gebied van gemiddeld hoogste temperaturen. Iedereen kent de gretigheid waarmee dit gebruikt wordt om de invloed van antropogeen CO2 ‘aan te tonen’. Als men naar het verloop van de CET grafiek kijkt vanaf 1659 dan is het niet meer dan logisch dat in een gestaag stijgende temperatuurreeks gedurende meer dan 350 jaar de hoogste temperaturen in het laatste stukje van de reeks zitten. De jaren uit het laatste decennium zijn steeds met rood aangegeven.

Interessante vraag is of de temperatuurvariaties in de CET groter zijn gedurende afgelopen decennia dan in de rest van de langdurige meetreeks. Met andere woorden: is de temperatuurgang van de afgelopen decennia afwijkend, zoals alarmisten vaak beweren? Hieronder is een aantal tabellen afgebeeld die antwoord geven op deze vraag. De eerste geeft de jaren weer met de grootste temperatuurverandering in 1 jaar:


Zoals is te zien zit geen enkel recent jaar in de top-10. Het dichtste bij komt nog 2001, met een toename van 0,67 °C, waardoor dit jaar op de 71e plaats komt. En hier de jaren met de grootste temperatuursprong over een periode van 10 jaar. Het laatste jaar van elke decade is als teljaar genomen:


Ook hier geen enkel recent jaar in de top-10. De decade die eindigde in 2005 en een temperatuurverandering van 1,24 °C vertoonde, komt op een 22e plaats. Nemen we een periodelengte van 20 jaar dan valt 1 jaar uit het laatste decennium in de top-10, namelijk 2006 met een 8e plaats:

Bij periodes van 30 jaar valt het afgelopen decennium weer buiten de prijzen. Het jaar 2006 werd 20e:

Tenslotte de cijfers voor periodes van 40 jaar en 50 jaar. Ook hier geen schokkkende extremen in de afgelopen decennia:



Kortom: geen extreme opwarming gedurende de afgelopen decennia. Als men ervan uitgaat dat CET een deugdelijke proxy is voor de temperatuurontwikkeling op het noordelijk halfrond en daarmee voor de aarde, dan is er weinig aan de hand.

De Tjechische blogger Luboš Motl produceerde over de CET ook een aantal grafiekjes. Hij vergeleek de opwarmingtrends in periodes van 30 jaar, omdat deze de grootste kans zouden moeten geven op een extreem opwarmingssignaal:


Niets spectaculairs te zien in de laatste decennia. Eind 17e en begin 18 e eeuw waren de periodes met opwarming langduriger dan de recente. Hieronder een lijstje met de top-10:

1691 - 1720, 5.039 °C/eeuw
1978 - 2007, 5.038 °C/ eeuw
1977 - 2006, 4.95 °C/ eeuw
1690 - 1719, 4.754 °C/ eeuw
1979 - 2008, 4.705 °C/ eeuw
1688 - 1717, 4.7 °C/ eeuw
1692 - 1721, 4.642 °C/ eeuw
1694 - 1723, 4.524 °C/ eeuw
1689 - 1718, 4.446 °C/ eeuw
1687 - 1716, 4.333 °C/ eeuw

Als je voor alle zekerheid de periodes een lengte van 50 jaar geeft, levert dat voor de afgelopen decennia nog steeds geen bijzonderheden op:

 

Ze kunnen in elk geval niet concurreren met de laat 17e en begin 18e eeuw: 1960 – 2009 met een stijging van 2.65 °C/eeuw valt zelfs buiten de top-10. Winnaar is 1688-1737 met een trend van 3.83 °C/eeuw. Als de periode 100 jaar is, dan zien we nog steeds geen uitzonderlijke situatie voor de afgelopen eeuw:

De opwarmingtrend voor 1909-2008 was 0.87 °C/eeuw, die van 1663-1762 was 0.86 °C/eeuw. Geen spectaculair verschil.
Tot slot was ik benieuwd of de CET een andere tendens zou aangeven voor de temperatuur van de afgelopen 15 jaar dan De Bilt (zie ook “Temperatuur De Bilt” in hoofdstuk “De Feiten”. Het resultaat ziet u hieronder:


Bron: http://climexp.knmi.nl

De afgelopen 15 jaar is er in Midden Engeland, net als in Nederland, geen opwarming meer maar zelfs een daling van 0,2 graden. Het wordt tijd dat Britse media de feiten eens onder ogen zien.
 


20-4-2012

"Our planet is warming at a rapid rate"

De site ScepticalScience heeft een bijdrage gepubliceerd over de snelle opwarming van onze planeet. Daarin tracht men aan te tonen dat er momenteel geen sprake is van een stabilisering van de temperatuur op aarde, maar dat de opwarming onverminderd doorgaat, en wel in een rap tempo. Men bekijkt dan met name het globale temperatuurverloop van de afgelopen 30 a 35 jaar. In de grafiek hieronder zien we het verloop van de globale temperatuur zoals gereconstrueerd door Hadley Centre in Groot-Brittannië op basis van bestaande meetreeksen.

De temperatuurstijging vanaf 1975 is onmiskenbaar, en afgezien van (terechte) discussies over juistheid van metingen en legitimiteit van homogenisaties, wordt algemeen aanvaard dat de globale temperatuur gestegen is. Het artikel tracht de meningsverschillen wat aan te scherpen door te spreken van ‘climate deniers’, een beetje rare term voor diegenen die het klimaatdebat kritisch volgen en zich niet in de luren laten leggen door al te alarmistische verhalen. Ik ken niemand die de temperatuurstijging van na 1975 ontkent.

Het gaat dan ook niet om het ontkennen van de temperatuurstijging, maar om de stagnatie van de temperatuurstijging gedurende de afgelopen 15 jaar. In bovenstaande figuur is het verloop van de maandelijkse globale temperatuur volgens GISS weergegeven vanaf 1996. Alhoewel er formeel nog niet gesproken mag worden van een trendbreuk, is de stagnatie van de temperatuurstijging toch aardig persistent. Hansen neemt een termijn van 17 jaar om vast te stellen of een forcing natuurlijk is dan wel antropogeen.

De schrijver van ScepticalScience gebruikt bovenstaande grafiek van de global heat content om aan te tonen dat er nog steeds sprake is van opwarming. Er wordt gesteld: “ ….the continuing rise of both global and ocean heat content is probably the best indicator that global warming hasn’t even slowed down ” . Inderdaad is in de grafiek een sterke stijging te zien tussen 2000 en 2008, wat in tegenspraak lijkt met de afvlakking van de globale oppervlaktetemperatuur. De grafiek is een bewerking op basis van data die Church et al hebben gebruikt in hun publicatie uit 2011. Bekijken we echter de data tot 2012 van het NODC die de onovertroffen KNMI Climate Explorer ons aanreikt, dan zien we een ander beeld:

Vanaf 2003 is er geen sprake meer van een stijging van de heat content. De time lag tussen stagnatie van globale temperatuur en ocean heat content is makkelijk te verklaren vanwege het enorme bufferend vermogen van de oceanen en de menging van water tussen diverse niveaus. De heat content van land + atmosfeer en ijs speelt nauwelijks een rol van betekenis. Het lijkt er dus op dat de ‘best indicator’ van de site achterhaald is door de werkelijkheid.


Bovenstaande animatie laat zien wat die vreselijke klimaatontkenners doen met de stijgende wereldtemperatuur: ze knippen de reeks in stukjes, die elk geen stijging vertonen. Het is een beetje Donquichotte-achtige bewijsvoering, waarbij de vijand gecreëerd wordt en daarna bestreden. Ik ken geen enkele kritische klimaatvolger die op dergelijke wijze de recente temperatuurstijging benadert. Wellicht nog belangrijker is dat het artikel suggereert dat het gebrek aan opwarming van de afgelopen jaren het gevolg is van kortstondige effecten die vrijwel alle afkoelend werken, zoals ENSO, vulkanisme en zonneactiviteit. In onderstaande grafieken is af te lezen welke invloed volgens Rahmstorf et al deze effecten hebben gehad op de oppervlaktetemperatuur.

MEI is Multivariate ENSO Index, een maat voor de invloed van ENSO, AOD is Aerosol optical depth, een maat voor de invloed van vulkanisme op inkomende kortgolvioge straling, en TSI staatvoor total solar irradiance. Het resultaat van de wijze van analyse door Rahmstorf et al voor 5 datareeksen ziet u hieronder:

Het ziet er indrukwekkend uit, maar is het dat ook? Daar zijn toch wat twijfels over gerezen. Die twijfels worden, ik ben daar eerlijk in, meteen getriggerd door de naam van de onderzoeker. De naam Rahmstorf is in klimatologenland immers niet onomstreden. Behalve dat hij bekend staat als een rasechte alarmist, is hij onlangs door het Kölner Landgericht veroordeeld vanwege het feit dat hij onwaarheden over een wetenschapsjournaliste had verkondigd die haar in de uitoefening van haar beroep hebben geschaad. Irene Meisscher had het namelijk gewaagd het IPCC te bekritiseren vanwege alarmistische passages over de toekomstige landbouwproduduktie in Afrika, als gevolg van de vermeende opwarming van de aarde. Deze waren niet op 'peer-reviewed' literatuur gebaseerd, maar toch in de samenvatting van het IPCC-rapport terecht gekomen en werden vervolgens in de klimaatalarmistische uitspraken van Pachauri en Ban Ki Moon hoog opgespeeld. Later zou dit bekend worden als 'Africagate'.

Bob Tisdale heeft wat kritisch noten gekraakt over het Rahmstorf artikel. Een ervan is dat Rahmstorf et al in hun publicatie behalve ENSO, zon en vulkanen nog een vierde ‘’externe” variabele mee laten doen in hun regressieanalyse, namelijk de lineaire temperatuurtrend. Afgezien van inhoudelijke bezwaren of de lineaire trend wel een externe variabele is, laat Tisdale zien wat het effect van die vierde factor is. De eerste grafiek is met , de tweede zonder de lineaire trend.

Dat komt omdat het mee laten wegen van de lineaire trend in de analyse grote effecten heeft op de schaal waarop de andere factoren van invloed zijn op de temperatuur, maar ook en in het bijzonder omdat daardoor invloed van de zonne-instraling omgekeerd wordt. Zie de grafieken hieronder:

 

Het tweede bezwaar is dat Rahmstorf et al de ENSO data gebruiken als externe factor en te weinig rekening houden met de zeer complexe invloed van ENSO op de oppervlaktetemperatuur. Daarover is al vaker gepubliceerd. De auteur van het artikel in ScepticalScience stelt: “ Although the rate of warming of surface air and lower troposphere temperatures appear to have slowed over the past few years, the same could be said at any virtually any point in time by cherrypicking short-term noise and ignoring the long-term trend ”. Het lijkt me dat het artikel zelf een aardig bewijs levert van cherrypicking en en veronachtzamen van langetermijntrends.
 


3-4-2012

UHI deel 7: Roy Spencer toont sterk UHI-effect aan


Roy Spencer, bekend klimaatonderzoeker aan de University of Alabama in Huntsville, heeft een interessant onderzoek gedaan naar het UHI-effect, het effect dat stedelijke gebieden leiden tot hogere luchttemperaturen. Op deze site is over het UHI-effect al meermalen geschreven. Een overzicht daarvan is te vinden onder ”De Feiten” en dan “UHI”. Wat heeft Spencer gedaan? Hij heeft de Integrated Surface Database (ISD) van The National Climatic Data Center gebruikt , dat gebaseerd is op meer dan 100 originele databronnen van meer dan 20.000 meetstations. Eerst heeft Spencer die stations op het Noordelijk halfrond geselecteerd die een ononderbroken temperatuurreeks hebben vanaf minimaal 1973 t/m 2011. Daarvan heeft Spencer de unadjusted International Surface Hourly (ISH) gebruikt, en wel op 4 momenten per etmaal.


Bron: SEDAC

Vervolgens heeft hij op basis van de zogenaamde Population Density Set van het SEDAC de stations gerangschikt op basis van de bevolkingsdichtheid en onderscheidde op basis hiervan een drietal dichtheidsklassen. In de figuur hieronder is al te zien wat dat oplevert: de decadale temperatuurtrend is groter naarmate de bevolkingsdichtheid groter is. Let ook op de gemiddelde temperatuurtrend van de ‘gouden standaard ’ van de CRUTem3 –reeks: die ligt een beetje hoger dan die van de ISH-reeks.

Jones gebruikte voor zijn CRUTem3 datareeks een raster van 5x5 graden. Eenzelfde raster gebruikt Spencer, maar hij gebruikt dan alleen die cellen waarin én een volledige CRUTem3 datareeks aanwezig is, én tenminste 1 meetstation in elk van de drie gehanteerde dichtsheidsklassen. Interessant is de volgende figuur, waarin de CRUTem3 temperatuuranomalie vergeleken wordt met die van de laagste dichtheidsklasse. De grafiek toont in 2011 een temperatuurverschil van ongeveer 0,15 °C op.

De toenemende divergentie tussen de CRUTem3 temperatuur en de data van de meetstations met de laagste bevolkingsdichtheid is in de volgende grafiek goed te zien:

Als men de CRUTem3 data vergelijkt met die van meetstations in de allerlaagste dichtheidsklasse van 0,1 pesoon/km2, dan ligt CRUTem3 zelfs 30% boven die gemeten waarden.

Spencer concludeert dan ook terecht dat de vele studies die de afgelopen jaren gewag maken van overdreven temperstuurstijgingen als gevolg van onjuiste temperatuurmetingen gelijk hebben. Spencer haalt daarbij ook de studie van McKitrick en Michaels uit 2007 aan die ik in een vorige bijdrage al heb aangehaald, en waarin gesteld wordt dat minstens 50% van de vermeende opwarming sinds 1980 wel eens foutief zou kunnen zijn. Met andere woorden: UHI-effecten beïnvloeden de temperatuurmetingen sterk.

Tenslotte bekijkt Spencer de gegevens alleen voor USA-station, en concludeert: “ The results in the following plot show that for the 87 stations in the lowest population class, the average CRUTem3 temperature trend was 57% warmer than the trend computed from the ISH station data. These are apples-to-apples comparisons…for each station trend included in the averaging for each population class, a corresponding, nearest-neighbor CRUTem3 trend was also included in the averaging for that population class. How can one explain such results, other than to conclude that there is spurious warming in the CRUTem3 dataset? ”


 

 
1-4-2012

Temperatuurverloop in de 21e eeuw.

 

Bovenstaande grafiek stamt , zoals bekend, uit het laatste rapport van het IPCC uit 2007. Het voorspelt het temperatuurverloop in de 21e eeuw volgens een aantal scenario’s . De rode lijn geeft het voorspelde temperatuurverloop weer volgens de IPCC scenariofamilie met een voortgaande economische groei en grootschalig gebruik van fossiele brandstoffen. Het IPCC voorspelt een gemiddelde temperatuurstijging in de 21e eeuw van 2,3 °C +/- 0,6 °C. Zie voor een uitgebreide behandeling van de diverse scenario’s het betreffende IPCC-rapport.

De voorspellingen zijn gebaseerd op de uitkomsten van een aantal klimaatmodellen, GCM’s genaamd. De meest geavanceerde klimaatmodellen zijn een koppeling van atmosferische modellen en oceanische modellen. Het zijn de meest complexe modellen die gebruikt worden en zijn voortdurend “under construction”. Ze zijn zo complex dat ze vaak moeilijk te analyseren zijn. De bekendste zijn HadAM3 van het Hadley Center in Groot Brittannië , GFDL CM2.X van NOAA Geophysical Fluid Dynamics Laboratory in de USA en ModelE van GISS.

Nu is het interessant om te bezien of 12 jaar na de start van de voorspelling in 2000 de klimaatmodellen het goed gedaan hebben. Hieronder is het verloop van de globale oppervlaktetemperatuur weergegeven volgens Hadcrutv3. Zoals te zien is er sinds bijna 15 jaar geen opwaartse tendens meer te bespeuren in de grafiek.

De beide zwarte lijnen geven de grenzen aan van de voorspelling door het IPCC tot 2015. De temperatuur blijft vlak en is de laatste jaren onder de geprojecteerde temperatuur volgens de klimaatmodellen terecht gekomen. Blijkbaar hebben de klimaatmodellen grote moeite om het temperatuurverloop te voorspellen. Hoe is dat te verklaren?

Alhoewel Global Climate Models zeer geavanceerde wiskundige modellen zijn, kennen ze een aantal tekortkomingen. De belangrijkste zijn:
• Bij koppeling van het atmosferische model aan het oceanische model moeten in sommige modellen aanpassingen plaatsvinden, de zogenaamde flux-correctie. Deze flux-correctie zorgt er voor dat het oceanische model in balans blijft. Dat is nodig omdat vaak zeestromen niet in het oceanisch model zijn opgenomen.
• In de modellen wordt geen rekening gehouden met toekomstige vulkaanuitbarstingen.
• Alle modellen schieten tekort in het voorspellen van de temperatuur in de stratosfeer.
• In de modellen wordt geen rekening gehouden met veranderingen in de stralingsgedrag van de zon.
• Convectie van warme lucht en waterdamp (latente warmte) is van grote invloed op de temperatuur aan het aardoppervlak en de uitstraling vanuit de tropopauze. Convectie zorgt ervoor dat de temperatuur aan het aardoppervlak ongeveer 63 °C lager is dan wanneer er geen convectie zou zijn! Global Climate Models hebben grote moeite met convectie, onder andere vanwege de beperkte ruimtelijke schaal waarop dit proces zich afspeelt, in combinatie met het nogal grove raster dat modellen gebruiken. Daarom wordt de bijdrage van convectie in modellen “geparameteriseerd”, een moeilijk woord voor schatten.
• Global Climate Models kunnen niet goed overweg met wolken en waterdamp in de boven-troposfeer. Daarom wordt ook hier gebruik gemaakt van parameterisering.

Maar er is nog een aspect waarin GCM’s tekort schieten. Nicola Scafetta heeft recent enkele opmerkelijke publicaties daarover het licht doen zien. Scafetta is onderzoeker aan de Duke UIniversity in North Carolina en een expert op het gebied van statistiek en nonlineaire modellen van complexe processen. Een prima specialisatie om klimaatmodellen aan de tand te voelen. Hij bestudeerde de invloed van astronomische oscillaties op de temperatuur en vergeleek de resultaten met de klimaatmodellen die door het IPCC gebruikt worden.

Het bleek dat de huidige klimaatmodellen onvoldoende de belangrijke decadale en multidecadale oscillaties kunnen reproduceren zoals die in het temperatuursignaal van 1850 tot 2011 te zien zijn. Zie de grafiek hieronder.


Bron: Scafetta

Scafetta onderscheidt een viertal oscillaties in de temperatuurlijn, namelijk een van 9,1 jaar, een met een lengte van 10 tot 11 jaar, een van ongeveer 20 jaar en een van ongeveer 60 jaar. De eerste lijkt gerelateerd aan de getijdencycli als gevolg van de aantrekkingskracht van Maan en Zon, de andere drie vinden hun oorsprong in de banen van met name Jupiter en Saturnus. In onderstaande grafiek is te zien dat er een opmerkelijke correlatie bestaat tussen het gemeten temperatuurverloop en de vier genoemde cycli.

Scafetti heeft op basis van de 4 oscillaties een model gemaakt en dat model gecalibreerd ten opzichte van een tweetal meetreeksen, namelijk de globale temperatuur van 1850-1950 ( blauwe lijn) en van 1950-2010 (groene lijn). Calibreren is een techniek met behulp waarvan men een tweetal reeksen vergelijkt, in dit geval de gemeten waarden van de globale temperatuur en de modelmatige berekeningen van de temperatuur. De lijnen in de grafiek zijn “detrended”, dat wil zeggen dat de lichte stijging vanaf het einde van de Kleine IJstijd tot heden eruit gehaald is. Zie hierover onder andere in het menu “De feiten” en dan “Temperatuur Wereld”.

Over de 60-jarige cyclus is op deze site al het een en ander geschreven in het kader van de AMO, de Atlantische Multidecadale Oscillatie. Volgens onderzoekster De Raa van het IMAU is de AMO het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht. Zie Onder “De Feiten” het hoofdstuk over “Temperatuur wereld” voor een uitgebreide bijdrage hierover. Scafetta meent echter dat deze oscillatie wellicht een astronomische oorzaak heeft (Mazzarella et al 2011).

Er is nog tenminste één oscillatie die in het model van Scafetta niet meegenomen is, en dat is de oscillatie met een periodiciteit van enkele eeuwen. In de grafiek hieronder is een viertal oscillaties weergeven met een periodiciteit van ongeveer 1000 jaar.


Bron: Humlum et al 2011

Zoals hiervoor al geduid zijn alle klimaatmodellen op een aantal punten geparameteriseerd. Dat geldt onder andere voor het antropogene aandeel in de temperatuurstijging van de afgelopen eeuw. Hoe sterk die antropogene invloed door de diverse modellen wordt ingeschat laat onderstaande figuur zien. De grafieken zijn afkomstig van de bijdrage van werkgroep 1 van het IPCC rapport uit 2007. Het zijn vergelijkingen tussen de globale gemiddelde oppervlaktetemperatuur (HadCRUT3, de zwarte lijnen) en de antropogene plus natuurlijke forcings (rode lijn in grafiek a) en alleen de natuurlijke forcings (blauwe lijn in grafiek b). De rode lijn is het gemiddelde resultaat van 58 simulaties die 14 modellen hebben geproduceerd. De blauwe lijn is het resultaat van 19 simulaties door 5 modellen.


Bron: IPCC

Volgens het IPCC is er tussen 1970 en 2000 sprake van een afkoeling van 0 °C tot 0,2 °C als gevolg van natuurlijke forcings (in dit geval enkele vulkaanuitbarstingen). De gemeten temperatuurstijging in deze periode is 0,5 °C, dus de antropogene forcing tussen 1970 en 2000 is 0,5 °C tot 0,7 °C groot geweest. Op basis hiervan is de temperatuurprojecties tot 2100 gebaseerd zoals we die zagen in de eerste figuur.

Hiervoor is al opgemerkt dat de onderliggende natuurkundige mechanismen voor de 4 oscillaties nog onderwerp van wetenschappelijke discussies vormen. Scafetta stelt echter dat die onderliggende mechanismen niet echt nodig zijn: de oscillaties kunnen we volgens Scafetta beschouwen als een ‘description of the dynamical evolution of the climate system’. Klaarblijkelijk kun je de harmonische componenten van de klimaatdynamiek empirisch modelleren zonder dat je weet hebt van de onderliggende natuurkundige processen. Dat deed ook William Thomson, beter bekend als Lord Kelvin, bij het beschrijven en voorspellen van getijden. De beroemde getijdevoorspelmachine van Kelvin is daarop gebaseerd: zie onderstaande afbeelding.


Getijdemachine van Lord Kelvin. Bron: Wikipedia

Scafetta gebruikt dezelfde benadering als Kelvin destijds en werkt die op twee manieren verder uit:

1) Bezien of de door het IPCC gehanteerde modellen de temperatuuroscillaties kunnen reproduceren
2) Bezien of er op basis van de oscillaties een model te ontwikkelen is om klimaatverandering te voorspellen

Bij de vergelijking van klimaatmodellen om te bezien of deze de globale temperatuur goed weten te reproduceren maakte Scafetta onder andere gebruik van het ‘Coupled Model Intercomparison Project’ (CMIP3). Dat is bereikbaar en downloadbaar via de onovertroffen KNMI Climate Explorer. De resultaten van het ModelE van GISS zijn in de volgende grafiek te zien:


Bron: NASA

Vergelijking met de meetresultaten van HadCRUT3 levert het volgende beeld op:


Bron: Scafetta

De resultaten van GISS ModelE zijn 1 °C naar beneden verschoven om vergelijking mogelijk te maken. Zoals te zien is is de reproductie door ModelE verre van goed. Voor alle andere door het IPCC gehanteerde modellen gelden dezelfde tekortkomingen: weliswaar laat de reproductie een stijgende trend zien, maar van bijvoorbeeld de duidelijk zichtbare 60-jarige cyclus in meetreeks van HadCRUT is in de modelsimulatie niets terug te vinden. Voor alle andere klimaatmodellen geldt hetzelfde: geen enkel model is in staat om de oscillaties in de meetreeks te simuleren, en de grote vulkaanuitbarstingen hebben een te groot afkoelend effect. Zie voor de andere modellen deze bijlage.

Zoals hiervoor al was aangegeven wordt de opwarming sinds 1970 vanwege antropogene forcing door het IPCC geschat op 0,5 °C - 0,7 °C. Deze schatting vormt de basis voor de voorspellingen van het IPCC over het globale temperatuurverloop in de 21e eeuw volgens de diverse scenario’s. Scafetta toont aan dat wanneer rekening wordt gehouden met de 60-jarige cyclus de geschatte toename zeker met 0,3 °C naar beneden dient te worden bijgesteld over de periode 1970-2000.


Op basis van de 4 oscillaties die Scafetta onderscheidt in de temperatuurreeks sinds 1880 maakte hij een empirisch model dat een betere voorspelling voor de komende decennia zou weergeven dan de door het IPCC gebruikte klimaatmodellen. In bovenstaande grafiek zijn zowel de IPCC-voorspelling (groene band) als de projectie op basis van het empirisch model (blauwe band) weergeven. De gele lijn is het temperatuurverloop zonder correctie voor antropogene opwarming, de zwarte lijn is inclusief bovengenoemde correctie. Het temperatuurverloop sinds 2000 lijkt tot nu toe inderdaad veel beter de voorspelling van het empirische model te volgen dan van de IPCC-modellen. Voor de gehele 21e eeuw ziet het plaatje er als volgt uit:

 

Het model is gecalibreerd ten opzichte van de temperatuurreeks 1850 – 1950 en 1950 – 2011. Het is duidelijk dat de beide curves heel goed de temperatuurvariabiliteit van 1850 tot 2011 reconstrueren, met een gemiddelde fout van slechts 0,05 °C. Volgens het empirisch model zal de globale temperatuurstijging in de 21e eeuw uitkomen tussen 0,3 °C en 1,2 °C. Vergelijk dat eens met de 1,0 °C tot 3,6 °C van het IPCC. Het model van Scafetta is vergeleken met de meeste klimaatmodellen een eenvoudig model, dat zeker verbeterd kan worden, maar het doet het tot nu toe al veel beter dan alle klimaatmodellen die het IPCC hanteert.

Toch is ook Scafetta voorzichtig: “Will my forecast curve work, hopefully, for at least a few decades? Well, my model is not a “oracle crystal ball”. As it happens for the ocean tides, numerous other natural cycles may be present in the climate system at all time scales and may produce interesting interference patterns and a complex dynamics. Other nonlinear factors may be present as well, and sudden events such as volcano eruptions can always disrupt the dynamical pattern for a while. So, the model can be surely improved. Perhaps, whether the model I proposed is just another illusion, we do not know yet for sure. What can be done is to continue and improve our research and possibly add month after month a new temperature dot to the graph to see how the proposed forecast performs

Scafetta weet dat " the science is not settled " ook geldt voor zijn eigen model. Menig klimaatwetenschapper kan daar wat van leren.

 
28-3-2012

Temperatuurbepalende factoren aan het aardoppervlak


Bron: Trenberth

Leerlingen in de eindexamenklassen havo en vwo dienen (meestal als duo) een zogenaamd profielwerkstuk te produceren. Voor mijn vak aardrijkskunde zijn dat vaak zeer uiteenlopende onderzoeken, varierend van historisch-geografisch tot klimatologisch. En van die laatste categorie had ik er dit jaar een hele fraaie, geproduceerd door 2 zesdeklassers, Sjors Timmermans en Bob Jacobs. De proefjes die daarbij hoorden wil ik hier graag laten zien.

Bob en Sjors hebben getracht zich een beeld te vormen van de processen aan het aardoppervlak die zorgen dat de aarde zijn overtolige warmte kwijtraakt. Een belangrijk onderdeel van de energiebalans van de aarde zoals men weet, vandaar dat deze bijdrage begint met de bekende figuur van Trenberth. Het gaat dus om de processen die op de figuur zijn aangeduid met 'thermals', 'evapotranspiration' en 'surface radiation'. Dit zijn de processen die de aarde afkoelen.

Sjors en Bob hebben zich eerst de theorie achter deze weerbarstige materie eigen gemaakt en hebben toen, in navolging van wijlen Noor van Andel, een leuke proef gedaan om de theorie te staven. Dat laatste stuk van hun werkstuk, het practicum, geef ik hier onder integraal weer omdat het zo leuk gedaan is. Voor de liefhebbers van het theoretisch kader is hier een link naar het complete werkstuk.

-------------------------------------------------------------------------------------------------------------------------

Uitleg van ons practicum

Hoe willen we nou gaan bekijken wat nou de grootste invloed heeft op de temperatuur aan het aardoppervlak? Doctor van Andel had een jaar voor zijn dood een zeer interessant proefje gedaan: hij nam een paar Petri schaaltjes en probeerde daarmee een aantal verschillende omstandigheden en factoren die van invloed zouden kunnen zijn op de temperatuur, te creëren. Hij mat vervolgens de temperatuur op gedurende 16 uur. Daarna moest hij stoppen omdat zijn dochter het gazon wilde maaien. Dit inspireerde ons om een gelijkaardig practicum op te zetten. Wij wilden onze meting langer laten lopen zodat we beter de opwarming konden bestuderen, maar ook de afkoeling.

De effecten die wij wilden bestuderen zijn de effecten van waterdamp, convectie en van broeikasgassen. Helaas kunnen we variaties in de zon niet goed genoeg nabootsen om hier degelijke informatie uit te kunnen halen. Vooral het afkoelen van onze kommetjes is interessant: welke omgeving voert de warmte het snelst weg? Zou de waterdamp voor de meeste afkoeling zorgen, of misschien convectie? En wat is het verschil tussen geen en wel broeikasgassen?

Opstelling

Algemene opstelling
We hebben de proef uitgevoerd met een opstelling die bij beide delen van het practicum uit 4 glazen bakjes bestond. Deze bakjes stonden op een witte ondergrond en er lagen watjes in, zodat er geen absorptie van zonlicht zou plaatsvinden, die het practicumresultaat zou kunnen beïnvloeden. We hebben met thermokoppels de temperatuur opgemeten. De seintjes die de thermokoppels gaven gingen naar een ‘Ulab’, een datalogger die de temperatuur meet gedurende een vooraf ingestelde tijd. Deze gegevens konden we dan later door middel van het programma Coach verwerken tot grafieken.

Waterdamp

We hebben ervoor gekozen om de verschillen die waterdamp maken te simuleren met het natmaken van de watjes. De rest van het water hebben we na het natmaken van de watjes uit het bakje geschud, zodat in elk bakje evenveel water aanwezig was.

Broeikaseffect

Om het broeikaseffect te simuleren hebben we net als Dr. Van Andel voor PE en PMMA gekozen. Een uitleg over deze stoffen komt later. Voor de bakjes met PE als bedekking, hebben we een diepvrieszak (dit is LDPE) over twee houten latjes gespannen, zodat we de bakjes eronder konden schuiven en de afstand tussen het bakje en de diepvrieszak ongeveer 1 mm was. Dit hebben we gedaan zodat het water dat verdampt er ook uit kan. De afstand is zo klein, omdat we op deze manier de convectie wel zo veel mogelijk willen verhinderen. Voor de bakjes met PMMA als bedekking hebben we hetzelfde gedaan, maar dan met PMMA (plexiglas) op de houten latjes. Ook hebben we nog een los wit plankje gebruikt, waar we de open bakjes op hebben gezet. Dit was dezelfde soort ondergrond als bij de andere bakjes, waardoor er hierdoor geen ongelijkheid in temperatuur in zou moeten zitten.

Convectie

Om convectie te simuleren hebben we ook open bakjes getest. Aangezien de andere bakjes zo goed als gesloten waren, kon de wind daar niet bij om de warme of koude lucht weg te voeren. Bij open bakjes is dit wel het geval.

Verdeling van de bakjes

We hebben ervoor gekozen om de proef in 2 delen te doen, omdat de ‘U-lab’ maar 4 aansluitingen had, waardoor we niet alle 6 de verschillende bakjes tegelijk konden meten. Op deze manier hoopten we door 2 referentiebakjes aan te houden, indirect alsnog alle 6 de bakjes met elkaar te kunnen vergelijken. We hebben de bakjes als volgt verdeeld:

Proefje 1:

PE droog
PE nat
PMMA droog
PMMA nat

Proefje 2:

Geen bedekking droog
Geen bedekking nat
PMMA droog
PE droog

 



Dit zijn de opstellingen van beide practica. Links is een poging tot het uitvoeren van practicum 1 te zien. Tijdens dit proefpracticum regende het. Links in het plaatje is de witte plastic zak te zien waarin de Ulab zat, zodat hij niet nat werd. Rechts is het plaatje te zien van practicum 2

 

 

PE

PE staat voor polyetheen. Dit is een kunststof. Er zijn 2 soorten PE, namelijk hogedichtheidpolyetheen (HDPE) dat bij lage druk en met behulp van een katalysator wordt gemaakt en lagedichtheidspolyetheen (LDPE) dat bij hoge druk wordt gemaakt. HDPE bestaat voornamelijk uit lineaire ketens, terwijl LDPE vooral uit zeer sterk vertakte ketens bestaat.

LDPE is een vrij zachte, maar taaie stof. Het is waterafstotend en een goede isolator. Een erg belangrijke eigenschap van LDPE is dat het langgolvige straling (bijvoorbeeld IR straling) doorlaat. Het is gevoelig voor UV straling, wat betekent dat het door UV straling wordt aangetast, het houdt het echter niet volledig tegen.

HDPE is, net zoals LDPE, een flexibele, maar taaie stof. Verder is HDPE thermisch belastbaar, UV- en weerbestendig, en isolerend. Het laat net zoals LDPE langgolvige straling door. Ook HDPE is gevoelig voor UV straling en wordt dus door UV straling aangetast.
Wij hebben voor ons practicum gekozen voor LDPE, omdat de factoren die voor ons practicum van belang zijn overeenkomen en deze vorm handiger was om te gebruiken.

PMMA

PMMA staat voor polymethylmethacrylaat. Het is echter beter bekend als perspex of plexiglas. PMMA laat UV straling door, maar blokkeert IR straling. Het is erg stootvast, warmte-isolerend, heeft een lage dichtheid en is goed bewerkbaar. Ook is het erg goed bestand tegen lichts- en weersinvloeden.

Verwachtingen met betrekking tot het practicum

Op basis van deze gegevens is het te verwachten dat, op het moment dat de zon op de bakjes schijnt, de bakjes die met PMMA worden afgedekt het warmst zullen zijn, omdat hier de IR straling in de bakjes wordt gehouden. Ook zullen de bakjes met PE warmer worden dan het open bakje, omdat hier de convectie wordt tegengehouden. Hierdoor kan het bakje zijn warmte minder goed kwijt.

Problemen

Helaas hebben we enige problemen gekend met het doen van het proefje. We hadden de thermokoppels goed geijkt, dachten we, maar na de proefjes hadden we opnieuw gekeken of de thermokoppels gelijke temperaturen aangaven. Drie thermokoppels gaven ongeveer dezelfde temperatuur aan, de andere was 1,5 graden kouder. Wij weten zeker dat bij het tweede proefje de afwijkende thermokoppel bij het open droge bakje zat. Bij het eerste proefje denken wij dat het bij het droge bakje met PE zat.


Metingen

Practicum 1

 


Resultaten practicum 1

 


We hebben dit practicum uitgevoerd van 8 februari 2012 22:30 uur t/m 10 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, de tweede dag helder.

In deze grafiek zijn:
Roze de grafiek van PMMA nat
Groen de grafiek van PE nat
Rood de grafiek van PMMA droog
Blauw de grafiek van PE droog (werkelijke temperatuur was waarschijnlijk 1,5 graden warmer)

Practicum 2

 


Resultaten practicum 2

 

We hebben dit practicum uitgevoerd van 23 februari 2012 22:30 uur t/m 25 februari 2012 22:30 uur. Gedurende de eerste dag was het bewolkt, op de tweede dag kwam de zon er af en toe door.

In deze grafiek zijn:
Roze de grafiek van Open nat
Groen de grafiek van PE droog
Blauw de grafiek van PMMA droog
Rood de grafiek van Open droog (werkelijke temperatuur was 1,5 graden warmer)

Analyse

Practicum 1
Kwaliteit van de meting

Onze grafiek lijkt vrij goed overeen te komen met wat het dichtstbijzijnde KNMI station (in Arcen) heeft gemeten (zie bijlage). De tweede middag komt in onze grafiek echter duidelijk boven de andere uit qua temperatuur, terwijl dit bij de werkelijke temperatuur niet is. Waarschijnlijk komt dit doordat op de tweede dag de zon veel harder scheen. De thermokoppels lijken dit heel duidelijk op te pikken. Op de tweede dag meten de thermokoppels temperaturen van boven de 0 graden, terwijl de temperatuur volgens de KNMI niet boven de 0 uit waren gekomen.
De roze grafiek lijkt een meetfout te tonen in het eerste anderhalve uur en tussen 42 en 44 uur. De temperatuur blijft nagenoeg gelijk, terwijl dit totaal onlogisch is op deze tijdstippen. Bovendien is de temperatuur waarop de grafiek constant is in beide gevallen even hoog.

Waterdamp

In de nacht (tussen 0 en 9 uur en tussen 22 en 33 uur in onze grafiek) zijn de grafieken van de schaaltjes met een natte bodem (de groene en paarse grafieken) warmer dan de droge bakjes. Water geeft namelijk moeilijker warmte af aan de lucht dan andere materialen. In de middag, wanneer de zon op de bakjes schijnt, zijn de bakjes met water erin juist kouder dan de droge bakjes. Dit effect is op de eerste dag minder groot dan op de tweede omdat de luchtvochtigheid hoger was (zie bijlage). Het water kan dan namelijk verdampen en zo veel warmte meenemen. Het verschil bij de tweede dag is, ongeveer 7 graden ’s middags en 1 graden ’s nachts voor de PMMA bakjes. Opgeteld is dit 8 graden verschil. Na correctie is het verschil bij de PE bakjes, ‘s middags ongeveer 3,5 graden. Als je daar de 4,5 graden verschil die er ’s nachts tussen de bakjes zit bij optelt, krijg je een verschil van 8 graden. Waterdamp maakt de bakjes dus zo’n 8 graden koeler overdag.

Broeikaseffect

Over de hele 48 uur lijkt er een constant verschil te zitten tussen de bakjes met PE en PMMA. Bij de natte bakjes (groen en paars) is dit verschil ongeveer 1 graden en bij de droge bakjes (rood en blauw), na correctie voor het foutje met de thermokoppels, 1,5 graden. PMMA behoort de warmste te zijn aangezien PMMA infraroodstraling tegenhoudt. Dit betekent dat de warmte niet weg zou kunnen gaan uit onze bakjes. Helaas is dit niet het geval bij de natte bakjes. Sterker nog, bij de natte bakjes is de PE constant warmer dan de PMMA, al is het maar 1 graden. Wel lijken de PE bakjes lichtelijk sneller af te koelen dan de PMMA bakjes, maar dit verschil is bijna niet merkbaar. Een mogelijke verklaring voor het feit dat er bij de natte bakjes zo’n klein verschil zit tussen PE en PMMA is dat de waterdamp zich op de PMMA en PE gecondenseerd kunnen hebben. Daar zouden ze infraroodstraling omgebogen kunnen hebben naar de buitenkanten van de bakjes, waar de infraroodstraling er wel door kan. Of de waterdamp zou dan weer met de warmte die erin zit naar onder gevallen kunnen hebben, waardoor de warmte niet uit het bakje gevoerd wordt. Een verklaring voor het feit dat het natte bakje met PE constant warmer was, hebben we niet.

Practicum 2

De kwaliteit van de meting

 


Een vergelijking van onze resultaten met Arcens temperatuur
Bron: Buienradar & onze eigen metingen

 

Onze grafiek komt bijzonder goed overeen met de temperatuur die het KNMI in Arcen heeft gemeten op 10cm hoogte boven gras. Vooral als je bij het open bakje 1,5 graden optelt. Zie hieronder voor de vergelijking.

Convectie

In de nacht waar het zo koud is geworden daalt de temperatuur van het open, droge bakje (de rode grafiek) harder dan de andere bakjes. Na de 1,5 graden correctie wordt het open bakje 0,5 graden kouder dan de gesloten bakjes. Het open bakje stond namelijk in contact met de open lucht. Rond dat tijdsstip kwam er een koudefront aan. De gesloten bakjes houden dan hun warmte zo veel mogelijk vast, totdat de warmte via straling en geleiding weg gaat. Uiteraard stijgt de temperatuur dan ook harder wanneer er weer warme lucht voorbij komt. Dit verschil is kleiner bij het natte, open bakje (de roze grafiek). In de middag blijkt er een verschil te zitten van 0,5 graden tussen het open, droge bakje en het bakje met PE (het afgedichte bakje dat alles doorlaat). In die middag kan het open bakje dus makkelijker de warmte kwijtraken en blijft het iets koeler.

Waterdamp

Op de eerste dag lijkt het bakje met de waterdamp moeilijker op te warmen. De reden hiervoor moet zijn dat er in de middag waterdamp gecreëerd is die dan weggevoerd wordt. Deze waterdamp voert de warmte mee (latente warmte). In de nacht die hierop volgt is de grafiek met waterdamp merkwaardig veel warmer dan de andere grafieken. Dit komt waarschijnlijk wederom doordat water moeilijker z’n warmte kwijt kan dan lucht. Vervolgens stijgt de temperatuur minder hard dan in het droge open bakje. De warmte die er gecreëerd wordt, wordt door het verdampte water meegevoerd. Op de tweede middag is het natte bakje even warm als beide afgesloten bakjes. Dit kunnen we niet verklaren. Door de waterdamp zou dit bakje juist kouder moeten zijn omdat het makkelijker zijn warmte kwijt kan. In de nacht is er een temperatuurverschil, na correctie, van anderhalve graden, in de middag geen enkele. Over het algemeen is het verschil dat waterdamp maakt, dat het in de middagen zo’n halve graden warmer is en in een nacht waar het sterk afkoelt, anderhalve graden.

Broeikaseffect

De eerste (bewolkte) dag is het bakje met PE (de groene grafiek) ongeveer 0,5 graden warmer dan het bakje met PMMA. Dit kan komen doordat de wolken het zonlicht slechter doorlaten en er juist voor zorgen dat er meer IR straling van de aarde wordt geabsorbeerd en weer gedeeltelijk naar de aarde wordt uitgezonden. Omdat PMMA niet doorlaatbaar is voor IR straling, wordt deze bij het PMMA buiten het bakje gelaten. PE laat IR straling echter wel door, waardoor dit bakje wel door deze straling wordt opgewarmd. Als er na ongeveer 25 uur een gebied met koude lucht voorbijkomt, wordt dit verschil kleiner en lopen de grafieken zelfs bijna gelijk. In dit gedeelte koelt het bakje met PMMA iets minder snel doordat de infraroodstraling van het bakje zelf het bakje niet uit kan. Dit verschil is echter vrij klein. Nadat de kou voorbij is getrokken warmt het bakje met PE harder op dan het bakje met PMMA. Wij denken dat dit wederom komt doordat de wolken infraroodstraling terugkaatst die het PMMA niet doorlaat. In de middag, wanneer de zon er zo af en toe doorheen komt, wordt dit verschil weer kleiner en gaan de grafieken nagenoeg gelijk lopen. Als je inzoomt, valt te merken dat het bakje met PMMA steeds een heel klein beetje warmer is dan het bakje met PE. Dit verschil is echter vrij klein. We hadden verwacht en gezien in het vorige practicum dat dit verschil groter zou zijn. Dit kan komen doordat de zon er maar af en toe door is gekomen en niet zoals bij het eerste practicum de hele tijd op de bakjes heeft geschenen. Ook in de tweede nacht koelt het PMMA bakje minder hard af. Het verschil tussen PE en PMMA is dus ongeveer 0,5 graden.

Conclusie van het practicum

Uit onze practica blijkt dat er maar een miniem verschil zit tussen PMMA en PE en dus ook tussen wel en niet broeikasgassen in onze atmosfeer. Bij het eerste practicum is het verschil 1 graden, bij het tweede slechts 0,5 graden. We kunnen dus concluderen dat het effect van broeikasgassen op microschaal bijzonder klein is.
Het effect van convectie is niet veel groter. Alleen in de middag, bij warmte, lijkt er een verschil van 0,5 graden te zitten tussen wel en geen convectie.
Het effect van waterdamp is veel groter, maar niet eenduidig. Bij ons eerste proefje is het verschil zo’n 8 graden, bij het tweede 1 graden.
Waar broeikasgassen een relatief klein tot geen effect hebben, en waar convectie ook maar een miniem verschil geeft, heeft waterdamp een groot effect op de temperatuur van onze bakjes. Als er verdamping plaats kan vinden, zijn de bakjes veel kouder als de zon er op schijnt, in de nacht heeft het een licht opwarmend effect.
De verschillen die in ons practicum te zien zijn, zijn relatief kleine verschillen doordat de bakjes niet volledig waren afgesloten, er niet veel zonuren waren (hoewel 10 februari de zonnigste dag van de maand was), er een hoge luchtvochtigheid was en doordat onze bakjes waarschijnlijk warmte geleid hebben, zodat de warmte naar buiten kon ontsnappen.

Conclusie

We hebben nu van drie van de vier factoren door middel van een simpel proefje weten te bepalen welke het sterkste effect heeft op de temperatuur op aarde. In ons practicum, dus op micro schaal, is gebleken dat waterdamp een grotere invloed op de temperatuur heeft dan broeikasgassen. Waterdamp geeft immers een verschil van 1 tot 8 graden tussen dag en nacht en broeikasgassen en convectie veel minder. Dit komt goed overeen met de theorie die we hadden. Waterdamp is heel belangrijk voor de temperatuur op het aardoppervlak. Waterdamp neemt de warmte mee naar boven waar de warmte gemakkelijker kan uitstralen. Waterdamp is echter ook een broeikasgas en helpt dus onze aarde opwarmen. Het is zelfs het meest actieve broeikasgas. Maar waterdamp kan ook wolken creëren en zo de aarde óf verder opwarmen óf afkoelen. De mate waarin dit gebeurt ligt aan de zon. Als de zon een zwak magnetisch veld heeft, zullen er meer lage wolken gevormd worden die onze aarde afkoelen. Echter ook de vervuiling van de lucht heeft invloed hierop. Als er veel vervuiling is, zijn er namelijk veel condensatiekernen en kunnen zich veel wolken vormen. Ook bestaan deze wolken dan uit veel waterdruppeltjes, waardoor het albedo relatief groot is ten opzichte van wolken die ontstaan rond weinig waterdruppeltjes. Ook bestaan deze wolken langer.

Wij denken dat de fluctuaties in de zon het grootste effect heeft op de temperatuur aan het aardoppervlak. Niet zo zeer omdat de temperatuur zeer laag zou zijn als er geen zon was, maar meer omdat het de motor achter het hele mechanisme is in onze aardatmosfeer. Als de zon zwak is, zal ze zowel meer wolken vormen als minder straling op de aarde zelf laten vallen. Als er minder straling op de aarde valt, zal er ook minder straling naar de broeikasgassen gestuurd worden. Deze broeikasgassen kunnen dan weer minder straling terugkaatsen.
Waterdamp lijkt daarna het grootste effect te hebben. Waterdamp kwam ‘als beste uit de bus’ in onze test en heeft meerdere mechanismes waarin het betrokken is.

Broeikasgassen komen naar onze mening op de derde plaats terecht. Ze bleken in onze test vrij weinig effect te hebben. Onze theorie geeft aan dat ze een behoorlijk groot effect moeten hebben en de aarde aardig moeten opwarmen, mede doordat een hogere temperatuur veroorzaakt door broeikasgassen, meer waterdamp laat verdampen, waardoor er meer broeikasgassen in de lucht komen die de aarde nog verder kunnen opwarmen. Wel kan er zo weer meer warmte mee naar boven gevoerd worden die dan kan uitstralen in de ruimte.

Convectie heeft vooral effect op de lokale temperatuur. De warmte wordt door middel van convectie van de ene naar de andere plek vervoerd, maar koelt niet echt het gehele aardoppervlak af. In de tropen is het effect van convectie echter het grootst. Daar is het het warmst en wordt de meeste warmte afgevoerd. 

 


14-3-2012

UHI effect heeft groter ruimtelijk effect dan tot nu toe gedacht.

In een studie naar de lengte van het groeiseizoen in het NO van de USA hebben onderzoekers een belangrijke ontdekking gedaan. Steden hebben een opwarmend effect op de omliggende regio tot een afstand van 32 km van het stadscentrum. Tot nu toe werd aangenomen dat die invloed op de omgeving niet verder reikte dan zo’n 15 km. (Zhang et al, 2004).

Andrew Elmore et al maakten gebruik van recente satellietdata met een hoge resolutie om de bladontwikkeling bij loofbomen te onderzoeken. Daarbij keken ze naar een drietal aspecten van bladontwikkeling, namelijk de bladaanzet in de lente, de ‘summer greendown’ en de bladval in de herfst.


Bron: Elmore et al

Het groeiseizoen is op continentale schaal goed te beschrijven aan de hand van klimatologische variabelen zoals breedte- en hoogteligging . Voor de ruimtelijke schaal waarop dit onderzoek is toegepast, een gebied van ~130 bij ~190 km, was een fijne dataresolutie noodzakelijk omdat de ruimtelijke patronen complexer zijn en een groter aantal processen omvatten.

De resultaten zijn deels niet verrassend en deels wel. Niet verrassend was dat er een drietal ruimtelijke variabelen van invloed bleek te zijn op de lengte van het groeiseizoen, namelijk hoogteligging, verstedelijking en nabijheid van grote watereenheden. Voor mij was verrassend dat de invloed van verstedelijking op het groeiseizoen ruimtelijk veel verder blijkt te reiken dan tot nu toe is aangenomen. Ook verrassend was dat die stedelijke invloed vooral effect heeft op het moment van bladval in de herfst en minder op de bladaanzet in de lente. Dat laatste kan te maken hebben met een zich wijzigende soortensamenstelling en irrigatie.


Bron: Elmore et al

Zhang et al (2004) publiceerden in 2004 een onderzoek naar het effect van UHI op het groeiseizoen van planten. Dat deden ze aan de hand van MODIS-data (Moderate Resolution Imaging Spectroradiometer) voor verstedelijkte gebieden > 10 km2. in het oostelijk deel van de USA. Hun onderzoek wees uit dat de invloed van UHI-effect op de omgeving exponentieel afneemt met de afstand, en dat de invloed van steden op de temperatuur in de omgeving tot 10 km afstand van de rand van de stad substantieel is.

Als de invloed van steden echter veel verder reikt dan tot nu toe werd aangenomen, zoals het onderzoek van Elmore et al uitwijst, dan betekent dit dat stedelijke opwarming ruimtelijk bezien veel grotere effecten heeft dan tot nu toe werd aangenomen. Peri-urbane meetstations die tot nu toe werden geclassificeerd als ruraal zijn dan in werkelijkheid urbane stations.

 


21-2-2012

Hoe het geld stroomt in klimaatland

De hysterische berichtgeving over vermeende duistere betalingen aan klimaatsceptische wetenschappers bleek gebaseerd op een fake document van het Heartland Institute dat kwaadwilligen hadden verspreid onder journalisten ‘met een boodschap’.
Het geld dat gespendeerd wordt aan activiteiten van niet-alarmistische klimatologen valt werkelijk in het niet bij de immense geldstromen die de alarmistische visie in de lucht houden. Australische Joanne Nova heeft onderstaand tabelletje gepubliceerd:

Bron: Joanne Nova
 

Op onderstaande afbeelding zijn de geldstromen gevisualiseerd die de ‘angstmachine’ van de klimaatalarmisten aan de gang houden. Let eens op de rol van de main stream media (‘rubber stamp’) in de helse machine. De kritiek van onafhankelijke wetenschappers wordt genegeerd, of marginaal, extreem of verloochenend genoemd. Herkent u de meeste Nederlandse media ? Zie recente bijdragen op deze site.



Voor diegenen die bovenstaand plaatje groter willen zien of als poster achter hun raam willen hangen is hier een grote pdf.
 
17-2-2012

Martijn van Calmthout, de ‘basher’ van klimaatsceptici

 

Gisteren was het weer eens raak met Martijn van Calmthout in de Volkskrant: in het artikel dat klimaatsceptici gefinancierd worden door de Heartland Foundation wordt de suggestie gewekt dat hier sprake zou zijn van ongeoorloofd gedrag. Geldbedragen worden genoemd, en mensen worden ‘geacht’ tegengeluid te geven in het klimaatdebat. Daarbij worden associaties opgeroepen met onoorbare praktijken en actiedwang die je eerder binnen sekten verwacht.

De Heartand Foundation is echter een organisatie die zich bezig houdt met het lot van kinderen, dus ik denk dat de schrijver het Heartland Institute in Chicago bedoelt. Dat is niet de enige omissie in het artikel. De aantijgingen zijn merkwaardig, omdat het Heartland Institute al jaren openlijk kritische publicaties en onderzoek op het gebied van klimaatverandering financiert. Dat moet wel, want vrijwel alle publieke en niet-publieke geldstromen in de klimatologie gaan naar diegenen die een klimaatalarmistische visie aanhangen.


Voorpagina van de site van Heartland Institute


In de USA is het overigens veel gebruikelijker dan bij ons dat onderzoek en publicatie ook door particuliere gelden worden gefinancierd. Een van de grootste particuliere geldschieters voor alarmistisch onderzoek is het Rockefeller Brothers Fund, dat vorig jaar meer dan 25 miljoen dollar uitgaf. Afgelopen maandag reageerde van Martijn Calmthout in de krant ook al zo geprikkeld richting klimaatsceptici. Het lijkt er op dat van Calmthout ‘a man with a mission’ is.
Van Calmthout had het grote nieuws van Leo Hickman van The Guardian, een Britse krant die op klimaatgebied het hart ook op de ‘goede’ plaats heeft. Helaas, het uitgelekte document waar het hele verhaal van van Calmthout op gebaseerd is, lijkt fake te zijn. Iemand heeft een zogenaamd belastend document nagemaakt.

Prof. Roy Spencer (enge man: kritische klimatoloog!) zei in een reactie op zijn website:

The only document involved that could be viewed as damning in any way is almost certainly a fake. The others are fairly boring, unless you really are surprised that any organization would take (very modest) donations to explore alternative hypotheses on the subject of global warming and climate change. Supporting alternative hypotheses in science…what a scandal! Only fringe lunatic save-the-Earth-by-killing-everyone-but-me types could really believe that any organization would actually promote “dissuading teachers from teaching science”. The person who wrote this obviously fraudulent Heartland goal clearly knows little about science or what kind of organization Heartland is. That so many media outlets (especially the Guardian) ran with the story without checking its veracity is another black eye for what passes as journalism these days. ”.

Ik ben benieuwd of de Volkskrant hier op terug komt. En wat van Calmthout betreft: ik heb met veel plezier zijn boek “Einstein in een notendop” gelezen, maar zijn journalistieke opvattingen deugen niet.
 


14-2-2012

De Volkskrant publiceert kritisch artikel van Richard Lindzen e.a..

Blij verrast was ik toen ik afgelopen zaterdag de Volkskrant opende en een vertaling aantrof van een artikel dat op 27 januari j.l. is gepubliceerd in de Wall Street Journal.

Het artikel is door 16 mensen ondertekend, waaronder prominente klimaatonderzoekers zoals Richard Lindzen van het MIT. Via bovenstaande link kunt u het origineel lezen, anders moet u het doen met de vertaling.

Een bijgaande video met een interview met prof. William Happer, een van de ondertekenaars vindt u hier.

Het artikel is helder en laat niets aan duidelijkheid te wensen over. Petje af voor de Volkskrant die zo nu en dan geen rekening houdt met de gevoeligheden van haar wetenschapppelijke redactie en soms ook een kritisch geluid uit klimatologenland durft te publiceren.

Direct na deze publicatie een reactie van 2 wetenschapsjournalisten van de Volkskrant, nota bene op de opiniepagina. U vindt deze reactie hier. Over die reactie wil ik graag wat kwijt.

Daar waren ze weer, de klimaatsceptici’. Dat is de openingszin van de reactie van Martijn van Calmthout en Maarten Keulemans op het artikel van Lindzen e.a. dat vergaande acties tegen opwarming onnodig zijn. Ze schieten in hun reactie in een bekende reflex: links ziet de gevaren van antropogene opwarming, rechts wil er niets van weten. Dat blijkt onder meer uit hun constatering dat een deel van de ondertekenaars ‘duidelijke banden met de industrie’ heeft. Je kunt je afvragen of een dergelijke kwalificatie van belang is bij de beoordeling van de argumenten die door de 16 ondertekenaars naar voren zijn gebracht.

Van Calmthout en Keulemans stellen dat klimaatsceptici vergeten dat de meeste aanwijzingen één kant op wijzen, namelijk opwarming door toename van CO2 als gevolg van menselijke uitstoot. Afgezien van het feit dat je met kwalificaties als ‘de meeste aanwijzingen’ je gelijk in de wetenschap niet kunt halen is het ook inhoudelijk onjuist. Er zijn de afgelopen jaren namelijk steeds meer aanwijzingen dat het klimaatsysteem veel complexer is dan tot nu toe aangenomen werd waardoor allerlei voorspellingen niet blijken uit te komen. Dat de globale temperatuur al minstens 15 jaar niet meer stijgt terwijl het CO2-gehalte toeneemt is er slechts een van.

Het grote manco van veel klimaatalarmistische doemscenario’s is dat ze gebaseerd zijn op modellen. Het voortdurend presenteren van de uitkomsten van die modellen als ‘feiten’ heeft er voor gezorgd dat het grote publiek niet anders weet dan dat we aan de vooravond staan van een Armageddon. Steeds vaker wijst onderzoek echter uit dat de werkelijkheid weerbarstiger is en dat er tot nu toe helemaal geen grootschalige natuurrampen zijn ontstaan als gevolg van verhoogd CO2. De temperatuur stijgt al 15 jaar niet meer, het aantal tropische stormen is niet groter geworden, windsnelheden in alle werelddelen zijn zelfs afgenomen, gletsjers blijken veel minder snel af te smelten dan vermeld , het zeeniveau stijgt niet harder dan 50 jaar geleden, enzovoorts. Hierdoor vallen klimaatalarmisten in hun eigen wapen: het grote publiek keert zich massaal van de overdreven alarmistische scenario’s af.

Het merkwaardige van het artikel is dat het aan de ene kant opvallend neutraal de grote onzekerheden beschrijft in de klimatologie, terwijl anderzijds gepleit wordt voor het nemen van verregaande maatregelen op basis van diezelfde grote onzekerheden. Van Calmthout en Keulemans hebben gelijk als ze stellen dat de klimaatdiscussie veel meer is dan een strijd om het wetenschappelijke gelijk. De titel, ‘Klimaatdiscussie is botsing van ideologieën’, geeft echter helaas ook de toon van het artikel weer. Een gemiste kans van beiden om een meer inhoudelijk commentaar te geven. Met de constatering dat een deel van de ondertekenaars ‘duidelijke banden met de industrie’ heeft maken ze misschien goede sier bij diegenen die nog de links-rechtsmaatlaat gebruiken om onderscheid te maken tussen goed en kwaad, met wetenschapsjournalistiek heeft het echter weinig te maken.

Een ingezonden-briefschrijver in de Volkskrant van vandaag meende dat de stilstand van de globale temperatuur het gevolg was van een statistische truc door het super El Ninojaar 1998 als ‘ijkpunt’ te nemen, wat dat ook mag betekenen. Dat de stilstand ook zonder cherry-picking aangetoond kan worden heb ik al diverse malen hier laten zien. Vervolgens bezondigt hij zichzelf aan statistische valsemunterij door de afgelopen 2 decennia met elkaar te vergelijken. Hij eindigt zijn brief met een verzoek aan de krant om niet alle onzin te publiceren. Als de krant dat zou doen was zijn eigen brief meteen in de prullenbak verdwenen. Maar dergelijke onwetendheid kun je leken in klimaatland niet kwalijk nemen.

Kwalijker is het als in dezelfde brievenrubriek ook een professor van de VU in de fout gaat, J. van Huissteden. De prof meent in het Amerikaanse artikel gelezen te hebben dat er geen sprake is van 'opwarming in de laatste decennia'. Dat stond er natuurlijk niet. Er stond: "Perhaps the most inconvenient fact is the lack of global warming for well over 10 years now." Ik heb onlangs laten zien dat het al 15 jaar lang niet warmer meer wordt, en dat werd bevestigd door Met Office in de UK.

Vervolgens koppelt van Huissteden met gemak de Elfstedentocht aan de globale temperatuurstijging die ‘de laatste jaren wat minder snel lijkt te gaan’. De rest van zijn brief is sterk politiek gekleurd en opgehangen aan de presidentiele voorverkiezingen in de USA. Het is duidelijk: voor een gedegen studie klimatologie moet je niet bij de VU zijn.


10-2-2012


Frans Sluijter kraakt klimaatnoot

Een merkwaardig fenomeen is dat het lijkt alsof de scheidslijn tussen een klimaatalarmistische en klimaatkritische houding samenvalt met de politieke verhouding links-rechts. Dat kan te maken hebben met de klassieke gedachte dat links de hoeder van levenskwaliteit is en rechts vooral rijkdom nastreeft, maar dit beeld is simplistisch en achterhaald. Het is ontegenzeggelijk zo dat links nog steeds veel mensen herbergt a la ex-minister Jaqueline Cramer en Wijnand Duyvendak, die krampachtig volharden in ‘the science is settled’, maar er zijn ook mensen in het linkse kamp die ik gerust tot de ‘verlichten’ kan rekenen. Een daarvan is emeritus-hoogleraar Frans Sluijter. Dat bewijst een recent artikel van de PvdA-prominent in het blad S&D van de Wiarda Beckmanstichting. Ik werd onlangs door André van den Berg op dit zeer lezenswaardige artikel geattendeerd.

Foto: www.dagelijksestandaard.nl

Sluijter stelt in zijn artikel de nog steeds breed aanvaarde hypothese dat 'de opwarming van de aarde' wordt veroorzaakt door menselijk handelen aan de orde. Hij neemt daarbij geen blad voor de mond. Als professor in de theoretische natuurkunde kan hij niet anders dan grote vraagtekens zetten bij een hypothese die door anderen al jaren wordt verkocht als feit. Hij herkent daarbij religieuze aspecten in de klimaatdiscussie, die ook al door anderen zijn waargenomen. Sluijter: “ Klimaatwetenschappen vormen een schoolvoorbeeld van een post-normale wetenschap, waarbij de toepassing op de publieke zaak geplaagd wordt doordat de feiten onzeker zijn, de waarden ter discussie staan, de belangen groot zijn en de gevraagde beslissingen door velen als spoedeisend ervaren worden. De klimaatverandering wordt soms ook gezien als een ethisch of zelfs theologisch probleem, met bijbehorend schuldgevoel en behoefte tot boetedoening. Deze religieuze component die de klimaatdiscussie is binnengeslopen, leidt behalve tot een gebrek aan rationaliteit ook tot verkettering van mensen die er anders over denken.”

Ook de kongsi van wetenschap en politiek, ultiem belichaamd door het IPCC , wordt door Sluijter feilloos gefileerd. Een uit wetenschappelijk oogpunt bezien nadelige ontwikkeling hierbij is dat vanwege de verstrengeling van politiek en wetenschap de geldstromen voor nieuw onderzoek zeer sterk gestuurd worden door de politiek-maatschappelijke mores die de afgelopen jaren heeft geheerst in het klimaatdebat. Sluijter: “ Heden ten dage kennen we echter een zeer nadrukkelijk wetenschapsbeleid met een systeem van financiering van onderzoek dat berust op het doen van voorstellen die beoordeeld worden door jury’s. Dat heeft het wetenschappelijk leven grondig veranderd. Onderzoekers zijn voor hun loopbaan zeer afhankelijk geworden van hun vaardigheid om voorstellen te schrijven die genade kunnen vinden in de ogen van die jury’s. Daarnaast worden op hoger niveau de budgetten vastgesteld die aan de verschillende vakgebieden worden toegewezen. Bij dit laatste speelt het maatschappelijk belang dat politici aan een vakgebied toekennen een belangrijke rol. Dat veranderingen in het klimaat maatschappelijk belang hebben zal door niemand bestreden worden, maar als je daar dan modellen voor maakt die dramatische veranderingen voorspellen en die de mogelijke gevolgen breed uitmeten, blijkt het aanzienlijk eenvoudiger om aan ruime fondsen te komen dan dat voor kritische onderzoekers het geval is.”.

Wie het artikel van Sluijter in zijn geheel wil lezen klikt hier.
 


4-2-2011

Temperatuur onderste deel troposfeer zakt verder.

 


Bron: Dr. Roy Spencer

De University of Alabama Huntsville houdt al sinds jaar en dag de temperatuur bij van de onderste troposfeer. Dat doet zij door de data van de NOAA satellieten te bewerken tot de UAH dataset. Dat bewerken is noodzakelijk omdat de meetgegevens van de satellieten geen temperatuurreeksen zijn. Zie de bijdrage van 8-1-2012. De temperatuur is nu onder de 0-lijn gedoken, mede als gevolg van de La Nina van afgelopen januari, volgens Roy Spencer.

Voor de schaatsliefhebbers onder ons: hier kun je dus niet uit afleiden dat we een Elfstedentocht krijgen ;-) !


30-1-2012

Met Office bevestigt: geen opwarming afgelopen 15 jaar

Met Office in Groot Brittannië geeft nu toe dat de globale temperatuur al 15 jaar lang niet meer gestegen is, en dat we zelfs toe lijken te gaan naar een koelere periode als gevolg van afnemende zonne-activiteit. Voor de lezers van deze site geen nieuws, voor het grote publiek wel. Hieronder het bericht uit de Mail Online van vandaag:
 

Forget global warming - it's Cycle 25 we need to worry about (and if NASA scientists are right the Thames will be freezing over again)
• Met Office releases new figures which show no warming in 15 years

By David Rose

The supposed ‘consensus’ on man-made global warming is facing an inconvenient challenge after the release of new temperature data showing the planet has not warmed for the past 15 years. The figures suggest that we could even be heading for a mini ice age to rival the 70-year temperature drop that saw frost fairs held on the Thames in the 17th Century.

Based on readings from more than 30,000 measuring stations, the data was issued last week without fanfare by the Met Office and the University of East Anglia Climatic Research Unit. It confirms that the rising trend in world temperatures ended in 1997.

A painting, dated 1684, by Abraham Hondius depicts one of many frost fairs on the River Thames during the mini ice age
Meanwhile, leading climate scientists yesterday told The Mail on Sunday that, after emitting unusually high levels of energy throughout the 20th Century, the sun is now heading towards a ‘grand minimum’ in its output, threatening cold summers, bitter winters and a shortening of the season available for growing food.

Solar output goes through 11-year cycles, with high numbers of sunspots seen at their peak. We are now at what should be the peak of what scientists call ‘Cycle 24’ – which is why last week’s solar storm resulted in sightings of the aurora borealis further south than usual. But sunspot numbers are running at less than half those seen during cycle peaks in the 20th Century. Analysis by experts at NASA and the University of Arizona – derived from magnetic-field measurements 120,000 miles beneath the sun’s surface – suggest that Cycle 25, whose peak is due in 2022, will be a great deal weaker still.

According to a paper issued last week by the Met Office, there is a 92 per cent chance that both Cycle 25 and those taking place in the following decades will be as weak as, or weaker than, the ‘Dalton minimum’ of 1790 to 1830. In this period, named after the meteorologist John Dalton, average temperatures in parts of Europe fell by 2C. However, it is also possible that the new solar energy slump could be as deep as the ‘Maunder minimum’ (after astronomer Edward Maunder), between 1645 and 1715 in the coldest part of the ‘Little Ice Age’ when, as well as the Thames frost fairs, the canals of Holland froze solid.


Yet, in its paper, the Met Office claimed that the consequences now would be negligible – because the impact of the sun on climate is far less than man-made carbon dioxide. Although the sun’s output is likely to decrease until 2100, ‘ This would only cause a reduction in global temperatures of 0.08C.’ Peter Stott, one of the authors, said: ‘Our findings suggest a reduction of solar activity to levels not seen in hundreds of years would be insufficient to offset the dominant influence of greenhouse gases.’


These findings are fiercely disputed by other solar experts. ‘ World temperatures may end up a lot cooler than now for 50 years or more,’ said Henrik Svensmark, director of the Center for Sun-Climate Research at Denmark’s National Space Institute. ‘ It will take a long battle to convince some climate scientists that the sun is important. It may well be that the sun is going to demonstrate this on its own, without the need for their help.’
He pointed out that, in claiming the effect of the solar minimum would be small, the Met Office was relying on the same computer models that are being undermined by the current pause in global-warming.

CO2 levels have continued to rise without interruption and, in 2007, the Met Office claimed that global warming was about to ‘come roaring back’. It said that between 2004 and 2014 there would be an overall increase of 0.3C. In 2009, it predicted that at least three of the years 2009 to 2014 would break the previous temperature record set in 1998.


So far there is no sign of any of this happening. But yesterday a Met Office spokesman insisted its models were still valid. ‘ The ten-year projection remains groundbreaking science. The period for the original projection is not over yet,’ he said. Dr Nicola Scafetta, of Duke University in North Carolina, is the author of several papers that argue the Met Office climate models show there should have been ‘steady warming from 2000 until now’. ‘ If temperatures continue to stay flat or start to cool again, the divergence between the models and recorded data will eventually become so great that the whole scientific community will question the current theories,’ he said.

He believes that as the Met Office model attaches much greater significance to CO2 than to the sun, it was bound to conclude that there would not be cooling. ‘ The real issue is whether the model itself is accurate,’ Dr Scafetta said. Meanwhile, one of America’s most eminent climate experts, Professor Judith Curry of the Georgia Institute of Technology, said she found the Met Office’s confident prediction of a ‘negligible’ impact difficult to understand.
The responsible thing to do would be to accept the fact that the models may have severe shortcomings when it comes to the influence of the sun,’ said Professor Curry. As for the warming pause, she said that many scientists ‘are not surprised’.


She argued it is becoming evident that factors other than CO2 play an important role in rising or falling warmth, such as the 60-year water temperature cycles in the Pacific and Atlantic oceans. ‘ They have insufficiently been appreciated in terms of global climate,’ said Prof Curry. When both oceans were cold in the past, such as from 1940 to 1970, the climate cooled. The Pacific cycle ‘flipped’ back from warm to cold mode in 2008 and the Atlantic is also thought likely to flip in the next few years .

Pal Brekke, senior adviser at the Norwegian Space Centre, said some scientists found the importance of water cycles difficult to accept, because doing so means admitting that the oceans – not CO2 – caused much of the global warming between 1970 and 1997. The same goes for the impact of the sun – which was highly active for much of the 20th Century. ‘ Nature is about to carry out a very interesting experiment,’ he said. ‘ Ten or 15 years from now, we will be able to determine much better whether the warming of the late 20th Century really was caused by man-made CO2, or by natural variability.’ Meanwhile, since the end of last year, world temperatures have fallen by more than half a degree, as the cold ‘La Nina’ effect has re-emerged in the South Pacific.

We’re now well into the second decade of the pause,’ said Benny Peiser, director of the Global Warming Policy Foundation. ‘ If we don’t see convincing evidence of global warming by 2015, it will start to become clear whether the models are bunk. And, if they are, the implications for some scientists could be very serious.’

Read more here.

 


29-1-2012

Het drijfijs op de Noordpool

 


Het drijfijs op de Noordpool is een geliefd subject voor klimaatalarmisten om ‘aan te tonen’ dat er sprake is van ernstige opwarming als gevolg van CO2-toename. Op deze site is daar al meermalen aandacht aan besteed, zie daarvoor de paragraaf “Het drijfijs smelt” onder “De Dogma’s” in het menu. De geliefde redenering is dan als volgt: omdat het warmer wordt vanwege het versterkt broeikaseffect smelt het drijfijs op de Noordpool (en houden we uiteindelijk niets meer over). Meteoroloog Reinier van den Berg van MeteoConsult voorspelt dat over 4 jaar de Noordpool ’s zomers ijsvrij is. En mocht het een beetje tegenzitten: in elk geval hebben we vóór 2020 een ijsvrije Noordpool. Zie de bijdrage van 9 december j.l. Maar van den Berg is een klimaatactivist en derhalve niet serieus te nemen.

Het KNMI schrijft op haar site: “Oorzaak van die snelle afname van het zeeijs is vooral de grote temperatuurstijging in poolgebieden, die meer is dan de stijging van het wereldgemiddelde. Dat wordt veroorzaakt door zelfversterkende mechanismen in het klimaatsysteem. Eén daarvan is dat ijs en sneeuw bijna al het zonlicht terugkaatsen. Wanneer de temperatuur stijgt en een deel van het ijs en de sneeuw smelt, worden land en zee ijsvrij. Zo’n oppervlakte zonder ijs neemt meer zonnestraling op. Daardoor stijgt de temperatuur nog meer en smelt er nog meer sneeuw en ijs.”.

 

 

Bron: NASA

Op bovenstaande kaartjes en grafiek is te zien dat die relatief grote temperatuurstijging vooral voor het Noordpoolgebied geldt, niet voor het Zuidpoolgebied. De fysische mechanismen die het KNMI verder beschrijft zijn natuurlijk bekend en hoeven hier niet besproken te worden. Die albedoverandering is natuurlijk vooral die van afnemend drijfijs in de zomer en een kortere en kleinere sneeuwbedekking van het land. Dat het land ijsvrij is geworden, zoals beweerd wordt, is nog niet waargenomen in het Arctische gebied (Groenland). Het KNMI zou mijns inziens de tekst moeten aanpassen en de slordigheden er uit halen.



 

Bron: University of Illinois

In bovenstaande grafieken is de afname van het drijfijs op de Noordpool te zien, beginnend vanaf midden jaren ’80. De afgelopen jaren Tegelijk neemt diezelfde periode de hoeveelheid drijfijs rond Antarctica toe. Totaal nam het drijfijs in deze periode met ongeveer 0,5 miljoen km2 af. Zo op het eerste gezicht lijken bovenstaande grafieken min of meer in harmonie met de temperatuurtrend zoals we die zagen op de eerste kaartjes.

Interessant is het om een blik te werpen op onderstaande grafiek van het Centre for Ocean and Ice van het DMI, Deens meteorologisch Instituut.

 

Bron: DMI

Het betreft de temperatuurtrend in 2001 van het gebied ten N van 80°NB (rode lijn). De groen lijn is de ERA40 temperatuurlijn, de klimatologische temperatuurlijn van hetzelfde gebied van 1957 tot 2002. Te zien is dat de rode lijn in de Arctische zomer zeer fraai het klimatologisch gemiddelde volgt. Het bijzondere is dat dat niet alleen voor 2011 geldt , maar voor alle jaren van de datareeks van het DMI vanaf 1958! Kijk maar eens naar de grafiek van 2007, het jaar met het minimum record aan drijfijs:


Bron: DMI

Via de link naar het DMI kunt u alle jaren vanaf 1958 bekijken en steeds hetzelfde zien: de zomertemperatuur op de Noordpool wijkt nauwelijks af van het meerjarig gemiddelde volgens de ERA40 reeks. Wat opvalt als men de reeks bekijkt is dat met name gedurende het afgelopen decennium de wintertemperaturen hoger liggen dan het klimatologisch gemiddelde, en dat de wintertemperatuur grote fluctuaties laat zien, sterk afwijkend van de zomertemperatuur die nauwelijks afwijkingen kent van het langjarig gemiddelde. Er is dus geen sprake van een gelijkmatig opwarming van het Noordpoolgebied gedurende het jaar: opwarming vindt vrijwel uitsluitend plaats in het winterjaargetijde.



Bron: wikipedia

Nu is er met de seizoenen op zeer hoge breedte wat aan de hand: in het koudste deel van het jaar komt de zon niet boven de horizon uit en is er sprake van poolnacht.

Voor het gebied dat het DMI observeert in haar temperatuurgrafieken, heeft die periode zonder (direct) zonlicht een lengte van 77 dagen op 80° NB tot 183 dagen op 90° NB. Dat betekent dat de luchttemperatuur volledig afhankelijk is van advectie, de horizontale aanvoer van elders. Opwarming door zonlicht is afwezig. Dat ‘elders’ zijn voor de Noordpool altijd gebieden die zuidelijker liggen en vaak warmer zijn. In de dagen voorafgaande en na de periode met poolnacht zijn de omstandigheden niet veel anders als gevolg van de zeer kleine zonnehoek en de zeer korte duur van de dag.

Die advectie van warmte vindt op 2 manieren plaats: door luchtstromen en door zeestromen. Aanvoer van warmte via luchtstromen is in de winter vooral afhankelijk van de ligging van hoge- en lagedrukgebieden in en rond de poolstreek. De veranderingen in luchtdruk in de winter van jaar tot jaar kent een min of meer vast patroon, de AO (Arctische Oscillatie) genoemd.

Bron: wikipedia

De afgelopen twee Arctische winters werden gedomineerd door een negatieve fase van de AO. Gevolg: een warmere Noordpool en koudere omstandigheden in Europa en Noord-Amerika. Deze winter was tot nu toe anders: tot dit weekeinde was er sprake van een positieve fase van de AO. Enorme hoeveelheden zachte vochtige lucht werden vanuit de Atlantische Oceaan over Europa uitgestort, en vanuit de Grote Oceaan over de USA. De zeer koude lucht boven de Noordpool bleef gedurende al die weken als het ware opgesloten in het noordpoolgebied. Verschillende studies hebben aangetoond dat tijdens de positieve fase van de AO het dikke drijfijs de neiging om uit de Arctische Zee geblazen te worden via de Fram Strait tussen Spitsbergen en Groenland. Het gevolg is dat op de Noordpool dunner ijs achterblijft dat gemakkelijker smelt in de zomer.



Bron: DMI

Het DMI heeft van die verplaatsing van drijfijs door de wind ( ice drift) een aardige interactieve animatie gemaakt. Klik hier.

Een andere factor die van invloed kan zijn op de aanvoer van warmere lucht is de oppervlakte en duur van de sneeuwbedekking in het noorden van Noord-Amerika, Europa en Azië. Daarover graag een volgende keer.
 


9-1-2012

Een nieuwe klimaattheorie?

Bron: C. Donald Ahrens, Essentials in Meteorology

Ned Nikolov en Karl Zeller, beiden gepromoveerde fysici en werkzaam bij de Amerikaanse tegenhanger van ons Staatsbosbeheer, hebben onlangs een nieuwe klimaattheorie het licht doen zien. De theorie wijkt wezenlijk af van de huidige gangbare theorie. Nikolov en Zeller stellen dat de temperatuur aan het aardoppervlak de resultante is van de luchtdruk en niet van de chemische samenstelling van de atmosfeer (= broeikasgassen) . Ze noemen dat Pressure-induced Thermal Enhancement (PTE). De gangbare theorie is dat er een extra opwarming van het aardoppervlak is vanwege de aanwezigheid van zogenaamde broeikasgassen. Zie voor de volledigheid eerst de paragraaf over de broeikastheorie in het menu onder “De Feiten” .

De schrijvers baseren hun nieuwe theorie op de Ideale Gaswet PV = nRT, waarin P de druk is, V het volume, n de moleculaire massa in mol, R de gasconstante en T de temperatuur. Aan de gaswet is te zien dat P en T lineair van elkaar afhankelijk zijn: wordt P 2x zo groot, dan wordt T ook 2x zo groot. Omdat de druk in de atmosfeer toeneemt van boven naar beneden als gevolg van de gravitatiekracht van de aarde zou alleen al daardoor de temperatuur onder in de atmosfeer hoger zijn dan bovenin. Nikolov en Zeller spreken hier van kinetische energie die als het ware ruimtelijk ongelijk verdeeld is. Die extra hoge temperatuur aan het aardoppervlak als gevolg van de hoge luchtdruk zou dan verantwoordelijk zijn voor het feit dat de temperatuur daar (veel) hoger is dan de zogenaamde grey-body temperatuur van de aarde.


De theorie van Nikolov en Zeller lijkt sterk op die van de Zweedse fysicus Hans Jelbring , die in 2003 in Energy & Environment zijn gedachten over het voetlicht bracht. Ook Jelbring gaat er van uit dat de luchtdruk er voor zorgt dat de temperatuur aan het aardoppervlak veel hoger is dan op grond van de wet van Planck en van Stefan-Bolzmann berekend is ( - 18 °C ). Net als Nikolov en Zeller trekt Jelbring paralellen met andere planeten in ons zonnestelsel.

Ruim een jaar geleden heb ik met John M. Wallace van de University of Washington de theorie van Jelbring via email besproken. Wallace is een deskundige op het gebied van atmosferische processen, en auteur van een standaardwerk op dit gebied, “Atmospheric Science: An Introductory Survey “.

Hij schreef me op 4 december 2010: “ Hans Jelbring's article illustrates the basic conceptual problem that's common to the article. Jelbring is correct when he says that the adiabatic lapse rate is largely determined by the gravitational acceleration and the chemical makeup of the gases in a planetary atmosphere. He is also correct in noting the relevance of the adiabatic lapse rate to the observed lapse rate in the Earth's atmosphere: the adiabatic lapse rate is the upper limit on the observed lapse rate. It is realized in regions of the atmosphere that are strongly heated from below.

To understand how radiative transfer influences surface temperature, one needs to go beyond the concept of the adiabatic lapse rate and consider an atmosphere in "radiative-convective equilibrium, as discussed on p. 421-422 of the 2nd edition of our textbook. In such an idealized 2-layer atmosphere, the lower layer, which is comparable in depth to the troposphere, has a lapse rate equal to the adiabatic lapse rate . Two points emerge from this simple analysis:
(1) Were there is no greenhouse effect, the lapse rate in a planetary atmosphere would be isothermal (i.e., temperature would not change with height. In this case, the dry adiabatic lapse rate would be unchanged from its present value, but it would be completely irrelevant to the interpretation of the observed lapse rate.
(2) Greenhouse gas concentrations have no effect on the adiabatic lapse rate in the lower "convective" layer, but they determine the depth of that layer: increasing greenhouse gases increases the surface temperature of the planet not by changing the lapse rate, but by deepening the convective layer
. “ .


Bron: Wallace

Ik bespaar u hier de sneer van Wallace richting Energy & Environment, een gevoeligheid die bij meer gevestigde klimatologen voorkomt. Volgens mij is de uiteenzetting van Wallace juist. De bij de uiteenzetting behorende figuur heb ik hierboven afgebeeld. Hij komt uit het genoemde standaardwerk van Wallace.

De reactie van Roy Spencer, gekend kritisch klimaatprofessor, is ongeveer van hetzelfde laken een pak. Hij stelt: “ The average air temperature at any altitude (including the surface) is an energy budget issue, not an air pressure issue. In fact, energy budget considerations explain the average temperature of just about everything we experience on a daily basis: the inside of buildings, car engines, a pot on the stove, etc. .........Many years ago Danny put together such a model so we could examine global warming claims, especially the claim that increasing CO2 will cause warming. The model was indeed able to explain the average vertical temperature structure of the atmosphere. ” .

Dat laatste is een van de manco’s in de nieuwe theorie: waarom neemt de temperatuur niet af met de hoogte, maar zien we in de stratosfeer hogere temperaturen? In de gangbare stralingstheorie is dat makkelijk te verklaren: O3 absorbeert daar veel zonne-energie. Ik heb Nikolov gevraagd om een reactie op dit punt, en hij emailde: “ Yes, you are correct that radiative exchange dominates the thermodynamics of in the stratosphere. Convection is of secondary importance there ... ” . Overigens beloofde hij met een officieel antwoord te komen op de kritiek uit het blogveld.

Een ander probleem dat nog niet is opgelost met de nieuwe theorie zijn de temperatuurschommelingen op geologische tijdschaal. De onderzoekers wijzen naar periodes met extra tektonische activiteiten, waardoor wellicht meer gassen dan normaal uit mantel en aardkorst naar de atmosfeer zijn getransporteerd. Dat is echter speculatief en zal nader uitgewerkt dienen te worden. Overigens weten trouwe lezers van deze site dat ook binnen de vigerende theorie de oorzaken van temperatuurveranderingen op geologische tijdschaal niet zomaar een op een te koppelen zijn aan de chemische samenstelling van de atmosfeer, noch aan kosmische oorzaken.


Bron: C. Donald Ahrens, Essentials in Meteorology

Een ander probleem is dat in de gangbare theorie over de verticale temperatuurverdeling in de atmosfeer de opwarming van de onderzijde van de troposfeer een afkoeling van de bovenste troposfeer veroorzaakt. Die afkoeling is gemeten. Hoe is dat in te passen in de nieuwe theorie?

Wat me wel intrigeert in verband met de nieuwe theorie is dat de helft van de luchtdruk in het verticale profiel bereikt wordt op 5,5 km hoogte. Dat is ook exact wat in de broeikastheorie het "average emission level" genoemd wordt. Ik heb me altijd verbaasd over dit ‘level’, omdat het simpelweg gebaseerd is op terugrekenen vanuit 239 W / m ^ 2 en de Stefan-Boltzmann vergelijking. Het resultaat, -18 ° C, is de temperatuur op deze hoogte. Kan het zijn dat dit 50% niveau van de luchtdruk tevens het gemiddelde niveau is van de door de onderzoekers centraal gestelde kinetische energie van de atmosfeer? Of ga ik nu teveel mee in de nieuwe theorie?

Hoewel ik de theorie van Nikolov en Zeller zeker interessant vind ben ik nog niet overtuigd en kijk uit naar hun reactie op de kritieken uit het veld.
 


8-1-2011

Geen nieuws onder uit de troposfeer


Bron: Dr. Roy Spencer


De University of Alabama Huntsville houdt al sinds jaar en dag de temperatuur bij van de onderste troposfeer. Dat doet zij door de data van de NOAA satellieten te bewerken tot de UAH dataset. Dat bewerken is noodzakelijk omdat de meetgegevens van de satellieten geen temperatuurreeksen zijn.
In bovenstaande grafiek is de temperatuurgang in het onderste deel van de troposfeer te zien sinds 1979, het jaar waarin de (bruikbare) meetreeks begon.

Door Roy Spencer , die de dataset van UAH regelmatig publiceert, is de uitbarsting van de Pinatubo en de super El Niño van 1998 aangegeven in de grafiek.
De rode lijn is het 13-maands voortschrijdend gemiddelde, de zwarte sinusoïdale lijn is de lineaire derde orde differentiaalvergelijking van de grafiek. Volgens Spencer is die laatste lijn “ for entertainment purposes only, and should not be construed as having any predictive value whatsoever ”.

Degenen die Spencer volgen (een erudiete dus kritische klimatoloog) zullen begrijpen dat geen enkele zichzelf respecterende wetenschapper op basis van deze lijn durft te voorspellen dat we een koudere periode inrollen. Toch zou dit ook wel eens niet helemaal ‘spielerei’ kunnen zijn: de afnemende zonneactiviteit die hier al vaker besproken is zou dan wel eens de afkoelende factor kunnen worden.