31-12-2011

Kersenplukken met Michael Persson

  Dit schreef wetenschapsjournalist Michael Persson in de Volkskrant van 30-12-2011:
Het afgelopen jaar was volgens het KNMI een van de warmste van de afgelopen honderd jaar. Met een gemiddelde temperatuur van 10,9 graden (in De Bilt) belandt 2011 op een gedeelde derde plek. Daarmee heeft Nederland de 'opwarm-trend' weer te pakken, na het koude jaar 2010. Toen bleef de gemiddelde temperatuur steken op 9,1 graden. Normaal ligt de gemiddelde temperatuur op 9,8 graden..”

Waarom is dit kersenplukken? Omdat Persson het temperatuurverloop van 1 jaar gebruikt om een trend aan te geven. Dat mag natuurlijk niet, dat is in wetenschapsland zelfs een doodzonde. Volgens Ben Santer et al in een recente publicatie tonen de resultaten van hun onderzoek aan dat temperatuurrecords van ten minste 17 jaar lang nodig zijn voor het identificeren van de menselijke effecten op de globale troposferische temperatuur. Kortere geven teveel ruis volgens Santer.

Maar wat is die 'opwarm-trend' die Nederland na het koude jaar weer volgens Persson te pakken heeft? In mijn bijdrage van 10-12-2011 heb ik het verloop van de gemiddelde maandtemperaturen in De Bilt weergegeven, waarbij ik voor het toen nog niet bekende verloop van de december 2011 temperatuur me gebaseerd heb op de KNMI-verwachtingen. Achteraf bezien was die voorspelling van het KNMI aan de hoge kant: december 2011 is erg zacht.


Bron: KNMI

Ik heb de nu volledig beschikbare gemiddelde temperatuur van december in mijn Excel-bestandje gezet en de grafiek opnieuw laten tekenen. Dat is de grafiek hierboven. De zwarte lijn geeft de lineaire trendlijn van de grafiek weer: geen opwarming de afgelopen 15 jaar in De Bilt. Voor de fijnslijpers: er is zelfs sprake van een lichte temperatuurdaling van gemiddeld 10,55 °C naar 10,42 °C tussen januari 1997 en december 2011.

Maar misschien bedoelde Persson met die 'opwarm-trend' niet De Bilt of Nederland, maar de globale temperatuur? In de bijdrage van 18-12-2011 heb ik al laten zien dat er ook op wereldschaal sprake is van een stilstand in het temperatuurverloop.


Bron: HadCRUT

Ik ga er maar van uit dat Persson het verloop van de temperatuur in 2011 van De Bilt niet wil inzetten om de ‘opwarming van de aarde’ te duiden. Als dat wel zo is moet Persson aan het eind van 2010 immers de afkoeling van onze planeet hebben voorspeld. Ik kan me echter niet herinneren dat hij eind 2010 iets dergelijks heeft geschreven in de Volkskrant.


Bron: KNMI

Tenslotte, om de relativiteit van lokale jaartemperaturen te onderstrepen hieronder een bericht over ‘koud’ Canberra in 2011 in Australië:

 


Bron: www.canberratimes.com.au

Een wetenschappelijke opleiding is blijkbaar geen garantie voor objectieve journalistiek. Het is al eerder geschreven: Persson heeft blijkbaar een 'boodschap'. Jammer dat dat in de Volkskrant zomaar kan, zonder dat iemand dat corrigeert.


26-12-2011 (rev. 27-12-2011)

UHI deel 5: het geval Barrow

Bron: Google Earth


In de vorige bijdrage stonden we even stil bij de vraag of het door het BEST-team gehanteerde onderscheid tussen very rural en not very rural nederzettingen wel gebaseerd is op juiste gegevens over de stedelijkheid van nederzettingen. Uit de voorbeelden van very rural nederzettingen in Peru en Thailand is duidelijk geworden dat althans een deel van de ‘very rural’ meetpunten in werkelijkheid very urban zijn. In deze bijdrage staat de vraag centraal of het uitgangspunt van een dergelijk onderscheid tussen very rural en not very rural nederzettingen een hanteerbaar criterium is. Met andere woorden: is het aannemelijk dat het UHI-effect toeneemt met de omvang of stedelijkheid van de nederzetting Op het eerste gezicht lijkt het evident: steden zijn warmer dan het omliggende platteland en grote steden zijn warmer dan kleine, veel onderzoeken hebben dat aangetoond. Toch is voorzichtigheid hier geboden, zo toont een onderzoek uit 2003 aan.

Hinkel et al publiceerden toen bijzonder interessante resultaten van hun onderzoek naar UHI in het plaatsje Barrow in Alaska. Barrow is de meest noordelijk gelegen nederzetting van de USA. Woonden er in Barrow in 1900 nog maar 300 mensen, in 2000 waren dat er meer dan 4600. Nog niet erg stedelijk kan men stellen als men naar het aantal inwoners kijkt. Maar desondanks vertoont Barrow een fors UHI-effect.

De afgelopen decennia constateerde men oplopende gemiddelde wintertemperaturen in het centrum , en een steeds vroeger smelten van de sneeuw . Dat kan vergaande consequenties hebben voor de gemeenschap, vanwege het feit dat de nederzetting gebouwd is op permafrost die plaatselijk tot 300m dik is. Een toename van de opdooilaag in de zomer kan instabiliteit van de ondergrond veroorzaken met alle gevolgen van dien voor leidingen en gebouwen.

In 2001 en 2002 heeft het onderzoeksteam temperatuurmetingen gedaan in Barrow en het omliggende gebied van ongeveer 150 km2 groot. Tussen december 2001 en maart 2002 constateerde men dat de nederzetting gemiddeld 2,2 °C warmer was dan de omgeving. Bij matige windsnelheden liep dat verschil op tot 3,2 °C, met een maximum van zelfs 6 °C. Het dagelijkse temperatuurverschil bereikte zijn maximum veelal tussen de late avond en de vroege ochtend. De onderzoekers onderscheiden een drietal oorzaken van het UHI, die wij in soms andere bewoordingen al eerder tegenkwamen in de UHI-cyclus:

1) antropogene warmte in de vorm van chemische energie (brandstoffen)
2) afname van de vegetatie en toename van de bebouwde omgeving
3) verandering van geometrie en morfologie van de bebouwde omgeving


Schoolbus in de winter. Bron: Vlad Iliescu

UHI in nederzettingen op hoge breedte zijn fundamenteel anders dan die op lagere breedten. In de eerste plaats varieert de zonnecyclus in een jaar sterk. Een deel van het jaar (winter) ontbreekt zonlicht en is het erg koud. Als gevolg daarvan ontbreekt dan de invloed van zonlicht op UHI. Ook de aanvoer van warmte vanuit de omgeving (advectie) is dan gering als gevolg van het feit dat open water bevroren is: vrijwel alle nederzettingen op hoge breedte liggen aan water. De Chukchi Sea heeft als het water ijsvrij is een grote invloed op zowel de temperatuur als de vochtigheid in Barrow. Begin oktober vriest de zee dicht, en dat blijft zo tot april-juni van het volgend jaar.

Als gevolg van de zeer lage wintertemperaturen is het gebruik van chemische energie in de winter veel hoger dan in de zomer. Dat komt voor het grootste deel op conto van de verwarming en verlichting van huizen en gebouwen met behulp van aardgas en de secundaire energiedrager elektriciteit. Atmosferische opwarming is in de winter dan ook vooral het gevolg van energieverliezen door gebouwen. In de zomer daalt het gebruik van fossiele energiedragers en elektriciteit zeer sterk: het is dan vrijwel constant licht, en de temperaturen zijn dan niet zodanig hoog dat het gebruik van airco noodzakelijk is, zoals op lagere breedten.



Ruime bebouwing, laagbouw, op palen. Bron: Wikipedia

Arctische nederzettingen verschillen ook van andere vanwege de beperkte omvang van de bevolking en bebouwde omgeving, en het ontbreken van hoge gebouwen. Op bovenstaande foto is de typische houten laagbouw te zien die in Barrow domineert. Alleen in het centrum zijn enkele gebouwen te vinden met 2 verdiepingen. Schaduwvorming en ‘urban canyon effects’ zijn dan ook nagenoeg afwezig: de morfologie van Barrow zal dan ook van ondergeschikt belang zijn voor UHI vergeleken met de opwarming als gevolg van antropogene opwarming. Zoals op de foto’s te zien is staan alle gebouwen op palen, zo’n 1 a 2 m boven de grond. Dit voorkomt warmteoverdracht naar de bevroren grond.


BARC: Barrow Arctic Research Centre

Barrow heeft een tweetal weerstations, namelijk een meetpunt van National Weather Service in de nederzetting, en een meetpunt van Climate Monitoring and Diagnostics Laboratory op het BARC, zo’n 7,5 km ten NO van Barrow in de toendra gelegen. Recent onderzoek toont dat sinds 1940 er sprake is van een toenemend vroeger smelten van de sneeuw als gevolg van oplopende temperaturen. In de grafiek hieronder is MAAT de gemiddelde jaartemperatuur, de grijze lijn de datum waarop de sneeuw in Barrow gesmolten is.


Het onderzoek van Hinkel et al is bedoeld om de omvang en ruimtelijk patroon van UHI in Barrow te meten. De plaats is niet over de weg bereikbaar en ook niet aangesloten op een energienetwerk. Dat betekent dat alle energie die gebruikt wordt (verwarming en elektriciteitsopwekking) van lokale oorsprong is dan wel aangevoerd wordt per schip.

De belangrijkste bron van energie is aardgas uit methaan-hydraatvelden in de directe omgeving van Barrow. Een ouder veld lichtten Z van barrow, vanaf 1980 komt het meeste gas uit het East Barrow Field.


Bron: Oil & Natural Gas Technology 2008

Ongeveer de helft van het gas wordt omgezet in elektriciteit. Stoffen zoals dieselolie en kerosine worden in augustus per schip aangevoerd, als de zee ijsvrij is. Vanwege deze specifieke omstandigheden is nauwkeurig het gebruik van fossiele energiedragers in Barrow te volgen.

In juni 2001 hebben de onderzoekers 54 temperatuurmeters geplaatst . De helft werd in de nederzetting zelf geplaatst. Dit zijn de urbane locaties. De rest werd geplaatst in een gebied van ongeveer 150 km2 rond Barrow, dit zijn de rurale locaties. Op de figuur hieronder is de locatie van de meetstations te zien. De vierkanten zijn de meetstations waar de laagste temperaturen zijn gemeten. De zes warmste meetstations bevinden zich in het centrum van Barrow, direct ten O van de ‘6’.

De tabel hieronder toont de temperatuurverschillen tussen de rurale en urbane meetpunten per maand. De getallen in de eerste kolom zijn de maandgemiddelden over de periode 1971-2000 (NCDC/NOAA).


Over het algemeen gold dat het UHI-effect toenam met dalende temperaturen. Dat is goed te zien op de grafiek hieronder, die de zogenaamde UHIM (laatste kolom bovenstaande tabel) afzet tegen de tijd dat er gemeten is van 1 september 2001 tot 1 juni 2002.

Ook als je UHIM afzet tegen de gemiddelde dagelijkse rurale temperatuur is dat effect duidelijk te zien: hoe kouder des te groter het UHI-effect.


In de grafiek is te zien dat de correlatie niet sterk is ( r2 = 0,51 ), maar in elk geval sterker voor dagen met lagere windsnelheden dan op erg winderige dagen. Dat is logisch, als de windsnelheid toeneemt krijg je een sterkere menging van de onderste luchtlagen wat het UHI vermindert. In onderstaande figuur is de invloed van de wind op de UHIM goed te zien:

Bij een lage windsnelheid van 4 km/u is de correlatiecoëfficiënt tussen windsnelheid en dagelijkse UHIM ongeveer 0,9. Die coëfficiënt neemt dan af tot 0,5 bij windsnelheden van 33 km/u en meer.

Om te bezien wat verschillende windsnelheden voor effect hebben op de ruimtelijke spreiding van de temperatuur wordt geïllustreerd in de drie kaartjes hieronder. De windsnelheid staat steeds rechtsboven het kaartje. (1 knot = ~1,9 km/u). Let op: de legendaschaal is niet overal gelijk: het middelste kaartje met de laagste windsnelheid heeft stappen van 2 °C, beide andere van 1 °C. Op het onderste kaartje is te zien dat grote windsnelheden het UHI als het ware ‘wegblazen’: de isotherm heeft dezelfde richting als de wind.

Het onderstaande kaartje illustreert fraai het UHI-effect van Barrow. De gebruikte eenheid ADDF is accumulated degree-days of freezing. Daarbij worden de absolute waarden van de gemiddelde dagelijkse temperaturen (onder 0 °C) bij elkaar opgeteld.

Aan het begin van deze bijdrage stelde ik dat het logisch lijkt dat de morfologie van Barrow van ondergeschikt belang zal zijn voor en dat opwarming als gevolg van antropogene opwarming waarschijnlijk de dominante factor in het UHI-effect in Barrow zal zijn. Dat die factor dominant is blijkt wel uit onderstaande grafiek.


Verticaal is de UHIM weergegeven, horizontaal het aantal heating degree days. Heating degree days is een maat waarmee de vraag naar energie voor verwarming van een gebouw wordt weergegeven. De gegevens zijn afkomstig van National Weather Service/ NOAA. Voor details klikt u op de link. De correlatiecoëfficiënt is maar liefst 0,98.

Zoals we al gezien hebben is Barrow voor wat betreft het gebruik van fossiele brandstoffen een eiland als gevolg van de geïsoleerde ligging. Vrijwel alle fossiele brandstoffen voor de opwekking van elektriciteit en verwarming komen van de lokale gasvelden. Het is daarom eenvoudig om het gebruik daarvan van dag tot dag te volgen. Hinkel et al hebben dat gasverbruik in onderstaande grafiek afgezet tegen de UHIM: de correlatiecoëfficiënt van 0,99 spreekt boekdelen. Het UHI-effect van Barrow is vrijwel volledig het gevolg van aardgasgebruik.

 


Kunnen we het effect van het UHI op de temperatuur in Barrow in de tijd schatten? Daarvoor hebben we het aantal inwoners nodig en het UHI op jaarbasis. Eerst het inwoneraantal. Volgens het US Census Bureau is het verloop van het inwonertal in Barrow vanaf eind 19e eeuw als volgt:


Bron: US Census Bureau

Vanaf 1950 stijgt het inwonertal boven de 1000, en bereikt op 1 januari 2001 een inwonertal van ongeveer 4683. De stijging van het inwonertal, dat voorheen altijd tussen de 200 en de 400 lag, was het gevolg van de sociaal-economische transitie die in Barrow plaats vond. Was Barrow voor 1950 een geïsoleerd dorp van native Americans met een locale economie gebaseerd op traditionele activiteiten zoals visserij en jacht, na 1950 wordt Barrow meer en meer onderdeel van een moderne economisch systeem gebaseerd op gas- en oliewinning. Het lijkt me daarom niet onredelijk omgelet op zowel de bevolkingsgroei als de sociaal-economische transitie, 1950 als startjaar van het UHI te nemen.


Temperatuurreeks U-05 (urbane locatie) en U-15 (rurale locatie) voor 20-daagse periode in de (a) winter, (b) lente, en (c) zomer.


De UHIM in de gemeten periode van 1 december 2001 tot 1 april 2002 bedroeg gemiddeld 2,2 °C, voor de winterperiode 1 december 2001 tot 1 maart 2002 was het UHI 3,1 °C. Het UHI in de lente bedroeg 1,6 °C en de zomer van 2002 noteerde een UHIM van -1,4 °C. Die negatieve waarde is volgens de onderzoekers met name te danken aan de afkoelende mariene invloed gedurende de zomer , als de zee grotendeels ijsvrij is. De UHIM in de herfst is niet gegeven, de gemiddelde maandtemperaturen zijn dan wat hoger dan in de lente. Een schatting van de UHIM op jaarbasis in deze periode, gezien de gemeten seizoencijfers, van 1,1 °C lijkt niet onredelijk.

Wanneer we de gehomogeniseerde temperatuurreeksen van GISS betreffende Barrow in een grafiek plotten, en bovendien een voor de UHIM van 1,1 °C gecorrigeerde temperatuurreeks in dezelfde grafiek weergeven, dan komt dat er als volgt uit te zien:



Bedenk dat de gehomogeniseerde temperatuurreeks (blauwe lijn) niet is gecorrigeerd voor UHI: Barrow wordt door GISS niet als urbane nederzetting gekwalificeerd. Voor beide grafieken is ook een lineaire trendlijn getekend. De trendlijn van de gehomogeniseerde GISS-reeks vertoont een stijging sinds 1950 van 2,1 °C. De trendlijn van de voor het UHI gecorrigeerde temperatuurreeks vertoont een stijging van nog geen 0,9 °C. Een opmerkelijk groot verschil!

Naar mijn mening is het door Hinkel et al aangetoonde grote UHI-effect in Barrow geen op zichzelf staande situatie. In Alaska, maar ook elders in de Arctische regio hebben vrijwel alle nederzettingen vergelijkbare kenmerken: ontbrekend zonlicht in de winter, verspreide laagbouw, relatief weinig inwoners en extreme wintertemperaturen. Een deel van die nederzettingen is tevens locatie in de meetnetten die BEST, GISS, Hadcrut en NOAA gebruiken. Met de gebruikelijke methoden om temperatuurreeksen te corrigeren voor het UHI-effect vallen de meeste van deze nederzettingen buiten de correctie omdat ze niet voldoen aan de gebruikelijke criteria. Zelfs in de verdeling very rural-not very rural die BEST hanteert vallen waarschijnlijk veel Arctische nederzettingen in Alaska, Canada en Rusland in de categorie very rural.

Correctie voor UHI van de meetreeksen van Arctische meetstations zou , in navolging van Barrow, wel eens in de afgelopen decennia veel lagere temperatuurstijgingen in de Arctische regio kunnen laten zien dan tot nu toe werd aangenomen.
21-12-2011

Het UHI- effect deel 4

In het eerste deel van de bijdragen over het UHI-effect, de bijdrage van 7-11-2011, heb ik als uitgangspunt de door het BEST-team gebruikte methode genomen.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’ en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural. Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.


Bron: BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

In de hieraan voorafgaande bijdragen heb ik al inhoudelijk het een en ander over de conclusies van het BEST-team geschreven, en een aantal andere publicaties de revue laten passeren die over het UHI-effect op de meetreeksen een andere mening hebben. Zie hiervoor de bijdragen over het UHI-effect deel 1 t/m 3.

Steve McIntyre heeft op 20-12-2011 aan de hand van door Richard Muller aangeleverde gegevens nog eens naar de ‘very rural’ meetstations van BEST gekeken. Hij licht er enkele ‘very rural’ meetstations uit en ziet dan bijzondere zaken, namelijk in Peru en Thailand, deels toeval omdat zijn zoon momenteel in Thailand is, deels ingegeven door eerdere publicatie van Hansen over de meetstations in Peru. Het BEST-team heeft slechts 2 stations in Peru geclassificeerd als ‘very rural’, namelijk Huanuco en Quince Mil.


Huanuco meetstation, bron Google Earth

Huanuco , officieel meetstation van WMO, heeft echter een bevolking van 147.959 inwoners, vergelijkbaar met de stad Haarlem. Het meetstation staat direct naast de start- en landingsbaan van het plaatselijke vliegveld. Waarom Huanuco door Het BEST-team geclassificeerd wordt als ‘zeer landelijk’ is dan ook onbegrijpelijk.

Quince Mil , het tweede ‘very rural’ meetstation van het BEST-team levert slechts temperatuurdata tussen 1961 en 1980, daarvoor en daarna niets. Het inwonertal in 2007 was minder dan 1000, dus wat dat betreft zou dit plaatsje nog als ‘very rural’ door kunnen gaan , maar vanwege het ontbreken van een langdurige meetreeks is het station waardeloos.

 



Bron: Google Earth

De BEST-indeling in Thailand ziet er ook erg raar uit. "Bangkok Pilot" wordt weergegeven als "zeer landelijk", maar is in feite de naam van het meetstation op het kunstmatige eiland in de zeebaai van Bangkok, dat is aangelegd voor de havenloodsboten ( pilots). Dat is nu niet een standaard voorbeeld van een ‘very rural’ meetstation.


Bangkok Pilot meetstation. Bron: Google Earth

Verder zijn er nog vijf "zeer landelijke" Thaise meetstations door BEST onderscheiden: Phetchaburi (46.501 inwoners), Ko Lanta (20.000 inwoners), Khao Lak (35.337 inwoners), Ko Samui (50.000 inwoners) en Mae Hong Son, in het noordwesten bergland nabij de grens met Myanmar. De eerstgenoemde plaatsen zijn vanwege hun inwonertal natuurlijk niet zeer landelijk.


Mae Hong Son airport . Bron Google Earth

Mae Hong Son is een plaats met ongeveer 17.00 inwoners en is op grond hiervan zeker niet zeer landelijk te noemen. Bovendien ligt het meetstation pal naast het vliegveld van de stad, een locatie die ook al niet vrij is van allerlei UHI –effecten vanwege de grote oppervlakten asfalt en de nabijheid van vliegtuigmotoren.


Parkeerplaats in de nabijheid van meetpunt Mae Hong Son. Bron: Google Earth

Kortom: even een blik achter de schermen van de ‘very rural’ databank toont dat niet alle meetstations echt zeer landelijk zijn. Ik ben benieuwd of er nog meer konijnen uit de hoed komen.
 
18-12-2011

Globale temperatuur afgelopen 15 jaar.

Op 10 december j.l. toonde ik het verloop van de gemiddelde maandelijkse temperatuur in De Bilt gedurende de afgelopen 15 jaar. Er is in die periode geen sprake van opwarming. Alarmisten hebben er een handje van om deze informatie te negeren en liever gewag te maken van een of andere record dat gebroken dan wel bijna gebroken is. In een min of meer vlak verlopende temperatuurtrend zoals die van de afgelopen 15 jaar is elk piekje naar boven natuurlijk al snel een ‘record’.

Een ongepland ‘voordeel’ van de periode 1997-2011 is dat het super-El Niñojaar 1998 in de reeks zit. Zou de reeks begonnen zijn op het hoogtepunt van genoemde El Niño dan zou ik al gauw beschuldigd worden van cherry-picking. Maar is het bekijken van slechts 1 meetstation ook niet een vorm van cherry-picking? Natuurlijk wel als je daarmee algemene opmerkingen over bijvoorbeeld het verloop van de globale temperatuur zou maken, dat mag uiteraard niet.


Nieuwsgierig geworden naar het globale verloop sinds 1997 ging ik op zoek in de onvolprezen KNMI Climate Explorer. Bovenstaande grafiek geeft het verloop weer van die globale temperatuur sinds 1997 volgens HadCRUTv3 (anomalie). De zwarte lijn is de lineaire trendlijn voor de gegeven periode januari 1997 – oktober 2011. Die trendlijn stijgt in 15 jaar 0,02 °C, een te verwaarlozen afwijking.

Omdat 71% van het aardoppervlak uit water bestaat is de zogenaamde SST , sea surface temperature, van groot belang voor de temperatuur van de onderste troposfeer. Bob Tisdale houdt al sinds jaar en dag de SST bij.

Bron: Bob Tisdale

Zoals te zien is lijkt de SST erg veel op de temperatuurreeks van HadCRUTv3. In beide reeksen zijn de El Niño en La Niñafasen erg duidelijk te herkennen.

Conclusie: er is de afgelopen 15 jaar sprake van een steady state voor wat betreft de temperatuur aan het aardoppervlak. Als we de meest recente grafiek van Roy Spencer erbij halen zien we die afvlakking ook mooi. Het betreft de temperatuur in de onderste troposfeer, op basis van satellietmetingen en bewerkt door de Universiteit van Alabama Huntsville.



Spencer wijst erop dat de door hem ingevoerde ‘trendlijn’ niet mag worden gebruikt om te voorspellen wat de temperatuur de komende jaren gaat doen. Dat is juist, maar ik kan mijn ogen er toch niet van af houden, zeker gezien de bijdrage van 16-12 j.l……
 
16-12-2011

Spitsbergen gaat afkoelen

 

Een interessant onderzoek van een drietal Noorse onderzoekers getiteld “Solar activity and Svalbard temperatures” zal over enkele maanden worden gepubliceerd. Solheim et al hebben een verband ontdekt tussen zonneactiviteit en de luchttemperatuur op Spitsbergen. Nu is dat laatste niet erg opzienbarend, dergelijke verbanden zijn al vele malen aangetoond. Zie hiervoor in het menu “Nieuwe Inzichten” de paragraaf over zonnecycli.


Wat wel opvallend in de studie is dat de onderzoekers een verband hebben ontdekt tussen de duur van de cycli gedurende de afgelopen eeuw en de oppervlaktetemperatuur op Spitsbergen, en dan met name de gemiddelde jaartemperatuur en wintertemperatuur. Die correlatie wordt sterker naarmate de time-lag groter is, zoals op bovenstaande figuur te zien is. Bij een time-lag van 10 tot 12 jaar is de correlatie maximaal, met een correlatiecoëfficiënt oplopend tot -0,8. Dat betekent dat, rekening houdend met een gemiddelde zonnecyclusperiodiciteit van 11 jaar, er een sterke correlatie is tussen de gemiddelde luchttemperatuur op Spitsbergen en de duur van de vorige zonnecyclus. De correlatie is significant, met een niveau van > 95%. Dat betekent dat de kans dat de geobserveerde waarden gevonden worden terwijl er geen verband tussen de variabelen bestaat, kleiner dan 5% is. Ongeveer 60% van de temperatuurvariatie in de gemiddelde jaartemperatuur en wintertemperatuur kan verklaard worden door zonnecycli.

De onderzoekers hebben enkele mogelijke verklaringen gevonden voor de time-lag tussen zonnecyclus en temperatuur. In de eerste plaats is de duur van een zonnecyclus gecorreleerd aan de amplitude van de volgende cyclus. Dat vonden Solanski en Krivova van het Max Planck Instituut ook al bij hun onderzoek dat in 2003 is gepubliceerd. Een tweede verklaring is te vinden in de time-lag die ontstaat vanwege het langdurende transport van oceaanwater vanuit de Cariben naar het noordelijk deel van de Atlantische Oceaan.


Cyclus 24 is enkele jaren te laat op gang gekomen. Zoals op bovenstaande illustratie te zien is is hij veel zwakker dan de voorafgaande cyclus 23. Hij zal naar verwachting zijn maximum hebben in 2013, cyclus 25 in 2024.

Een van de aanwijzingen voor een zwakke cyclus 24 is het wegblijven van de zogenaamde jet streams. Dat zijn stromingen op een diepte van 7000 km onder het zonne-oppervlak, waarboven de zonnevlekken zich manifesteren. Die jet streams onstaan altijd op hoge breedte (ongeveer 50° NB en ZB) en zakken dan langzaam af naar de zonne-equator. Het ontstaan van dergelijke jet streams vindt al plaats ruim voordat de voorgaande cyclus is uitgedoofd.


Bron: Sky & Telescope

Wetenschappers die zich bezighouden met helioseismologie, zoals Frank Hill en Jay Pasachoff, nemen waar dat het ontstaan van de jet streams voor cyclus 25 uitblijft. De cyclus is al enkele jaren over tijd, om preciezer te zijn. Op onderstaande afbeelding is dat te zien. De jet streams zijn de rood-gele strepen op de figuur. Aan de linkerzijde ziet men de jet streams van cyclus 23, die omstreeks 2002 de zonne-evenaar bereiken. Verder is te zien dat de jet streams van de huidige cyclus 24 al in 1997 verschijnen op 50° NB en ZB, en dat ze de evenaar zullen bereiken in 2013. Het ontstaan van de volgende jet streams van cyclus 25 zou normaal gesproken al in 2009 hebben moeten plaats vinden, maar er is tot nu toe nog helemaal niets te zien.


Een tweede aanwijzing dat er iets bijzonders aan de hand is, is dat de sterkte van het magnetisch veld in het donkere hart van zonnevlekken alsmaar zwakker wordt. Zodra die sterkte beneden de 1500 Gauss daalt zullen er geen zonnevlekken meer ontstaan.


Bron: National Solar Observatory

Met het PSCL-model dat door de Noorse onderzoekers op basis van de correlatie zonnecyclus-temperatuur is gemaakt kunnen ook voorspellingen worden gedaan. Nu hou ik persoonlijk niet zo van modellen die dit of dat voorspellen, omdat op die wijze door wat ik het politiek-industrieel- klimatologisch complex noem de laatste jaren nogal wat onzin naar buiten is gebracht. Maar deze wil ik u niet onthouden, temeer omdat de genoemde correlatie statistisch significant is. De voorspelling is dat voor de huidige zonnecyclus, die tot 2020 zal voortduren, de gemiddelde jaartemperatuur op Spitsbergen met ongeveer 3 °C zal dalen, en de gemiddelde wintertemperatuur met zelfs 6 °C. Ik ben benieuwd of de voorspelde afkoeling waargemaakt gaat worden, en ook geldt voor de andere delen van het Arctisch gebied.

 


10-12-2011

Al 15 jaar lang geen opwarming De Bilt


 

Nu het einde van 2011 met rasse schreden nadert ben ik maar weer eens in de temperatuurdatabank van het KNMI gedoken. Op basis van de gehomogeniseerde maandgemiddelden van meetstation De Bilt is bovenstaande grafiek gemaakt. Voor de lopende maand december heb ik gebruik gemaakt van de daggemiddelden t/m 9 december j.l. Het temperatuurverloop gedurende het resterende deel van de maand is gebaseerd op de maandverwachtingen voor De Bilt.

Wat opvalt is dat de zomertemperaturen in 2011 wat achterblijven bij die van de afgelopen jaren. Ook zakt De Bilt heel slapjes de winter in, zeker vergeleken met wat we de afgelopen paar jaar gewend waren.

De zwarte lijn is de lineaire trendlijn voor de weergegeven periode. Zoals te zien is is er al 15 jaar lang geen enkele stijging of daling te bespeuren in De Bilt, terwijl ons toch een fikse opwarming beloofd is. Die vlakke trend van De Bilt komt overigens heel fraai overeen met de globale trend. In de data van BEST (zie oudere items) is de afgelopen 10 jaar geen statistisch significante temperatuurstijging waar te nemen op aarde. De CRU-meetreeks toont al 15 jaar geen opwarming, en de Remote Sensing Systemsversie van de satelliet-meetreeks MSU al 15,6 jaar.

Volgens Ben Santer et al in een recente publicatie tonen de resultaten van hun onderzoek aan dat temperatuurrecords van ten minste 17 jaar lang nodig zijn voor het identificeren van de menselijke effecten op de globale troposferische temperatuur. Kortere geven teveel ruis volgens Santer. Nog eventjes dus. Reinier van den Berg (zie item hieronder) probeerde op de KNAG-dag van 2011 nog een recordjaar voor de temperatuur in Nederland te maken, ter ondersteuning van zijn opwarmingsverhaal. Ik denk dat dat er niet in zit, 2011 past heel netjes in de trend van de afgelopen 15 jaar: géén opwarming.


9-12-2011

Kersenplukken met een meteoroloog

In de bijdrage van 25-11 j.l. maakte ik al gewag van de lezing die meteoroloog Reinier van den Berg zou houden op de KNAG-dag (geografendag) van 8 december j.l. in het VU-gebouw. Ik heb toen wat kanttekeningen gemaakt bij de ‘zekerheden’ van Van den Berg en proberen aan te tonen dat er meer sprake is van onzekerheden dan van zekerheden.

Inmiddels is de lezing gehouden en ondergetekende is er bij aanwezig geweest. Ervaring? Nog nooit heb ik een lezing bijgewoond waarin zo ‘ruim’ werd omgesprongen met de waarheid. Hier volgen wat opvallende fragmenten uit de lezing. Van den Berg toonde onderstaande grafiek om te laten zien dat we ons op een glijdende schaal bevinden voor wat betreft het Arctische drijfijs:

Bron: University of Illinois


Het roze gedeelte ontbrak. Wellicht hebben collega-geografen in de zaal gedacht dat de data na 2007 nog niet beschikbaar zijn, maar lezers van deze site weten beter: tot eind 2011 is beschikbaar. Waarom doet Reinier dit? Natuurlijk kent hij het recente verloop, hij heeft zelfs moeite moeten doen om een grafiek voor zijn presentatie te maken die de data na 2007 weglaat. Kortom: Reinier wil gewoon niet graag het laatste stukje van de grafiek van het ijsoppervlak laat zien. Voor dat laatste stukje schakelt hij over op een andere grootheid: niet het ijsoppervlak wordt getoond, maar het Arctisch ijsvolume. En dat laat inderdaad na 2007 een daling zien. Dat ijsvolume is echter de uitkomst van een model dat ontwikkeld is aan de universiteit van Washington, en is niet de uitkomst van satellietmetingen. Het ijsoppervlak is dat wel: het wordt continu gemeten.

Er is nog wel meer af te dingen op het gebruik van het berekende ijsvolume, zoals het feit dat het volume sterk bepaald wordt door de temperatuur van het water en het volume geen invloed heeft op de albedo maar het oppervlak wel. Kortom: een fraai staaltje van cherry-picking.
De zo door Reinier zelf gecombineerde glijdende schaal mondt dan volgens hem uit in de volgende voorspelling: over 4 jaar is de Noordpool ’s zomers ijsvrij. En mocht het een beetje tegenzitten: in elk geval hebben we vóór 2020 een ijsvrije Noordpool. In recente peer-reviewde publicaties is dit echter niet terug te vinden. Wang (2009) schat een ijsvrije Noordpool in 2037, en dat was op basis van het extreme jaar 2007. De theorie van een ‘tipping point’ voor het Noordpoolgebied waardoor er een ‘runaway’ plaatsvindt met versnelde afsmelt is het afgelopen jaar al door enkele publicaties naar het rijk der fabelen verwezen.

Over het drijfijs rond Antarctica zegt Reinier wijselijk niets, want de grafiek daarvan ziet er zo uit:

 


Wel laat hij een grafiek zien van de afsmelt van landijs op Antarctica, maar dat betreft alleen West-Antarctica, waar inderdaad meer ijs smelt dan aangroeit. Het is de figuur hieronder. Hij is afkomstig van NASA uit 2009.


Bron: NASA 2009

Over de rest van Antarctica , waar geen extreme smelt plaats vindt houdt hij wijselijk zijn mond. Hieronder een figuur uit de recente publicatie van Zwally et al uit 2011. Grote delen van Centraal en Oost Antarctica waarvan in de bovenstaande figuur uit 2009 nog geen data bekend waren, zijn in deze figuur grijs ingekleurd: een netto toename van het ijs.

Bron: Zwally et al 2011

Het tweede opvallende aspect van Reiniers lezing is zijn dreigende voorspelling van een extreem snelle zeespiegelrijzing. Hij toonde eerst de onderstaande grafiek die op deze website ook gebruikt is. Zoals ook al in de bijdrage van 25-11 2011 genoemd is van een versnelling van de zeespiegel de afgelopen 100 jaar geen sprake.


Bron: NOCS

Vervolgens schakelde Reinier over op een grafiek van Vermeer en Rahmstorf uit een publicatie in PNAS uit 2009. Om de betrouwbaarheid van de grafiek te verhogen werd vermeld dat Rahmstorf van de beroemde universiteit van Potzdam afkomstig is. Rahmstorf zelf is niet geheel onomstreden. Behalve dat hij in klimatologenland bekend staat als een rasechte alarmist, is hij onlangs door het Kölner Landgericht veroordeeld vanwege het feit dat hij onwaarheden over een wetenschapsjournaliste had verkondigd die haar in de uitoefening van haar beroep hebben geschaad. Irene Meisscher had het namelijk gewaagd het IPCC te bekritiseren vanwege alarmistische passages over de toekomstige landbouwproduduktie in Afrika, als gevolg van de vermeende opwarming van de aarde. Deze waren niet op 'peer-reviewed' literatuur gebaseerd, maar toch in de samenvatting van het IPCC-rapport terecht gekomen en werden vervolgens in de klimaatalarmistische uitspraken van Pachauri en Ban Ki Moon hoog opgespeeld. Later zou dit bekend worden als 'Africagate'. (bron Hans Labohm). Voor het hele verhaal zie hier.

Overigens is hier niet mee gezegd dat alles wat Rahmstorf schrijft daardoor verdacht is. Wel toont dit aan dat zijn gedrevenheid om de alarmistische boodschap niet bekritiseerd over het voetlicht te krijgen groot is. Het gebeurt naar mijn weten zelden dat een wetenschapper een dergelijke actie pleegt.


De grafiek is afkomstig uit een publicatie van Vermeer en Rahmstorf uit 2009. De schattingen van Vermeer en Rahmstorf zijn veel hoger dan in het laatste rapport van het IPCC, en de hoogste van alle publicaties over dit onderwerp: tot bijna 200 cm stijging. Verwijzend naar de grafiek deelde Reinier mee dat de schatting van de maximale zeespiegelstijging door de Commissie Veerman van 130 cm weliswaar kritiek heeft gehad, maar blijkbaar nog gematigd was.

Over die 130 cm van de commissie Veerman schrijft Jef Huisman, hoogleraar Aquatische Microbiologie aan de Universiteit van Amsterdam, in het NRC overigens:

Waarop berust dan die voorspelling van 130 cm van de Nederlandse Delta-commissie? Het lijkt nog het meest op educated guesswork, zoals wordt uitgelegd in de appendix van het rapport. De commissie onderscheidt verschillende factoren die bijdragen aan de zeespiegelstijging, zoals uitzetting van zeewater door opwarming en afsmelting van de gletsjers op Groenland en Antarctica. Bij elk van deze factoren schat de commissie 10 of 15 cm meer stijging dan het IPCC. Gewoon, als veilige marge, verkregen uit interviews met verschillende experts. En inderdaad, als je een stuk of 6-7 factoren onderscheidt, die je elk voor de vuist weg ophoogt met ca. 10 cm extra, dan kom je al snel uit op een totale zeespiegelstijging van 130 cm. Ja, zo kan ik het ook.

Waarom wijkt de voorspelling van de commissie zo sterk af van die van het IPCC? Waarom zo’n overdreven voorspelling? Wil de commissie Nederland uitroepen tot het beste jongetje in de klas? Wil men ons bang maken voor het wassende water? Probeert men onderhandelingsruimte te creëren voor het politieke spel? Welke belangen spelen een rol?

De samenstelling van de commissie is opvallend. De commissie bestaat niet uit gerenommeerde klimatologen, oceanografen of aardwetenschappers die met hun expertise weten hoe je klimaatscenario’s dient te interpreteren. Wel is er inbreng vanuit andere hoeken van de samenleving. Verschillende leden zijn betrokken bij de economische ontwikkelingen in Nederland, bij grootschalige baggerwerkzaamheden, of bij coastal engineering. En, heel opvallend, een groot deel van de commissieleden heeft een landbouwachtergrond. De landbouw heeft grote behoefte aan irrigatiewater in de zomer. En dit water kan onttrokken worden uit het verhoogde IJsselmeer
. ”

Rahmstorf doet het niet voor die 130 cm van Veerman en doet er nog een schepje bovenop. Hij schrijft: “ We propose a simple relationship linking global sea-level variations on time scales of decades to centuries to global mean temperature. This relationship is tested on synthetic data from a global climate model for the past millennium and the next century.” . Over het gebruik van modellen heft Komen ( zie bijdrage 3-12-2011) al wijze dingen gezegd. John von Neumann , een van de grootste wiskundigen ooit, heeft over modellen gezegd: “ With four parameters I can fit an elephant, and with five I can make him wiggle his trunk.”.

Overigens ligt het gemeten verloop van het zeeniveau nu al (eind 2011) lager dan de door Vermeer en Rahmstorf allerlaagste schatting.
 


Bron: WUWT

Er valt nog veel meer te zeggen over het optreden van Reinier van den Berg. Wat dacht u van: “ broeikasgassen hopen zich op in het bovenste deel van de troposfeer ” . Eenieder die ook maar iets afweet van het gedrag van broeikasgassen weet dat dat onzin is. Ook zijn opmerking dat het laatste deel van de BBC-serie The Frozen Planet verboden zou zijn in de USA is nonsens. De overheid in de USA bepaalt niet wat er op tv uitgezonden wordt, dat zijn de tv-zenders. Even zoeken op het internet en de waarheid komt naar boven: de BBC heeft de serie op de wereldmarkt aangeboden in een package van de eerste 6 delen, met een mogelijkheid om het zevende deel, “On thin ice” geheten, ook te kopen. Dat laatste deel gaat over de invloed van de mens op het klimaat. Van de 30 afnemende tv-stations hebben er 10 het laatste deel niet aangekocht, waaronder Discovery USA. Van een verbod is dus geen sprake. Lees hier.

Verder was het optreden een aaneenrijging van anekdotische bewijsvoering en “praatjes bij plaatjes” die moesten aantonen dat het allemaal heel erg is. Kortom: de hele lezing van Van den Berg ademde een sfeer van een onheilstijding. Daarbij schuwde Reinier zoals gezegd het wapen van cherry-picking niet, maar ook andere halve waarheden en zelfs onwaarheden ging hij niet uit de weg om zijn (goed betaalde) apocalyptische boodschap te brengen.

Het is zoals een bekende wetenschapsjournalist onlangs over Reinier schreef: “ Het is een aardige man, maar hij heeft geen verstand van klimaat, en bovendien is hij een activist “. Ik ben bang dat voor een gehoor dat niet goed ingewijd is in de klimaatdiscussie zijn verhaal heel aardig klinkt. Het optreden van Van den Berg op de geografendag in Amsterdam bewees mijns inziens geen goede dienst aan een van de doelen van het aardrijkskundeonderwijs in Nederland, namelijk jongens en meisjes opleiden tot mondige burgers. Voor ingewijden is Reinier van den Berg namelijk, net als zijn grote voorbeeld Al Gore, een klimaatcharlatan. Reinier zou zich het beste aan zijn stiel houden: weerman.
 


3-12-2011

Klimaatmodellen en onzekerheid

Prof. Dr. Gerbrand Komen, voormalig Hoofd Klimaat Onderzoek en Seismologie van het KNMI, heeft op 25 november j.l. een bijdrage geleverd op de site Wetenschappelijke modellen getiteld Klimaatmodellen, onzekerheid en vertrouwen. In het hoofdstuk De Feiten (zie menu) is daar in de paragraaf Klimaatmodellen al het een en ander geschreven.

Hier volgt het belangrijkste stuk uit de bijdrage:

* Veel in het kader van de verschillende CMIP projecten uitgevoerde testen hebben al het karakter van een severe test.
* Je moet je wel steeds bewust zijn van de pretenties van een model. Voorbeeld: je kunt niet verwachten dat een mondiaal model de convectieve neerslag in Nederland beschrijft. Daar moet je dan ook niet op testen. Het is op voorhand evident dat zo’n test niet succesvol kan zijn.
* Wat je ook test, modellen van complexe systemen zijn niet te ‘bewijzen’.

Vooral dat laatste wordt niet door iedereen geapprecieerd. Fysicus Richard Feynman (geciteerd door Judith Curry) zei het zo: “Scientific knowledge is a body of statements of varying degrees of certainty — some most unsure, some nearly sure, but none absolutely certain.” Dit geldt voor alle wetenschappelijk kennis, en zeker ook voor onze kennis van complexe systemen.

Vertrouwen in klimaatmodellen is deels subjectief

Als je de modellen niet kunt bewijzen waarom zou je hun resultaten dan gebruiken? Antwoord: omdat je op een of andere manier vertrouwen hebt in het nut. Als het KNMI regen voorspelt kun je daar nuttig gebruik van maken als je moet besluiten of je wel of niet een paraplu mee wilt nemen. Je hebt (enig) vertrouwen in die verwachtingen, omdat het KNMI in het verleden bewezen heeft kwaliteit te leveren.

Bij klimaatmodellen ligt dat wat ingewikkelder. Er zijn twee belangrijke toepassingen van het klimaatonderzoek die grote maatschappelijke implicaties hebben, nl de attributie van waargenomen veranderingen aan menselijk handelen, en verkenningen van mogelijke toekomstige ontwikkelingen. In beide gevallen is het gebruik van klimaatmodellen essentieel. Waarom zou je de resultaten van die modellen vertrouwen? Het maatschappelijk debat bewijst wel dat dit geen academische vraag is. Het IPCC spreekt van considerable confidence, terwijl anderen juist weinig vertrouwen hebben. Kennelijk heeft het vertrouwen in modellen een subjectief element, al dan niet cultureel bepaald.

Het onzekerheidsmonster

Om te begrijpen wat er aan de hand is, is het goed om te kijken naar de wijze waarop men modelonzekerheden probeert te beschrijven. Klimaatonderzoekers ontlenen vertrouwen aan het vermogen van hun modellen om waarnemingen te simuleren. Dit vermogen kan goed gekwantificeerd worden met behulp van statistische technieken, en levert dus harde getallen. En die worden dan ook vaak gecommuniceerd. Daarbij mag men echter niet vergeten dat er ook sprake is van onderliggende subjectieve keuzes: de keuze van de te vergelijken grootheden, de gewichten die men daaraan toekent, en kwaliteitscontrole bij de selectie van data.

Onzekerheden in modelverwachtingen kan men kwantificeren door modellen onderling te vergelijken of door te kijken naar het effect van parameter-perturbaties. De verschillen die daarbij naar voren komen zijn een maat voor de onzekerheid. Grote verschillen impliceren grote onzekerheid. Omdraaien mag natuurlijk niet: je kunt niet zeggen dat de onzekerheid klein is als de resultaten van verschillende modellen goed overeenstemmen, of ongevoelig zijn voor parameterwaarden. Het is immers denkbaar dat alle beschouwde modellen een structurele imperfectie hebben.

Monsterbezwering

Jeroen van der Sluijs heeft in dit verband het begrip onzekerheidsmonster ingevoerd (geïnspireerd door Martijntje Smits, en inmiddels overgenomen door bv Judith Curry). In zijn artikel uit 2005 onderscheidt van der Sluijs verschillende manieren waarop met dit monster omgegaan wordt, zoals ontkenning, vereenvoudiging en ‘assimilatie’.

Het IPCC heeft geprobeerd, en probeert nog steeds, om het monster te temmen door het hanteren van strakke en verstandige richtlijnen voor de communicatie van onzekerheden. Prijzenswaardig, maar lastig in de praktijk. Zo noemt het recente IPCC Special Report on Managing the Risks of Extreme Events and Disasters to Advance Climate Change Adaptation het ‘zeer waarschijnlijk [90‑100 % kans] dat hittegolven in lengte, aantal en intensiteit op de meeste plaatsen (boven land) zullen toenemen’. Het percentage suggereert een mate van exactheid die er m.i. niet is, omdat het niet expliciet maakt dat de bewering gebaseerd is op het vertrouwen dat de auteurs in klimaatmodellen hebben.

Hoe nu verder? Van der Sluijs heeft, bouwend op eerder werk van Funtowicz en Ravetz, al in 2005 een mogelijke weg aangegeven onder de noemer ‘assimilatie’: eerlijk, open en transparant zijn over onzekerheid en onwetendheid, en ruimte geven voor wat wel extended peer review genoemd wordt, dat is een proces waarbij voor de bepaling van de kwaliteit van onderzoek belanghebbende individuen en groepen worden ingeschakeld die niet zelf bij het onderzoek betrokken zijn. Dat eerste lijkt me van evident belang. Over het tweede valt nog heel wat te zeggen (zie bv Hanekamp, 2010; en de discussie op Watts Up With That?). Hier ontbreekt de ruimte om daar verder op in te gaan. Maar misschien is het iets voor later?

Vertrouwen in de wetenschap

Waardering van klimaatmodellen is een ding, waardering voor de wetenschap is nog iets anders. Die waardering is een kostbaar goed. Von Storch spreekt in dit verband van ‘kapitaal’ dat je kunt vergroten, maar ook vernietigen. Helaas is het vertrouwen in de klimaatwetenschap niet meer vanzelfsprekend, getuige de reacties op bijvoorbeeld climategate.nl. Het is daarom belangrijk dat we nagaan wat er moet gebeuren om dat vertrouwen te verbeteren. Betere communicatie over onzekerheden hoort daar zeker bij.

Vetgedrukte tekst door Klimaatgek.nl

 

29-11-2011

De klimaatgevoeligheid volgens van Calmthout

 

De man op de foto hiernaast is Martijn van Calmthout, chef-redacteur wetenschap van de Volkskrant. Van Calmthout heeft altijd al een hekel gehad aan mensen die twijfelden aan het waarheidsgehalte van de IPCC-rapporten. Enkele jaren geleden riep van Calmthout op om klimaatsceptici geen enkele ruimte meer te geven in de krant. Dat is niet alleen een heel erg onwetenschappelijke houding, maar ook journalistiek erg onprofessioneel. Een bepaalde groep mensen uitsluiten in de krant omdat je het met hen niet eens bent?

Nu heeft van Calmthout de afgelopen tijd niet meer zo’n extreme uitspraak gedaan, maar in zijn artikelen merk je toch heel duidelijk dat hij het hart nog steeds “op de goede plaats” heeft.

Gretig interviewt hij mensen die het doemscenario van een apocalyptisch einde van de alsmaar opwarmende aarde omarmen, nooit laat hij kritische wetenschappers aan het woord behalve om ze neer te sabelen.

Afgelopen zaterdag 26 november 2011 was het weer raak. Van Calmthout publiceerde een artikel over een recente publicatie van Schmittner et al in Science. De Amerikaanse klimatoloog en zijn team stellen dat de klimaatgevoeligheid (temperatuurstijging als gevolg van verdubbeling CO2) lager uitvalt dan tot nu toe door het IPCC werd aangenomen. Zij kwamen uit op een verwachte gemiddelde klimaatgevoeligheid van 2,4 °C, een stuk lager dan de 3 °C van het laatste IPCC-rapport.

Bron: Schmittner et al

De inkt was nog nauwelijks droog of van Calmthout was er als de kippen bij om af te dingen op de onderzoeksresultaten. Nu is de timing van de publicatie, zo vlak voor de klimaattop in Durban, voor de ‘goede zaak’ wellicht vervelend. Misschien was dat de drijfveer voor van Camthout om razendsnel zijn artikel te schrijven?

Hij schreef: “ Het was deze week gefundenes fressen voor wie twijfelen wil aan het idee dat de mensheid het klimaat op aarde verandert door het uitstoten van kolossale hoeveelheden kooldioxide. Vrijdag publiceerde een internationale groep onderzoekers in het Amerikaanse tijdschrift Science een studie die lijkt aan te geven dat tweemaal zoveel CO2 in de atmosfeer een opwarming geeft van (waarschijnlijk) 2,3 graden. Slechts 2,3 graden. Zelfs met de onzekerheidsmarge van plus of min 0,6 graden is die uitkomst beduidend lager dan de waarde waarmee het VN-klimaatpanel IPCC op grond van de verzamelde wetenschappelijke literatuur tot nog toe werkte: 3,0 graden, of eigenlijk (met een waarschijnlijkheid van 66 procent) 2-4,5 graden bij een verdubbeling van de CO2-concentratie. En zeker minder dan waardes tot wel 10 graden die sommige extreme onheilsstudies suggereerden. Goed nieuws dus, de opwarming gaat toch nog meevallen? Dat is maar de vraag, zegt …. ”. En dan volgen wat reacties van enkele klimaatwetenschappers van de universiteit van Utrecht, Sluijs en van de Wal, die overigens wel interessant zijn. Wellicht daarover later meer.

Van Calmthouts neerbuigende houding ten aanzien van klimaatsceptici is algemeen bekend. Zijn collega Marco Visscher schreef afgelopen zaterdag in Trouw: “ De chef van de wetenschapsredactie van de Volkskrant beweert dat klimaatsceptici die niet 'wetenschappelijk' formuleren en publiceren 'in serieuze wetenschappelijke tijdschriften' moeten worden behandeld als onruststokers wier 'loos kabaal' moet worden genegeerd. “. Hij gaat daarin volgens Visscher nog niet zover als een directeur van Greenpeace die op de website van deze organisatie schreef: " We weten wie jullie zijn. We weten waar jullie wonen.". Ja, u leest het goed! Voor wie het hele artikel van Visscher , “De paniekfabriek maakt overuren” wil lezen klikt hier.

Terug naar de Volkskrant. Van Calmthout eindigt zijn artikel met de volgende alinea: “ Sluijs en Van de Wal waren afgelopen april organisatoren van een internationale studieconferentie in het Trippenhuis in Amsterdam waar topklimatologen praatten over de noodzaak van betere definities van klimaatgevoeligheid. Binnenkort verschijnt hun gezamenlijke review paper, met een scherpere definitie, en ook een nieuwe uitkomst: 3,5 graden. Meer dan 3 graden dus. ”.

De boodschap is duidelijk, beste lezertjes van de Volkskrant: niks geen 2,4 graden van die malle Amerikaanse klimatologen (die vast niet ‘top’ zijn) , ook geen 3 graden volgens het IPCC, maar méér dan 3 graden opwarming. Een hele geruststelling.
 


27-11-2011

Nogmaals de zeespiegel

In de bijdrage van 25 november j.l. is de zeespiegelstijging aan de orde geweest naar aanleiding van opmerkingen van meteoroloog van den Berg. Hij stelt in een brochure van het KNAG ter introductie van de lezing die hij op 8 december a.s. gaat houden: “Te midden van onzekerheden zijn er wel degelijk een paar grote zekerheden. De aarde warmt op, het ijs smelt steeds sneller, en de zeespiegel reageert als verwacht, en stijgt dus steeds sneller. “ . Over die steeds sneller stijging van de zeespiegel heb ik toen geschreven dat dat niet waar was. Interessant is natuurlijk ook de vraag of de reactie van de zeespiegel op een versnelde ijssmelt een versnelde stijging is.

De bekende Duitse klimatoloog Hans von Storch noemde een publicatie over de zeespiegel van de hand van een aantal Duitse onderzoekers als een van de voor hem 6 belangrijkste klimatologische publicaties van 2010 en 2011. Het gaat om publicaties van Thomas Wahl en zijn team.
Thomas Wahl et al hebben in 2010 inderdaad een interessante publicatie het licht laten zien over de zeespiegelstijging in de Duitse Bocht sinds 1840. In 2011 hebben ze in een nieuwe publicatie de data van hun eerdere publicatie uit 2010 verder verfijnd en verbeterd.

Wat ze gedaan hebben is het maken van een reconstructie van de zeespiegelstijging in de Duitse Bocht van 1843 tot 2008, een periode van 166 jaar. Nu gaat het hier niet om die grafiek van de zeespiegel in de Duitse Bocht, en ook niet om de overigens interessant techniek met behulp waarvan ze de reconstructie hebben gemaakt. Het gaat om onderstaande grafiek uit het tweede rapport.


Bron: Wahl 2011

De grafiek geeft niet de trend in de zeespiegelhoogte weer, maar de jaarlijkse veranderingen. Kijk eens goed naar de rode lijn, die de SLR (Sea Level Rise) in mm/jaar weergeeft. Er zijn 3 periodes waar te nemen waarin sprake is van een versnelling van de zeespiegelstijging. De eerste is een stijging tussen 1855 en 1880, waarin de SLR toeneemt van 0 mm/jaar tot bijna 3 mm/jaar. De tweede acceleratieperiode loopt van 1925 tot 1947; de stijging ging toen van 0,5 mm/jaar tot 3,4 mm/jaar. De laatste acceleratiefase begint 1970 en eindigt in 1996 , de SLR stijgt dan van 0,8 mm/jaar tot 3,6 mm/jaar. Na elke acceleratiefase volgt een periode van deceleratie en daalt de SLR naar waarden tussen 0 en 1 mm/jaar. Als we de Hadcrut globale temperatuurreeks er bijhalen, dan zien we een opvallende correlatie tussen het verloop van de gemiddelde wereldtemperatuur en de SLR.


Bron: HadCrut

Als er sprake is van een acceleratie van de luchttemperatuur aan het aardoppervlak, dan volgt met een lichte vertraging ook een acceleratie van de SLR.

In de bijdrage van 6-9-2011 is de sterke correlatie tussen de globale temperatuurreeks van HadCRut en de watertemperatuurreeks van het noordelijk deel van de Atlantische Oceaan aan de orde geweest. De vraag was toen welke van de twee domeinen, oceaan of atmosfeer, de sturende kracht is binnen deze correlatie. Nienke te Raa (IMAU 2006) schreef in het blad Meteorologica hierover: “…wat veroorzaakt deze Atlantische Multidecadale Oscillatie? Eerder onderzoek heeft uitgewezen dat veranderingen in de atmosfeer waarschijnlijk niet de oorzaak zijn van de AMO, maar het gevolg. Onze hypothese was dan ook dat dit verschijnsel het gevolg is van interne wisselwerkingen in de oceaan. ”. Zie voor verdere details hierover de bijdragen uit augustus en september 2011.

Conclusie: er is weliswaar sprake van een acceleratie van de SLR tussen 1970 en 1996, maar een vergelijkbare stijging deed zich ook voor tussen 1855 en 1880, en tussen 1925 en 1947. De meest recente acceleratie van de SLR koppelen aan versnelde afsmelt van ijs is derhalve mijns inziens puur speculatief. Van beide eerste acceleratieperiodes is niets bekend over een versnelde afsmelt van landijs, en gletsjers die korter worden kennen we al vanaf 1800.

De koppeling tussen de zeespiegel en het afsmelten van ijs is veel complexer is dan van den Berg suggereert. In 2010 publiceerde Kahn et al een studie naar de massabalans van het Groenlandse ijs met behulp van satellietgegevens van GRACE en GPS tussen 2002 en 2010. De conclusie was dat het landijs in Z. Groenland vanaf eind 2003 en vanaf eind 2005 ook in NW Groenland versneld aan het afsmelten is.



Bekijken we de meest recente data van de zeespiegel van de universiteit van Colorado in de figuur hier boven, dan is van die versnelling van afsmelt in Groenland in het verloop van de zeehoogte niets te merken. De stijging van het gemiddeld zeeniveau vlakt zelfs sinds 2005 af. Waaruit maar eens blijkt hoe ingewikkeld het oceaan-atmosfeersysteem in elkaar zit. Het kan natuurlijk ook wat te maken hebben met de methode die Kahn et al hebben gebruikt. Misschien daar later meer over.
 
26-11-2011

Nieuwe zoekmachine Climategate

De site ecowho heeft een nieuwe zoekmachine gemaakt voor de duizenden zogeheten Climategate-emails die publiek zijn geworden. De machine zoekt nu zowel in de database van 2009 als die van 2011. Alle privacygevoelige gegevens zijn er uit verwijderd, wat overblijft is een soms bizar kijkje in de keuken van klimaatwetenschappers.


25-11-2011

De komende KNAG-dag en het klimaat


Op donderdag 8 december a.s. houdt het KNAG, Koninklijk Nederlands Aardrijkskundig Genootschap, haar jaarlijkse onderwijsdag in Amsterdam. Aanwezig zullen dan honderden geografen zijn, vaak aardrijkskundedocent in het voortgezet onderwijs uit het hele land om mee te doen aan lezingen, workshops en excursies. Als geograaf en docent zal ik zeker niet ontbreken, ook al omdat het klimaat in diverse lezingen onderwerp zal zijn.

Tijdens het gezamenlijk ochtendprogramma wordt de inleidende lezing gehouden door Reinier van den Berg, meteoroloog bij Meteo Consult. In de folder die het KNAG heeft uitgegeven staat een inleidend stukje geschreven door Reinier. De lezing zal heten Amersfoort aan Zee, een uitdrukking die velen in verband brengen met de docusoap van Al Gore. En daarmee is het thema direct duidelijk: de opwarming van de aarde.

Na wat inleidende alinea’s waarin gewag wordt gemaakt van onzekerheden binnen de klimatologie en verschil in visies, maakt Reinier zijn statement. Hij schrijft: “Te midden van onzekerheden zijn er wel degelijk een paar grote zekerheden. De aarde warmt op, het ijs smelt steeds sneller, en de zeespiegel reageert als verwacht, en stijgt dus steeds sneller. “.

Nu valt er juist op deze drie ‘zekerheden’ wel het een en ander af te dingen. Allereerst de zekerheid dat de aarde opwarmt. Daar is op deze site al heel veel over geschreven, zie in het menu “De Dogma’s” en dan “Het wordt steeds warmer”. Of het warmer of kouder wordt hangt sterk samen met de lengte van de periode waarover men dat bekijkt. Zo is de globale temperatuur op aarde de afgelopen 23 miljoen jaar, vanaf het begin van het Mioceen, fors gedaald. De aarde is van een ‘hot house’ is een ‘ice house’ beland. De globale temperatuur is gedaald van ongeveer 25 °C naar de huidige 15 °C.


Bekijk je de afgelopen 12.000 jaar , dan is er sprake van een forse stijging. De aarde kruipt uit de laatste ijstijd het Holoceen binnen. Voor Nederland betekende dat een temperatuurstijging van zo’n 17 °C. In dezelfde orde van grootte is de temperatuurstijging van de GRID2 ijskern op Groenland:

 


Vanaf het Holoceen optimum zo’n 8000 jaar geleden is er sprake van een daling...



...terwijl het Middeleeuws Optimum een tikkeltje warmer was dan het huidige:


De meer recente gang van de globale temperatuurlaten we zeggen vanaf 1800, is een stijgende. In onderstaande figuur van het CERN is die stijging van de temperatuur goed te zien. De grafiek is gebaseerd op een aantal publicaties op basis van proxies, plus de instrumentmetingen voor de afgelopen 150 jaar.



Let ook eens op hoe de fameuze Hockeystickgrafiek van Michael Mann schril afsteekt tegen de andere grafieken. Overigens: die hocheystickgrafiek van Mann is in de wetenschappelijk wereld al enkele jaren afgeserveerd omdat er foute statistische methoden zijn gebruikt. Het IPCC gebruikt daarom deze grafiek al een aantal jaren niet meer, maar enkele aardrijkskundenmethoden in ons land hebben daar (nog) geen moeite mee. Arme kinderen.

Terug naar de diverse tijdschalen. Nemen we als periode 1850 –heden, dat is te zien dat de temperatuur op aarde stijgt. Althans, dat doet hij tussen 1910 en 1940, en tussen 1970 en 1998.
 


Zoals trouwe lezers intussen wel weten is het heel verleidelijk om deze temperatuurstijging te koppelen aan de theorie van het broeikaseffect. Er zijn echter enkele redenen om daar tenminste voorzichtig mee te zijn. In de eerste plaats is begint de CO2-stijging al rond 1800, terwijl er pas sprake is van enige uitstoot door fossiele brandstoffen vanaf 1850 (zie onderstaande figuur).

Bron: Knorr 2009

De dikke lijn geeft de jaarlijkse hoeveelheid CO2 weer die door menselijke activiteiten in de atmosfeer terecht komt. Onderste lijnen geven de toename van CO2 in de atmosfeer weer (gestreepte lijnen verkregen uit ijskernen, dunnen lijn door directe metingen).
Die antropogene uitstoot loopt dan langzaam op tot ongeveer 2 gigaton C/jaar in 1950, om daarna explosief te stijgen als gevolg van de naoorlogse “industrial boom”. De opwarming van 1910-1940 kan niet gekoppeld kan worden aan antropogene CO2-emissies, om de eenvoudige reden dat er in deze periode nauwelijks sprake was van extra CO2-uitstoot. Kijk maar eens naar onderstaande grafiek over de uitstoot van antropogeen CO2.


Bron: BP jaarboek
 

De lichte daling tussen 1940 en 1970 is in het licht van een versterkt broeikas effect ook niet verklaarbaar.
Tot slot nemen we de korte, meest recente periode: sinds 1998 is de globale temperatuur niet meer gestegen. Onderstaande grafiek toont dit ‘bizarre’ verschijnsel. De grafiek is gebaseerd op de temperatuurdatareeks Hadcrut3V.



Bron: http://www.woodfortrees.org/

Wat is hier aan de hand? Een stagnerende temperatuur op aarde, terwijl de CO2-uitstoot ongekende hoogten heeft bereikt? Klimaatalarmisten wijzen graag op de lengte van de periode: men mag over 13 jaar nog niet spreken van een trend. De bekende klimatoloog Santer zegt in een recente publicatie dat een meetperiode tenminste 17 jaar lang moet zijn om te bepalen wat de menselijke invloed op de trend is. Die uitspraak wordt door diverse wetenschappers betwist. Feit is in elk geval dat geen enkele van de ruim 20 klimaatmodellen die door het IPCC gehanteerd worden deze stagnatie heeft kunnen voorspellen.

Geografen zijn in hun vak bekend met het schaalbegrip: de schaal bepaalt vaak wat men ziet en wat men niet ziet. Zo is dat ook met de globale temperatuur. Afhankelijk van de tijdschaal waarop men het verloop van de globale temperatuur bekijkt verandert de waarneming. Bestaat het versterkt broeikaseffect dan niet? Natuurlijk wel, onder laboratoriumomstandigheden stijgt de temperatuur bij een verdubbeling van het CO2-gehalte met 1,1 °C. De diverse klimaatmodellen verhogen dat effect tot 2 °C tot 4,5 °C door positieve feedbacks in hun berekeningen mee te nemen, zoals die van wolken. Maar juist deze vermeende positieve feedbacks staan momenteel onder druk vanwege recente publicaties. Diverse wetenschappers denken dat wolken netto afkoelend werken in plaats van opwarmend. Het kan dus goed zijn dat we zelfs die 1,1 °C opwarming aan het eind van deze eeuw niet halen. En dan te bedenken dat we al 0,7 °C opwarming achter de rug hebben.

De tweede zekerheid van Reinier is : “het ijs smelt steeds sneller”. Ook over dit item is hier al veel geschreven. Reinier is op Groenland geweest.
Waarschijnlijk is de massabalans van het landijs tussen 1979 en 2005 negatief geweest: er was sprake van meer smelt dan aangroei. Maar is een dergelijk fenomeen te koppelen aan de globale opwarming? Een bekende studie uit 2009 van Chylek et al toont aan dat de temperaturen in de Arctische regio sterk onder invloed staan van de AMO, de Atlantische Multidecadale Oscillatie. Chylek et al hebben geprobeerd in de voor handen zijnde temperatuurreeksen bewijzen te vinden voor die versterkte temperatuurvariaties, alsook voor een eventuele natuurlijke variabiliteit. Men gebruikte de NASA/GISS data van 37 weerstations in de Arctische regio.


Te zien is dat de aangegeven periode van smelt op Groenland fraai overeen komt met de positieve fase van de AMO. De temperatuurtrends in de Arctische regio zijn in de onderstaande tabel verwerkt.

Grofweg zijn er in de Arctische regio drie trendperiodes te onderscheiden: 1910-1940, 1940-1970 en 1970-2008. Als men de drie trendperiodes in ogenschouw neemt, dan valt op dat de temperatuur in het Arctische gebied veel heftiger fluctueert dan de globale temperatuur. In de onderstaande tabel is dat verschil goed te zien. De eerste kolom geeft de trend van de oppervlaktetemperatuur in de Arctische regio ( in °C/decennium), de tweede kolom geeft de trend weer van de globale temperatuur op het land, en de derde kolom is de verhouding tussen de Arctische en de globale trend, de zogenaamde Arctic Amplification.


Oplettende lezers zullen een sterke overeenkomst zien tussen de AMO en de trends in de globale temperatuur. Daarover is hier tussen 25 augustus en 10 september j.l. al uitgebreid over geschreven. Onderstaande grafiek geeft de correlatie tussen AMO en Hadcrut globale temperatuur fraai weer.


Datgene dat hierboven beschreven is voor het landijs op Groenland geldt m.m. ook voor het drijfijs in het Arctische gebied: de invloed van de AMO en de daarmee gepaard gaande veranderingen in windpatronen en zeestromen is zeer groot. Parallel met de AMO is het drijfijs tot het midden van het afgelopen decennium afgenomen. De laatste jaren is er sprake van stabilisatie.


Het drijfijs op het zuidelijk halfrond laat een lichte stijging zien vanaf 1979 (het begin van de satellietmetingen).


Bron: University of Illinois

Hoe zit het met het landijs op Antarctica? Regelmatig komen alarmerende berichten in de pers over het versneld afsmelten van het landijs op Antarctica. Bij nader inzien gaat het dan altijd over het landijs op het schiereiland in West-Antarctica, waar inderdaad een negatieve massabalans is geconstateerd de afgelopen decennia. Het grootste deel van Antarctica vertoont echter de afgelopen decennia een toename van de massabalans. Zie de kaart hieronder. DI/dt is de geschatte verandering van de dikte van de ijskolom tussen 1992 en 2009. Daarbij is niet alleen rekening gehouden met de veranderingen in de topografische hoogte van het ijs, maar ook met de mate van compactie van het firnijs en de verticale beweging van het onderliggende land. De schattingen van de jaarlijkse veranderingen van de ijsmassa op basis van de data van de European Remote-sensing Satellites (ERS) liggen tussen de +28 and -31 Gt/jaar.


Bron: Zwally et al 2011
 

De zekerheid van van den Berg over het versneld afsmelten van het ijs kan ook slaan op gletsjers. Daar is in het hoofdstuk “De Dogma’s” al het een en ander over geschreven. Het is een feit: veel gletsjers op aarde zijn sinds 1800 korter geworden. De lengte van een gletsjer hangt af van zijn massabalans. Dat is het verschil tussen enerzijds aangroei door sneeuwval in het accumulatiegebied (firnbekken), en anderzijds ablatie: het afsmelten en verdampen door sublimatie.

De omschrijving van het begrip massabalans maakt duidelijk dat gletsjers gevoelig zijn voor globale en regionale klimaatveranderingen. Globale klimaatveranderingen zoals wereldwijde temperatuurstijgingen en -dalingen hebben invloed op afsmelten van gletsjers. Maar ook fluctuaties in zonnestraling, met name zomerinsolatie, hebben invloed op het langer en korter worden van gletsjers.

Regionale veranderingen hebben invloed op de massabalans van gletsjers. Voorbeelden daarvan zijn op veel plaatsen te vinden. Zo zijn de meeste Alpengletsjers vanaf 1800 korter geworden, maar enkele zijn daarentegen langer geworden. Men neemt aan dat dat laatste het gevolg is van een veranderd neerslagpatroon in de regio, waardoor op sommige plaatsen meer sneeuwval is dan vroeger. Dergelijke voorbeelden zijn overal op aarde te vinden.

Regionale veranderingen in bodemgebruik kunnen een dramatisch effect hebben op gletsjers. Het bekendste voorbeeld is dat van de gletsjers op de Kilimanjaro. Gore misbruikte de Kilimanjaro als ‘bewijs’ voor global warming. Dat ballonnetje is nadien al enkele malen op wetenschappelijke wijze doorgeprikt. Ook veranderingen in albedo van gletsjers als gevolg van stof of andere deeltjes kunnen grote effecten hebben op de massabalans van een gletsjer.


Bron: Oerlemans 2005

Nu is zo’n 70% van alle gletsjers op aarde de afgelopen paar eeuwen korter geworden, wat wijst op een reactie als gevolg van gestegen temperaturen. Niets nieuws onder de zon, in het begin van dit artikel is het verloop van de globale temperatuur gedurende de afgelopen paar eeuw al weergegeven: na de laatste Kleine IJstijd stijgt de temperatuur weer.

Gezien het beginpunt van de afsmelt, rond 1800, is het aannemelijk dat althans voor de eerste 150 jaar de antropogene CO2-emissies geen rol van betekenis hebben kunnen spelen. Overigens is groei en krimp van gletsjers een fenomeen dat niet iets specifieks is voor de afgelopen 2 eeuwen.


Bron: Grove et al 1994

Hierboven is de gang van de Grote Aletschgletsjer gedurende de afgelopen 1500 jaar weergegeven. Opvallend is dat de Grote Aletschgletsjer in de afgelopen 1500 jaar tenminste 3 maal een periode gekend heeft dat de terugtrekking van de gletsjer zo groot was als heden.

Joerin et al publiceerden in 2007 een studie naar de Tschierva gletsjer. Het is een onderzoek naar de Holocene geschiedenis van de gletsjer op basis van sedimentonderzoek en onderzoek naar zogenaamde subfossiele boomstronken die onder het ijs vandaan kwamen. Er werden 3 periodes ontdekt waarin de gletsjer zich ver had teruggetrokken. Die periodes, Holocene Optimum Events genaamd, lagen rond 9200 BP (before present), van 7450 tot 6650 BP en van6200 tot 5650 BP. De ELA ( Equilibrium Line Altitude), dat is de lijn waar accumulatie overgaat in ablatie, lag in die warme periodes 220 meter hoger dan momenteel. Bij gelijkblijvende neerslag betekent dat dat gedurende die ELA’s de zomertemperatuur ongeveer 1,8 °C hoger lag dan momenteel!

Op de figuur hieronder zijn een drietal ELA’s ingetekend: die van de Kleine IJstijd (ELA = 2720 m. hoogte), de referentie ELA van 1985 (ELA = 2820 m. hoogte) en de ELA van de 3 Holocene Optimum Events (ELA = 3040 m. hoogte). Ook zijn met grijstinten de lengte van de gletsjer weergegeven in de LIA (Little Ice Age), 1960, 1985 en gedurende de Holocene Optimum Events (HOE). Drie periodes in het Holoceen waarin het gemiddeld veel warmer was dan momenteel, zonder antropogene invloed. En met telkens weer een “herstel” daarna met lagere temperaturen en langere gletsjer.

 

Bron: Joerin et al 2007

In een recente publicatie van Goehring et al uit 2011 over de Rhonegletsjer concluderen de onderzoekers dat deze gletsjer gedurende het grootste deel van het Holoceen korter was dan momenteel. Dat beeld komt overeen met de data van andere Alpengletsjers en gletsjers in Scandinavië.

Bron: Goehring et al

Professor Oerlemans (Utrecht) noteert over de veranderingen in gletsjerlengte: " What we see from this data is that glaciers were growing through the 1700s, corresponding to the little ice age. After the Little Ice Age ended in the early nineteenth century, glaciers began to retreat. And they have retreated steadily all the way from the early 1800s today, though as this chart shows the glacial retreat has perhaps slowed down over the last fifty years.

So, yes, when the alarmists go to the glaciers and say the glaciers are retreating, they are correct. The glaciers have been retreating in the last 20 years. And they were retreating in 1950 and they were retreating in 1920 and they were retreating in 1900 and they were retreating in 1850. It's a trend that has gone on for nearly 200 years.

To believe that the current retreat of glaciers is due mainly to man-made global warming, you have to believe that somewhere right here, say around 1950, some natural process that had been causing the glaciers to melt for over 100 years just halted. The natural process halted and at exactly the same time, man-made CO2 took over and kept glaciers retreating at the exact same pace. Or you could just apply Occam's razor and say that the entire 150 year trend has nothing to do with man and is a natural result of the recovery from the little ice age
."


Tot slot nog iets over de zeespiegel. In Den Helder wordt al sinds jaar en dag de hoogte van de zeespiegel bijgehouden. Op de site van Rijkswaterstaat is via de webapplicatie Waterbase deze meetreeks van jaar tot jaar tot in detail te volgen.

Op onderstaande grafiek is zijn de maandelijkse gemiddelde zeehoogten in Den Helder weergegeven van 1865 tot 2000. In die periode is de relatieve zeespiegelstijging 14,4 cm/eeuw. Ongeveer 5 cm van deze stijging komt voor rekening van bodemdaling in Noord Nederland als gevolg van het opveren van Scandinavië na de laatste ijstijd. Dat betekent dat de eustatische zeespiegelstijging in Den Helder tussen 1865 en 2000 neerkomt op ongeveer 9 cm/eeuw. Voor een periode van 80 jaar (de leeftijd van de Afsluitdijk) is de relatieve zeespiegelstijging ongeveer 11,5 cm. Geen versnelling zichtbaar. Daarmee is de gemiddelde stijging van de zeespiegel in Den Helder lager dan de globale zeespiegelstijging. Die wordt tussen 1900 en 2000 geschat op 18 cm.

Bron: Hans Erren

Hieronder is de zeespiegelstijging gedurende het Holoceen weergegeven.

Bron: wikipedia

Bij uitvergroting van deze grafiek van het recentste stuk, van 1882 tot 2005, is te zien dat de gemiddelde zeespiegelstijging 18 cm/ eeuw is, en dat er van een versnelling geen sprake is. De data voor de grafiek komen van het National Oceanography Centre in Southampton.

Bron: NOCS

Wanneer we inzoomen op de recentste (1993 – 2012) zeespiegeldata van de satellieten Topex en Jason-1 en -2, dan is ook hier geen sprake van een versnelling. Opmerkelijk: de laatste paar jaar toont de zeespiegelstijging zelfs een afvlakking, wellicht als gevolg van de afname van de warmte-inhoud van het bovenste deel van de oceanen. In een eerdere bijdrage is daar al over geschreven.


Bron: University of Colorado
 

Reinier van den Berg schrijft, vooruitlopend op zijn lezing op de KNAG bijeenkomst van 8 december a.s.: “Te midden van onzekerheden zijn er wel degelijk een paar grote zekerheden. De aarde warmt op, het ijs smelt steeds sneller, en de zeespiegel reageert als verwacht, en stijgt dus steeds sneller. “. Ik denk dat ik wel mag concluderen dat Reiniers ‘grote zekerheden’ op zijn vriendelijkst gezegd ‘grote onzekerheden’ zijn. In elk geval zijn ze suggestief. Ik ben benieuwd naar zijn verhaal op 8 december.
 


23-11-2011

Climategate revisited

Het kwam gisterenavond als een donderslag bij heldere hemel: de compromitterende emails van wat climategate is gaan heten hebben een vervolg gekregen. De Russische site die in 2009 een enorme hoeveelheid soms beschamende emails tussen de gevestigde klimaatwetenschappers heeft gepubliceerd, heeft blijkbaar de helft (?) achtergehouden. Het tweede deel is gisteren gepubliceerd, een deel daarvan achter een tot nu toe niet gekraakt wachtwoord.

Er wordt al veel over geschreven, vandaar dat ik dat niet hier ga herhalen. Voor de geinteresseerden hier 2 links die van belang zijn en hot news leveren:

Whatsupwiththat , voor recente ontdekkingen en commentaren, en

zoekdatabase, waar u met een zoekopdracht kan zoeken in de emails.

Natuurlijk is grasduinen in andermans emails niet netjes, maar het doel heiligt hier de middelen. Een aantal gevestigde klimatologen heeft willens en wetens informatie en data achtergehouden die niet in hun alarmistische straatje van pas kwam. Bovendien zijn kritische publicaties tegengehouden door gebruik te maken van het vriendennetwerk. Kortom: lijkt nog erger te stinken dan gedacht.
 


20-11-2011

Het UHI-effect deel 3

In de vorige aflevering over UHI van 15 november j.l. is het rapport van het BEST-team over de invloed van UHI op de globale temperatuurreeks aan de orde geweest. De gebruikte methode is toen beschreven: op basis van een ruimtelijke classificatie van MODIS satellietdata is geconstateerd dat UHI geen noemenswaardig effect heeft op de wereldtemperatuur. Die constatering doet vreemd aan. De veronderstelde temperatuurtrend op het land van de afgelopen decennia wordt geschat op 0,2 °C per decennium ( IPCC 2001, Santer et al 2000, Jones en Moberg 2003). Tegelijk geven de satellietmetingen en de sondemetingen veel lagere en soms zelfs negatieve waarden , variërend van -0,02 tot + 0,06 °C ( Christy et al, 2003).


Bron: Christy et al


Bovendien is er veel aan de hand met de kwaliteit van de locatie van meetstations. In de bijdrage van 7 november j.l. is daar op in gegaan: 70,6% van de officiële meetstations in de USA vallen in de klassen 4 en 5, dat wil zeggen hebben een meetfout van ≥ 2 °C respectievelijk ≥ 5 °C als gevolg van een niet optimale locatie.


 
 

Bron: Watts

Het is al lang bekend dat er allerlei factoren zijn die de meting kunnen beïnvloeden. Een daarvan is de keuze van de verfsoort aan de buitenkant van een Stevensonhutje, een nog steeds veel gebruikte behuizing voor thermometers. Zie de figuren hier boven.

Een ander is de invloed van de ruimtelijke variatie van de natuurlijke omgeving waardoor een juiste keuze van meetlocatie erg belangrijk wordt. Bekend is het onderzoek naar de meetopstelling op Spitsbergen. De effecten van de topografie op temperatuurmetingen zijn al langer bekend.




Bron: climate4you

Tussen 2003 en 2006 steeg de gemiddelde jaarlijkse luchttemperatuur van -6,1 °C naar -1,7 °C, een stijging van maar liefst 4,4 °C. Uiteraard werd dit onmiddellijk toegeschreven aan het versterkt broeikaseffect. Op de foto en grafiek hiernaast is te zien wat de werkelijke oorzaak was. Het officiële meetstation is gelegen naast het vliegveld , op een steenworp afstand van de baai. Het tweede meetpunt is gelegen op de fjell. Tussen 2003 en 2006 is de baai ’s zomers ijsvrij geweest, wat een groot effect had op de temperatuurmetingen direct naast het open water. Het ijsvrij worden van de baai is een periodiek voorkomend verschijnsel, en heeft te maken met de overheersende windrichting in de betreffende zomer. Conclusie: het is zeer belangrijk, ook in een rurale omgeving, waar het meetstation gepositioneerd wordt.

De resterende factoren vallen samen te vatten onder sociaal-economische factoren zoals BBP/inwoner, bevolkingsdichtheid, gemiddeld inkomen, en het daaraan gekoppelde grondgebruik. Laten we dit externe factoren noemen. Dat zijn alle menselijke factoren die van invloed zijn op de temperatuurmetingen. In de vorige bijdrage van 15 november j.l. zijn dat de 6 factoren die samen UHI veroorzaken.

De organisaties die zich bezighouden met globale temperatuurdata en de meetreeksen naar buiten brengen passen technieken toe om dergelijke sociaal-economische factoren te minimaliseren. Dat zijn de zogenaamde homogenisatietechnieken. In vroegere bijdragen is daar al eens uitgebreid bij stil gestaan. Zie hiervoor Onder De Feiten het hoofdstuk over de temperatuur in De Bilt. Als de homogenisatie goed is verricht dan zal het ruimtelijk patroon van de gemeten temperatuurtrends niet correleren met die van de externe factoren die de temperatuur kunnen beïnvloeden. Andersom is ook waar: als men gebruikt maakt van ruwe data (niet gehomogeniseerd) dan is te verwachten dat er wel een verband is tussen externe factoren en het ruimtelijk patroon van temperatuurtrends.

Om aan te tonen dat de conclusie van het BEST-team , het ontbreken van een uhi signaal in de temperatuurtrends, in de wetenschap door velen niet gedragen wordt, laat ik hier een aantal recente, peer reviewede publicaties volgen die wel een uhi signaal ontdekten. Bovendien is het interessant te zien op welke verschillende wijzen men tot diezelfde conclusie gekomen is.


Thomas Karl et al (1988) beschreef het verband tussen de mate van bevolkingstoename (Time Rate of Change Method) tussen 1901 – 1984 in 1284 plaatsen in de USA en de temperatuurtrend. Men vond zelfs een UHI in nederzettingen met minder dan 10.000 inwoners.

De bevindingen waren overeenkomstig andere onderzoeksconclusies: door UHI dalen de maximum temperaturen en stijgen de minimum temperaturen, en dat het sterkst in grote steden. Zie de tabel hieronder.


Bron: Karl et al

Chagnon toonde in een opmerkelijke publicatie in 1999 aan dat er in plaatsen in Illinois die gekwalificeerd waren als ruraal in de periode 1889 – 1951 sprake was van een opwaartse trend in de luchttemperatuur, en vergeleek die met de temperatuur van de bodem op 0,91 m diepte. De stijging van de bodemtemperatuur bleef 0,2 °C achter bij de gemeten luchttemperatuur in de rurale meetpunten van het American Historical Climate Network, ook al waren die reeksen gehomogeniseerd voor UHI. Hij toonde aan dat die extra opwarming het gevolg was van UHI.

Chagnon noteert: “This value is larger than the adjustment based on population that has been recommended to eliminate the urban bias in long-term temperature trends in the U.S. Collectively, the results suggest that additional efforts may be needed to eliminate the urban influence on air temperatures, beyond techniques that simply use population as the basis. Population is only an approximation of urban factors affecting surface temperatures, and the heat island influences inherent in the values from weather stations in smaller communities which have been used as control, or data assumed to be unaffected by their urban environment in the adjustment procedures, have not been adequately accounted for.”

En: "Both sets of surface air temperature data for Illinois believed to have the best data quality with little or no urban effects may contain urban influences causing increases of 0.2°C from 1901 to 1950. This could be significant because the IPCC (1995) indicated that the global mean temperature increased 0.3°C from 1890 to 1950."


Bron: Chagnon


Böhm bestudeerde UHI in Wenen in de periode 1951-1995. De stad heeft een nulgroei gedurende die periode: een stagnerende bevolking van ongeveer 1,6 miljoen. Ondanks de stagnerende bevolking van ongeveer 1,6 miljoen in Wenen constateert Böhm dat er een forse stijging van UHI is geweest in de betreffende periode. De onderzoeker vergelijkt 34 temperatuurregistratie stations in het studiegebied van 1450 km 2 . , waarvan 3 rurale, die gebruikt werden als referentieserie voor de stedelijke meetpunten. De extra opwarming in Wenen varieerde van site tot site: van 0,2 °C in voorstedelijke gebieden tot 1,6 °C in dichtbebouwde gebieden.

In de bestudeerde periode zijn de sociaal-economische en ruimtelijke ontwikkeling in Wenen doorgegaan. Zo verdubbelde de totale vloeroppervlakte, het totale energieverbruik werd meer dan verdubbeld,en de verkeersintensiteit nam met 60% toe. Daar tegenover stond een afname van het bosoppervlak met 20% en grasland nam binnen de stadsgrenzen met 30% af.

Böhms conclusies zijn mijns inziens zeer waardevol voor alle studies naar UHI: “The Vienna case study illustrates two features of more than local interest which should be considered in urban climatology as well as in time series studies where the urban temperature excess is regarded as a bias. Firstly, in a city with constant population the urban heat excess shows significant to strongly significant trends of up to 0.6 K in 45 years due to changes in urban morphology and energy consumption. Secondly, the urban heat island and its trend cannot be regarded simply for the city as a whole. There are different absolute levels, different annual variations and different increases of the urban temperature excess in different parts of a city. The urban effect is more strongly influenced by the local surroundings of the site than by the city as a whole. So, if possible, urban heat islands should not be described by a two station approach only (the typical airport-downtown comparison), nor should it rely on regression between population number and heat island.”.



Bron: Böhm

Kalnay et al deden in 2003 een onderzoek naar UHI in het oostelijk deel van de USA. Ze vergeleken de gemeten oppervlaktetemperaturen tussen 1950 en 2000 met de zogenaamde NNR data. NNR staat voor NCEP – NCAR 50-year Reanalyses, een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. In de figuren hieronder is het verschil tussen de gemeten waarden en de NNR-waarden voor de stad Baltimore weergegeven. Beide signalen hebben een hoge correlatie, met een correlatiecoefficient van meer dan 0,9. Zoals te zien is lopen die waarden steeds verder uiteen. In de jaren ’90 loopt het verschil tussen de gemeten waarden (met UHI) en de NNR-waarden op tot 1,4 °C.


Bron: Kalnay

Kalnay et al komen uit op een externe opwarming vanwege veranderend grondgebruik en urbanisatie van 0,27 °C per eeuw.


Een interessante methodiek hanteerden twee Nederlandse onderzoekers, Jos de Laat en Ahilleas Maurellis, in hun publicatie uit 2004. Ze gebruikten industriële CO2-emissies als proxy voor de antropogene invloed op temperatuurtrends voor de periode 1979 – 2001. Voor de temperatuurdata gebruikten ze zowel satellietdata ( MSU) als gronddata (CRU). De CO2-emissiedata kwamen van de EDGAR CO2 emissions database en vormen een maat voor de industrialisatiegraad. Met behulp van een “ spatial thresholding trend technique ” analyseerden ze de correlatie tussen antropogene processen zoals veranderingen in bodemgebruik, albedo, bodemvochtigheid grondwaterstand, lichtadsorptie door roet en energiegebruik, en de temperatuur aan het aardoppervlak en in de onder-troposfeer.


De Laat et al concluderen dat er een sterke ruimtelijke correlatie is tussen de temperatuurtrends in de ondertroposfeer en de CO2-emissies. Bijvoorbeeld: regio’s met een CO2-emmisie van meer dan 1 Tg/jaar vallen sterk samen met die regio’s waar de MSU ondertroposfeer metingen een snelle stijging vertonen. Die gebieden beslaan zo’n 15% van het aardoppervlak. Interessant is dat verreweg het grootste deel van de CO2-emissies plaatsvinden op gematigde breedten op het noordelijk halfrond, zodat verwacht mag worden dat het noordelijk en zuidelijk halfrond verschillende temperatuurtrends weergeven. Het IPCC rapport uit 2001 gaf inderdaad voor de periode 1976 – 2000 een LSAT (land surface air temperature) trend voor het NH van 0,31 °C/decennium en voor het ZH 0,13 °C/decennium. Dat verschil tussen beide halfronden, 0,18 °C, was aanzienlijk groter dan in de periodes 1910 – 1945 en 1946 – 1975, toen het 0,06 °C was. Overigens was de gevoeligheid van de oppervlaktetemperatuur voor CO2-emissies in 2 gebruikte klimaatmodellen niet terug te vinden, een omissie van de modelbouwers!



In 2006 hebben ze robuustheid van hun eerste onderzoek uit 2004 onderzocht. Resultaat: de conclusies uit het eerste onderzoek staan als een huis. Antropogene processen die niet gelieerd zijn aan het broeikaseffect hebben een aanzienlijk aandeel in de temperatuurveranderingen aan het aardoppervlak. In bovenstaande grafieken is het verband te zien tussen CO2-emissie en de temperatuurtrend in °C/decennium voor de satellietmetingen in de ondertroposfeer (MSU) en de gemeten oppervlaktetemperaturen van CRU.


McKitrick en Michaels hebben in 2007 een onderzoek gepubliceerd over externe factoren die de temperatuur beïnvloeden. Ze gebruikten daarbij een relatief groot aantal variabelen zoals in onderstaande tabel te zien is.

Het onderzoek betreft de periode 1979 – 2002 werd uitgevoerd op het niveau van rastercellen met een grootte van 5° x 5°. De resultaten zijn overduidelijk: externe factoren verhogen op veel plaatsen de gemeten temperaturen. Zoals reeds eerder naar voren kwam is dat effect veel sterker bij oppervlaktemetingen dan bij satellietmetingen. Na homogenisatie voor de externe effecten ziet de verdeling van de temperatuurtrends er uit zoals de onderste grafiek:



Op globaal niveau is te zien dat voor de meeste rastercellen geldt dat er sprake is van een extra opwarming door externe antropogene factoren zoals veranderend grondgebruik en andere sociaal-economische factoren.


Fall et al (2011) baseren zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDC het Climate Reference Network Handbook uit 2002 zijn we al in een eerdere bijdrage tegengekomen en ziet er als volgt uit:


De onderzoekers zijn geïnteresseerd in het antwoord op de vraag of en in welke mate de temperatuurtrends van de slechtst gelokaliseerde stations afwijken van de beste. Daarvoor maken, net zoals Kalnay (hierboven beschreven) gebruik van NCEP reanalyses data, een methode op basis van een statistische combinatie van 6-uurs-metingen en voorspellingen. De aldus verkregen gegevens zijn vrij van externe invloeden op de temperatuur. De gebruikte methode OMR (observation minus reanalysis) is gebaseerd op het feit dat de data van NCEP reanalyses volkomen onafhankelijk zijn van de meetdata van USHCNv2 temperatuur meetgegevens. Deze methode scheidt externe effecten van opwarming vanwege het broeikaseffect. Op basis van de verkregen resultaten kunnen conclusies getrokken worden over de lokale externe effecten op de verkregen temperatuurreeksen.

 


De onderzoekers bekeken 2 periodes: 1979 – 2008 en 1895 – 2009. Voor beide periodes zijn aanzienlijke afwijkingen gevonden bij met name de slechtst geplaatste stations: gemiddelde dagtemperaturen zijn te laag en de gemiddelde nachttemperaturen zijn veel hoger dan bij de best geplaatste stations. Zie de figuur hierboven. De CRN5 stations (de slechtste categorie) zijn gemiddeld 0,7 °C warmer dan de 2 beste categorieën.

Resumerend mag gesteld worden dat de invloed van externe antropogene factoren op de temperatuurmetingen tamelijk complex is. De diverse hiervoor genoemde studies geven aan dat er grofweg op een tweetal ruimtelijke schaalniveaus invloeden te verwachten zijn op temperatuurmetingen. Dat is in de eerste plaats het UHI in zijn klassieke gedaante van grootstedelijke of industriële complexen die vanwege hun fysieke geaardheid dan wel grote energieverbruik een opwarmend effect hebben op een groter gebied. Het andere, meer lokale effect is de invloed op individuele meetstations van de nabijheid van asfalt, gebouwen et cetera, waardoor meetwaarden zeer sterk beïnvloed kunnen worden. Dat laatste lokale effect doet zich zowel in urbane als in rurale regio’s voor.

Sommige van bovenbeschreven methodes zijn verfijnd en geperfectioneerd. Daarmee vergeleken is de methode die het BEST- team hanteerde tamelijk grof, namelijk gebaseerd op slechts 1 parameter. Bovendien is de indeling zeer ruraal versus de rest discutabel, en is geen rekening gehouden met lokale omstandigheden. Dat lokale omstandigheden zelfs in een 'very rural' omgeving tot dramatische temperatuursstijgingen kunnen leiden laat ik graag een volgende keer zien.
 


16-11-2011

Professor Pier Vellinga door de bocht

Dat Pier Vellinga van de Universiteit Wageningen het soms niet zo nauw neemt met meetgegevens is hier al eens eerder onderwerp van bespreking geweest. Vellinga heeft een boodschap te verkondigen, en dan heiligt het doel klaarblijkelijk de middelen.

Gisteren was het weer zo ver. In de aardige televisiereeks over de Waddenzee mocht Vellinga iets vertellen over de zeespiegelstijging en uiteraard de gevaren daarvan in het kader van de door hem gevreesde opwarming. Die uitzending kan hier bekeken worden.


Bron: NCRV uitzending gemist


Op het screenshot hierboven geeft Vellinga aan hoe groot de zeespiegelstijging is geweest in de Waddenzee vanaf de oplevering van de Afsluitdijk in 1932. Ik schat de afstand tussen zijn handen op ongeveer 60 cm. Dat leek met wat overdreven.

In Den Helder wordt al sinds jaar en dag de hoogte van de zeespiegel bijgehouden. Op de site van Rijkswaterstaat is via de webapplicatie Waterbase deze meetreeks van jaar tot jaar tot in detail te volgen.

Op onderstaande grafiek is zijn de maandelijkse gemiddelde zeehoogten in Den Helder weergegeven van 1865 tot 2000. In die periode is de relatieve zeespiegelstijging 14,4 cm/eeuw. Ongeveer 5 cm van deze stijging komt voor rekening van bodemdaling in Noord Nederland als gevolg van het opveren van Scandinavië na de laatste ijstijd. Dat betekent dat de eustatische zeespiegelstijging in Den Helder tussen 1865 en 2000 neerkomt op ongeveer 9 cm/eeuw. Voor een periode van 80 jaar (de leeftijd van de Afsluitdijk) is de relatieve zeespiegelstijging ongeveer 11,5 cm.


Bron: Hans Erren

Uit een rapport van Shell uit 2006 betreffende gaswinning in de Waddenzee komt de volgende grafiek. Het betreft de gemiddelde zeespiegelhoogte in Den Helder van 1870 tot 2005. Shell komt op een relatieve zeespiegelstijging van 22,4 cm/eeuw inclusief een waargenomen versnelling gedurende de laatste decennia. De oranje lijn zou de mondiale zeespiegelstijging weergeven. Voor een periode van 80 jaar betekent dit een stijging van ongeveer 18 cm.


Bron: Shell

Conclusie: Vellinga neemt het hier niet zo nauw met de waarheid: hij overdrijft de zeespiegelstijging de afgelopen 80 jaar met een factor 3 tot meer dan 5, afhankelijk van de gebruikte meetreeks. Dat is wel een hele ruime marge voor een wetenschapper.
 
15-11-2011

Het UHI-effect deel 2

Van diverse kanten is me gevraagd om, voorafgaande aan de methodologische vergelijking van het BEST-rapport met andere publicaties, wat te schrijven over het UHI in het algemeen. Met andere woorden: wat is het UHI eigenlijk?

UHI ( urban heat island ) is het verschijnsel dat een stedelijk gebied warmer is dan zijn omgeving. Het verschijnsel is ’s nachts vaak sterker dan overdag, en sterker bij lagere windsnelheden als gevolg van afgenomen turbulentie die menging met hogere luchtlagen verhindert. Steden zijn warmer dan hun omgeving, maar er valt ook meer neerslag, de windsnelheden zijn gemiddeld lager en de hoeveelheid inkomende zonnestraling is lager. In Nederland spreken we van een stadsklimaat. Ik ben voorstander van het gebruik van Nederlandse begrippen als dat mogelijk is, maar vanwege de overstelpende hoeveelheid Engelstalige literatuur over het onderwerp zal ik de afkorting UHI gebruiken.

De oorzaken van UHI zijn:

1) De verminderde afkoeling als gevolg van verminderde evapotranspiratie. Verdamping is laag als gevolg van een snelle afvoer van neerslagwater in bijvoorbeeld rioleringen. Maar ook het feit dat er in stedelijke gebieden veel minder vegetatie is vermindert de verdamping. Verdamping is, samen met convectie , de belangrijkste manier om warmte aan het aardoppervlak af te voeren naar boven. Opwarming als gevolg van verminderde evapotranspiratie is goed te zien in onderstaande beelden van New York:

 


Bron: Wikipedia

Onderstaande figuur geeft de relatieve evapotranspiratie weer van Greater Manchester:

 


Bron: Gill et al 2007

2) De afgifte van warmte door gebouwen, auto’s, treinen et cetera die het gevolg is van warmtebronnen binnen in deze objecten. De totale hoeveelheid energie die op deze wijze wordt gegenereerd kan oplopen tot 1/3 van de ontvangen hoeveelheid energie ontvangen door zonnestraling.

3) De afgifte van warmte door de bebouwde omgeving in de vorm van geleiding als gevolg van de veelal goede geleidende eigenschappen van stenen, asfalt en beton in vergelijking met vegetatie. De figuur hieronder is een warmteopname van de stad Atlanta. De zwarte platte daken hebben de hoogste temperaturen, zijkanten van gebouwen die in de schaduw liggen zijn aanmerkelijk koeler.
 


Bron wikipedia

4) de structuur en bouw van de gebouwen waardoor zonlicht als het ware ‘gevangen’ wordt tussen gebouwen en in gebouwen. Zonlicht reflecteert meerdere malen tussen vertikale wanden van gebouwen, grote glasoppervlakken ‘vangen’ zonlicht.

5) De soms tot grote hoogte reikende gebouwen breken de wind wardoor het mengen van de warme onderste luchtlagen met de koelere bovenlucht vermindert. In onderstaande satellietbeeld is de multinodale UHI van de stad Atlanta te zien.
 


Bron: Icecap.us

6) Metabolische warmte die uitgestraald wordt door de inwoners van een stad. In een metropool gaat het om miljoenen mensen.

Terug naar het UHI-rapport van het BEST-team, genaamd "Influence of Urban Heating on the Global Temperature Land Average using Rural Sites identified from MODIS Classifications".

De vraag was of UHI voor een versterkte toename van de temperatuur op aarde heeft gezorgd. Of anders gesteld: is door UHI de temperatuurstijging op het land vanaf 1950 van 0,9 °C zoals door het team vastgesteld te hoog?

De methode die het team heeft gehanteerd is de volgende. De gebruikelijke mores bij onderzoek naar de relatie tussen de globale temperatuurreeks en UHI is het vinden van een methode voor classificatie van ruimtelijke ongelijkheid op basis van voor UHI relevante factoren. In het geval van het BEST rapport is die factor de stedelijkheid van de omgeving van meetstations.

De onderzoekers van BEST maken gebruik van de dataset van MOD500. MOD500 is een dataset die bodemgebruik op aarde classificeert met een resolutie van 500 x 500m. De data zijn afkomstig van het instrument MODIS, dat zich aan boord bevind van de satellieten Aqua en Terra. MODIS scant de aarde in 36 banden met een golflengte tussen de 0,4 µm en 14,4 µm. Het team van prof. Annemarie Schneider van de University of Wisconsin-Madison heeft op basis van deze data de zgn. ‘Global maps of urban extent from satellite data’ gemaakt.


Bron: Schneider et al

Daarbij wordt het bodemgebruik op aarde ingedeeld in een zeventiental klassen:

1 Evergreen Needleleaf Forest
2 Evergreen Broadleaf Forest
3 Deciduous Needleleaf Forest
4 Deciduous Broadleaf Forest
5 Mixed Forests
6 Closed Shrublands
7 Open Shrublands
8 Woody Savannas
9 Savannas
10 Grasslands
11 Permanent Wetlands
12 Croplands
13 Urban Areas
14 Cropland - Natural Vegetation Mosaic
15 Snow and Ice
16 Barren or Sparsely Vegetated
17 Water Bodies

Klasse 13 is hier uiteraard van belang: het betreft de urban areas. Alle andere klassen vallen onder non urban areas. De onderzoekers schrijven over de gebruikte data: “It may provide a criterion that is less socio-economically biased than night lights data, therefore it offers an alternative to the approach used by GISS.”. Men verwijst hier naar de methode die GISS hanteert om datareeksen te homogeniseren t.a.v. het UHI. Zie hiervoor deze publicatie.
 


Bron: GISS

Om het UHI effect te elimineren in temperatuurreeksen gebruikte GISS tot voor kort een methode die gebaseerd was op vergelijking van een urbane temperatuurreeks met een van een ruraal station binnen een straal van 1200 km verwijderd vanaf het urbane station. Voor De Bilt was dat rurale referentiestation gelegen in Zuid-Duitsland (sic). Sinds kort maakt GISS gebruik van een methode waarbij men met behulp van nachtelijke lichtuitstoot de mate van urbanisatie vaststelt. Zie de figuur hierboven.

De keuze van het BEST-team voor een classificatie op basis van non-sociaaleconomische criteria is aanvechtbaar, later hierover meer. De onderzoekers merken op dat voor een aantal meetstatiions het onduidelijk is waar ze exact gelokaliseerd zijn, zodat ze niet inpasbaar zijn binnen de resolutie van MOD500. De indeling urbaan-ruraal is daarom moeilijk toepasbaar. Als oplossing gebruikt men daarom de indeling very rural-not very rural. De very rural sites zullen vrij van urbane invloeden zijn schatten de onderzoekers. Van de 39.028 meetstations zijn 16.132 very rural. In de USA is dat 18% van het totaal aantal meetstations.

 



Bron: BEST

De volgende stap is het analyseren van de lineaire trendlijnen van alle stations van beide klassen. Deze kunnen positief dan wel negatief zijn. 67% is positief, 33% negatief.

In onderstaande tabel is de verdeling over beide klassen (very rural – not very rural) weergegeven:


 


Bron: BEST

Wat opvalt is dat de trendlijnen van de very rural stations zelfs een beetje negatiever zijn dan van alle stations en dus ook van de not very rural stations. De onderzoekers: “There is a statistically significant difference between the median of the complete data set and the very rural subset. The value for the difference, -0.10 ± 0.06 °C/100yr, is in the opposite direction expected from urban heating.

Conclusie van de onderzoekers: “The trend analysis also supports the view that the spurious contribution of urban heating to the global average, if present, is not a strong effect; this agrees with the conclusions in the literature that we cited previously.”

Zoals eerder gesteld staat deze conclusie haaks op de uitkomsten van diverse recente publicaties over het UHI, zoals van de Laat & Maurellis uit 2004 en 2006, McKitrick/Michaels uit 2007, Spencer uit 2010 en Fall et al uit 2011. Daarover een volgende keer meer.

 
7-11-2011

Het UHI volgens het BEST-team deel 1

Het BEST-team heeft een van haar rapporten gewijd aan het Urban Heat Island-effect. Dit effect beschrijft onder andere de hogere temperaturen in steden in vergelijking met het omliggende platteland. Een goede inleiding op dit onderwerp is te vinden op de Engelstalige Wikipedia.

In onderstaand diagram is het UHI-effect (stadsklimaat) te zien voor Tokyo: ongeveer 2°C/eeuw.


Bron: BEST

Minder dan 1% van de totale oppervlakte van de aarde is te beschouwen als urbaan (stedelijk), terwijl 27% van het thermometernetwerk van het GHCN-M ligt in urbane gebieden met minstens 50.000 inwoners. Als men hiermee geen rekening houdt zullen gemiddelde temperatuurdata van grote regio’s en de aarde hoger uitvallen dan ze in werkelijkheid zijn. Daarom is het nodig om het UHI-effect te kwantificeren.

Het BEST team heeft in haar eerste rapport berekend dat de gemiddelde temperatuur op het land tussen 1950 en 2010 is gestegen met 0,911 °C. HadCrut stelt de globale opwarming van de aarde tussen 1900 en 2000 op 0,7 °C , het IPCC schat de globale opwarming tussen 1956 en 2005 op 0,64°C. Als we dit laatste getal combineren met de BEST-waarde van 0,911°C voor het land, dan is de stijging van de temperatuur boven de oceanen (71% van het aardoppervlak) in die periode dus grofweg 0,5°C geweest.

BEST analyseerde de temperatuurdata van de ruim 39.000 bekeken weerstations door de stations te verdelen in ‘very rural’ en ‘not very rural’ op basis van de MODIS 500m Global Urban Extent classification map. Deze indeling is gebaseerd op de hoeveelheid bebouwde oppervlak (gebouwen, man-made opppervlakken). Voor een gedetailleerde weergave van de gebruikte methode zie het rapport. Ik kom er in een later stadium nog op terug. Op basis van deze indeling is 18% van de stations in de USA very rural. Daarna berekende men voor elk station een trendlijn. De helling daarvan is positief (opwaarts) dan wel negatief. Conclusie: 67% van de trendlijnen is positief, 33 % negatief.


Bron: BEST

In bovenstaande tabel zijn de resultaten weergegeven. Alle stations geven een gemiddelde opwarming van 0,98°C te zien. Wat opvalt is dat de rurale stations een grotere opwarming geven dan alle stations samen. Het verschil is -0,19 °C/eeuw. Dat is bijna niet significant vergeleken met de geconstateerde opwarming. Voor het team is deze uitslag duidelijk: het effect van UHI is nagenoeg verwaarloosbaar.

Het team besluit het rapport met de volgende woorden: “We note that our averaging procedure uses only land temperature records. Inclusion of ocean temperatures will further decrease the influence of urban heating since it is not an ocean phenomenon. Including ocean temperatures in the Berkeley Earth reconstruction is an area of future work. ” Tot zover de bevindingen van het BEST-team.

Wat is er op deze conclusie aan te merken? Toch wel het een en ander, lijkt me. Natuurlijk is het zo dat als je tot de conclusie komt dat het UHI-effect verwaarloosbaar klein is, dat deze conclusie niet verandert als je oceaandata toevoegt. Wel is het opvallend dat de stijging van de luchttemperatuur boven oceanen veel minder snel is geweest dan die boven de continenten. Het is een legitieme vraag of dit alleen toegedicht kan worden aan de fysieke verschillen tussen land en zee.

Maar er zijn ook meer inhoudelijke bezwaren tegen de conclusies in het BEST-rapport. Fred Singer zei met betrekking tot het rapport: “I suspect that the temperature records still are affected by the urban heat-island effect—a term given to any local warming, whatever its cause—despite efforts to correct for this. The urban heat-island effect could include heat produced not only in urban areas, but also due to changes in land use or poor station siting”.

Over dat laatste is de afgelopen jaren al het een en ander geschreven. Anthony Watts heeft met zijn surfacestations.org geweldig werk verricht door reeds meer dan 80% van meetstations van het USHGN meetnet in de USA te bezoeken en te classificeren.

Watts onderzoek geeft een ontluisterend beeld van de kwaliteit van veel meetstations. Hij baseert zich op de classificatie zoals die door NOAA wordt gehanteerd om de kwaliteit van een meetstation vast te stellen. Die classificatie in het NCDC Climate Reference Network Handbook uit 2002 ziet er als volgt uit:
 


Bron: NOAA

De indeling zelf is, als je deze nog niet eerder gezien hebt, enigszins onthutsend. Bestaan er inderdaad meetstations van de categorie 4 en 5, waarbij de meetfout respectievelijk ≥ 2°C en ≥ 5°C is? En dan te bedenken dat de hele discussie over de opwarming van de aarde gaat over een gemiddelde stijging van 0,7°C in de 20e eeuw.

Het antwoord op die vraag is positief. Watts heeft met 650 vrijwilligers op basis van bovenstaande NOAA classificatie tot nu toe meer dan 80% van de stations in het meetnet bezocht en ingedeeld. Het bizarre resultaat is hieronder te zien:


Bron: Anthony Watts

Bovenstaande kaart is uit de paper van Watts “Is the US Surface Temperature Record Reliable?” uit 2009, toen ruim 70% van de stations geclassificeerd was.

Inmiddels is dat opgelopen tot ruim 80%, en het beeld is niet veranderd. Ruim 70% van de onderzochte stations in de USA valt binnen klassen 4 en 5, met een afwijking van ≥ 2°C. In een cirkeldiagram ziet de procentuele verdeling van de 5 klassen er als volgt uit:


Bron: Anthony Watts

Wie wil griezelen moet eens bladeren in de gallery die Watts heeft samengesteld van de bezochte meetpunten.

Hieronder is een tweetal voorbeelden te zien van officiële USHCN meetstations die in de klasse 5 vallen. Naast de foto is steeds een infrarood opname te zien die een indicatie geeft van de infrarood (warmte-) straling in de directe omgeving van het meetpunt. De afbeeldingen komen uit Watts “Is the US Surface Temperature Record Reliable?”.


Bron: Anthony Watts

Hieronder staan voor beide meetstations de meetreeksen weergegeven. Het zijn GISS-plots van de USHCN data.

 

 

 

De data in beide reeksen vallen dus in klasse 5, met meetafwijkingen van ≥ 5°C. Het is eenvoudig te zien waarom dat hier logisch is. Wat opvalt is dat de meetreeks van Perry sinds 1940 geen stijgende (of dalende) trend vertoont, terwijl de meetreeks van Glenns Ferry vanaf ongeveer 1980 wel een stijgende trend vertoont.

Perry en Glenns Ferry liggen in 2 verschillende klimaatgebieden, ruim 2000 km hemelsbreed uit elkaar. Het is derhalve niet vreemd dat de meetreeksen een verschillende trend vertonen. Maar temperatuurmetingen worden ook beïnvloed door de microklimatologische omstandigheden, zeker als het klasse 5 meetpunten betreft. Als je via Google Earth inzoomt op het meetpunt in Perry, op de hoek van de North 8th Street en Delaware Street, dan valt op dat de meeteenheid midden in een stedelijk bebouwde omgeving ligt.


Bron: Google Earth


Bron: Anthony Watts


De bevolkingsomvang van Perry was in 2010 5126 inwoners, en dat inwonertal is de afgelopen decennia nauwelijks veranderd (US Census Bureau). Dat gegeven plus de relatieve ligging van het meetpunt en de beelden van Street View maken het aannemelijk dat de directe omgeving van het meetpunt al decennialang stedelijk bebouwd is geweest.

Zoomen we in op het andere meetpunt, Glenns Fery in Idaho, dan zien we een geheel andere situatie:


Bron: Google Earth


Bron: Anthony Watts

Het meetpunt ( rode x ) staat direct naast een tamelijk recent gebouw, dat onderdeel uitmaakt van een groter complex van bebouwing. In de onmiddelijke omgeving van de sensor is een grote transformator aanwezig. Het complex is het Oregon Trail History and Education Center, onderdeel van het Three Island Crossing State Park . Direct naast het gebouw ligt een grote parkeerplaats. Het gehele complex is de afgelopen decennia aangelegd. Het lijkt derhalve niet onaannemelijk dat de stijging van de temperatuurtrend althans gedeeltelijk het gevolg is van de verstening van de directe omgeving van het meetpunt.

In het algemeen is te verwachten dat er nabij de meeste meetpuntlocaties de afgelopen decennia eerder sprake zal zijn geweest van toenemende dan van afnemende urbanisatie en bebouwing. Cruciale vraag is natuurlijk in welke mate toenemende urbanisatie van invloed is (geweest) op de waargenomen mondiale temperatuursstijging. Afgezien van het rapport van BEST zijn er de afgelopen jaren nog enkele publicaties over dit onderwerp geweest . Daarover graag de volgende keer.
 

4-11-2011

Fred Singer reageert op BEST

Prof. Fred Singer, die onlangs nog het KNMI bezocht en daar een lezing gaf, heeft in de Wall Street Journal gereageerd op de rapporten van BEST (Berkeley Earth Surface Temperature). Fred Singer is emeritus professor aan de University of Virginia en directeur van het Science & Environmental Policy Project. Hij is gespecialiseerd in de natuurkunde van atmosfeer en ruimte.

Zijn betoog is me uit het hart gegrepen, vandaar dat is dit integraal hier afdruk:


Why I Remain a Global-Warming Skeptic
Searching for scientific truth in the realm of climate.
By FRED SINGER

" Last month the Berkeley Earth Surface Temperature Project released the findings of its extensive study on global land temperatures over the past century. Physics professor Richard Muller, who led the study, heralded the findings with a number of controversial statements in the press, including an op-ed in this newspaper titled "The Case Against Global-Warming Skepticism." And yet Mr. Muller remains a true skeptic—a searcher for scientific truth. I congratulate Mr. Muller and his Berkeley Earth team for undertaking this difficult task in the realm of climate.

The Berkeley study reported a warming trend of about 1º Celsius since 1950, even greater than the warming reported by the U.N.'s Intergovernmental Panel on Climate Change (IPCC). I disagree with this result, which perhaps makes me a little more of a skeptic than Mr. Muller.

Mr. Muller has been brutally frank about the poor quality of the weather-station data, noting that 70% of U.S. stations involve uncertainties of between two and five degrees Celsius. One could interpret the Berkeley study's results as confirmation of earlier studies and of the IPCC's conclusions, despite the poor quality of the stations used. But perhaps the issue is that the Berkeley study and the ones that came before suffer from common errors. I suspect that the temperature records still are affected by the urban heat-island effect—a term given to any local warming, whatever its cause—despite efforts to correct for this. The urban heat-island effect could include heat produced not only in urban areas, but also due to changes in land use or poor station siting. Therefore, I suggest additional tests:

1. Disassemble the "global average" temperature to get a better picture of what's going on regionally. This could involve plotting both the IPCC's and the Berkeley study's data only for tropical regions, separating the northern and southern hemispheres and testing for seasonal variation and differences between day and night.

2. Better describe what we can think of as the demographics of weather stations, a major source of possible error. The IPCC used 6,000 stations in 1970 and only about 2,000 in 2000. Let's examine their latitude, altitude and possible urbanization, and see if there have been major changes in the stations sampled between 1970 and 2000. For example, it is very likely that airports were used as temperature stations in both 1970 and 2000, because airport stations are generally of high quality. But airports are likely warming rapidly because of increasing traffic and urbanization. So if the number of airport stations remained constant at, say, 1,200 over that 30-year interval, the warming observed there might have increased between 20% and 60% over the same period of time, thereby producing an artificial warming trend.

3. The Berkeley study used a total of 39,000 weather stations, an impressive number. But again, we need to know if that number changed significantly between 1970 and 2000, and how the demographics of the stations changed—both for stations that showed cooling and for those that showed warming.

But the main reason that I am skeptical about the IPCC, and now the Berkeley, findings, is that they disagree with most every other data source I can find. I confine this critique to the period between 1978 and 1997, thereby avoiding the Super El Niño of 1998 that had nothing to do with greenhouse gases or other human influences.

Contrary to both global-warming theory and climate models, data from weather satellites show no atmospheric temperature increase over this period, and neither do the entirely independent radiosondes carried in weather balloons. The Berkeley study confined its findings to land temperatures as recorded by weather stations. Yet oceans cover 71% of the earth's surface, and the marine atmosphere shows no warming trend. The absence of warming is in accord with the theory that climate is heavily impacted by solar variability, and agrees with the solar data presented in a 2007 paper by Danish physicist Henrik Svensmark in the journal Proceedings of the Royal Society A.

Moreover, independent data using temperature proxies—various non-thermometer sources such as tree rings, ocean and lake sediments, ice cores, stalagmites, and so on—also support an absence of warming between 1978 and 1997. Coral data also show no pronounced warming trend of the sea surface, and there are good reasons to believe that reported sea-surface warming is an artifact of thermometer measurements.

The IPCC's 2007 Summary for Policy makers claims that "Most of the observed increase in global average [surface] temperatures since the mid-20th century is very likely [90-99% sure] due to the observed increase in anthropogenic greenhouse gas concentrations." While Mr. Muller now seems to agree that there has been such global average warming since the mid-20th century, he nonetheless ended his op-ed by disclaiming that he knows the cause of any temperature increase. Moreover, the Berkeley team's research paper comments: "The human component of global warming may be somewhat overestimated." I commend Mr. Muller and his team for their honesty and skepticism."

Ik kom binnenkort graag terug op het Urban Heat Island effect.


3-11-2011

BEST teamleider dr. Richard Muller verdedigt zich in een interview.

 

Richard Muller, teamleider van BEST (Berkeley Earth Surface Temperature) is openhartig in een interview voor een Amerikaanse zender.

Quotes:

I never said you shouldn’t be a skeptic. I never said that.”

Al Gore camp? That’s ridiculous…what I point out is that most of what appears in An Inconvenient Truth is absolutely either wrong, exaggerated, or misleading.”

Scientists will endorse Al Gore, even though they know what he’s saying is exaggerated and misleading. He’ll talk about polar bears dying even though we know they’re not dying…”.

That’s ridiculous. I mean, some people say I proved that there was no ClimateGate. No. NO! The ClimateGate thing was a scandal. It’s terrible what they did. It’s shameful the way they hid the data.”

Zie de interessante video’s met het interview hier en hier.
 


30-10-2011


BEST toch niet zo best…
 


Het team van BEST (Berkeley Earth Surface Temperature) dat enkele weken geleden zo trots naar buiten kwam met de conclusie dat “the science” eindelijk “settled” was, zal de afgelopen dagen met de billen samengeknepen naar de commentaren hebben geluisterd en gekeken.

Het uitbrengen van een samenvatting van de bevindingen op 20 oktober j.l. lijkt het resultaat van een strategische planning. Elisabeth Muller, een van de auteurs zegt in de summary:


Twee vliegen in een klap dus: sceptici de mond snoeren, en een prima media-opstapje voor de komende klimaattop in Durban. De vier studies betreffen: “1.Statistical Methods”, “2. Urban Heat Island”, “ 3.Station Quality” en “4. Decadal Variations”. Dit zijn de belangrijkste conclusies uit deze Berkeley-studies:


Opvallend is ook de volgende aankondiging:


Men is er dus al zeker van dat de 4 gepresenteerde studies geaccepteerd worden door de (peer reviewed) wetenschappelijke bladen waar ze naar toe gezonden zijn, en het is blijkbaar ook al 100% zeker dat de studies onderdeel gaan vormen voor het volgende rapport van het IPCC. Zo wordt dus zaken gedaan in klimatologenland!

De main stream media pikten het bericht van het Berkeley team feilloos op:


Richard Muller, de leider van het onderzoeksteam, figureerde meermaals in de media om de boodschap duidelijk te maken: de sceptici hebben het mis. In een interview met BBC Radio 4’s Today programma zei hij onder meer dat er geen sprake van was dat het afgelopen decennium de gemiddelde wereldtemperatuur geen stijging heeft vertoond.

Hieronder de grafiek uit het eerste rapport. De Berkeley datalijn lijkt inderdaad vanaf 2000 nog te stijgen. Ook is te zien dat de berkeleylijn samen met de NOAAlijn in het laatste decennium afwijken van de data van GISS (NASA) en Hadcrut (GB).


Dr. Benny Peiser heeft de Berkeley-data er zelf maar eens bijgepakt en in Excel geplot. En zie daar:



Ook de data van Berkeley vertonen , in tegelstelling tot wat Muller zegt, geen stijging meer het afgelopen decennium, ondanks de stijging van het atmosferisch CO2-gehalte.

Prof. Judith Curry, een van de onderzoekers van het Berkeley-team , was niet blij met de uitspraken van haar teamleider. In een interview met de Daily Mail zegt ze: ‘This is nowhere near what the climate models were predicting. Whatever it is that’s going on here, it doesn’t look like it’s being dominated by CO2.’

In een reactie zei Muller dat noch zijn claim dat er geen sprake was van een standstill noch de afgedrukte grafiek misleidend waren, omdat de data op de Berkeley website voorhanden zijn, zodat iedereen zijn eigen grafieken kan maken. Natuurlijk wel een beetje raar, als op basis van die data een grafiek tevoorschijn komt die de woorden van Muller weerlegt. Hij gaf echter toe dat de BEST data inderdaad suggereerden dat de wereldtemperatuur de afgelopen 13 jaar niet gestegen is. Maar in zijn optiek kan die stilstand best wel eens statistisch niet significant zijn, of juist wel.

Reactie van Curry: ‘I am baffled as to what he’s trying to do. Prof. McKittrick voegt daaraan toe: ‘You don’t look for statistically significant evidence of a standstill. ‘You look for statistically significant evidence of change.’.

Mail Online schrijft:

But although Prof Curry is the second named author of all four papers, Prof Muller failed to consult her before deciding to put them on the internet earlier this month, when the peer review process had barely started, and to issue a detailed press release at the same time.

He also briefed selected journalists individually. ‘It is not how I would have played it,’ Prof Curry said. ‘I was informed only when I got a group email. I think they have made errors and I distance myself from what they did. ‘It would have been smart to consult me.’ She said it was unfortunate that although the Journal of Geophysical Research had allowed Prof Muller to issue the papers, the reviewers were, under the journal’s policy, forbidden from public comment.

Prof McKittrick added: ‘The fact is that many of the people who are in a position to provide informed criticism of this work are currently bound by confidentiality agreements. ‘For the Berkeley team to have chosen this particular moment to launch a major international publicity blitz is a highly unethical sabotage of the peer review process.’

In Prof Curry’s view, two of the papers were not ready to be published, in part because they did not properly address the arguments of climate sceptics. As for the graph disseminated to the media, she said: ‘This is “hide the decline” stuff. Our data show the pause, just as the other sets of data do. Muller is hiding the decline. ‘To say this is the end of scepticism is misleading, as is the statement that warming hasn’t paused. It is also misleading to say, as he has, that the issue of heat islands has been settled.’

Prof Muller said she was ‘out of the loop’. He added: ‘I wasn’t even sent the press release before it was issued.’Prof Muller defended his behaviour yesterday, saying that all he was doing was ‘returning to traditional peer review’, issuing draft papers to give the whole ‘climate community’ a chance to comment.

As for the press release, he claimed he was ‘not seeking publicity’, adding: ‘This is simply a way of getting the media to report this more accurately.’ He said his decision to publish was completely unrelated to the forthcoming United Nations climate conference. This, he said, was ‘irrelevant’, insisting that nothing could have been further from his mind than trying to influence it.

Dus tenminste 1 van de auteurs wist niets van een publicatie, zegt dat 2 van de 4 artikelen nog niet rijp zijn voor publicatie, en dat het gebruik van de betreffende grafiek misleidend is. Wat begon als een geweldige publiciteitsstunt van klimatologen die ‘de goede zaak willen dienen’, en die de weg vrij moest maken voor een (onzalige) opvolger van het Kyoto-protocol, lijkt nu te eindigen in een volgend wetenschappelijk schandaal.

Ter afsluiting nog een interessante eigen uitdraai van de BEST data door Steve McIntyre. Het betreft de temperatuurdata van San Francisco vanaf 1950. Let op de sterke afkoeling vanaf 1984:


En hieronder gecombineerd met dezelfde data van GISS:



 
27-10-2011

Reactie op KNAW rapport

 


Onlangs heeft de KNAW een rapport het licht laten zien , getiteld “Klimaatverandering, wetenschap en debat”. Een aantal zaken in dit werkje wekt bevreemding, vooral als het gaat om de stelligheid waarmee sommige dingen als feiten geponeerd worden terwijl ze dat niet zijn. Hieronder ziet u de 7 samenvattende statements over het onderwerp, zoals verwoord door de KNAW:



Alleen statement b kan wat mij betreft door de beugel. Op alle andere is het een en ander aan te merken. Statement a laat meteen zien wat de koers is van de KNAW in de materie: het is ernst met CO2. C en d zijn waarschijnlijk niet onjuist, maar als statement alleen maar interessant indien deze gebruikt worden als ‘opwarmertje’ voor een komende drama. Statements e t/m g zijn alleen interessant voor diegenen die niet twijfelen aan de voorspellingen op basis van de huidige klimaatmodellen. Lezers van deze site weten intussen dat er – ook aan het front van klimaatwetenschappers – grote twijfels zijn over de juistheid van die modellen.

Een aantal mensen heeft de KNAW een brief geschreven naar aanleiding van het rapport. Die brief staat hieronder afgedrukt:

BRIEF AAN DE KNAW

17 oktober 2011

L.S.,

Ondergetekenden, wetenschappers en anderen die zich gedurende vele jaren in de klimaatproblematiek hebben verdiept, hebben met belangstelling kennis genomen van de brochure “Klimaatverandering, wetenschap en debat”, die vorige week door de KNAW is uitgegeven.

Wij zijn echter van mening dat deze brochure niet een juiste berichtgeving inhoudt over de stand van de kennis en betreffende het wereldklimaat. Daardoor is dit rapport naar onze mening niet geschikt als voorlichting voor het parlement, voor de pers of voor het algemene publiek. Wij vinden dat het belangrijk is om steeds goed onderscheid te maken tussen de volgende categorieën van kennis op dit gebied:

1. Kennis over zaken die voldoende door betrouwbare feiten worden gestaafd, zodat vrijwel iedereen het daarmee eens kan zijn.
2. Zaken waarover voldoende betrouwbare gegevens bestaan, doch die verschillend worden geïnterpreteerd. Op dit gebied bestaan serieuze controverses.
3. Kennis over de natuurlijke bronnen van klimaatverandering. Deze zijn door het IPCC lange tijd buiten beschouwing gelaten, omdat dit buiten hun expliciete opdracht viel. Deze luidde immers “om gegevens te verzamelen over de invloed van de mens op klimaatverandering”. En niet over de oorzaken van klimaatverandering zelf. Inmiddels is uit wetenschappelijk onderzoek gebleken dat er een aantal natuurlijke oorzaken is, waarvan het effect minstens gelijk is aan het veronderstelde broeikaseffect van CO2 of groter. Ook hierover bestaan ernstige controverses.
4. Gebieden waarover we beslist onvoldoende kennis hebben. Deze betreffen verschijnselen die tot nu toe onverklaard zijn gebleven. Velen hebben de neiging die dan te verwaarlozen. Ook dit is een bron van controverses.

Aldus is ons overwegende bezwaar tegen dit rapport dat het de misleidende indruk geeft over wat de hypothese is en op welke gronden deze stoelt.

Ad 1. In feite zijn er maar weinig zaken op het gebied van de mogelijke invloed van de mens op het klimaat die door voldoend betrouwbare feiten worden gestaafd. De belangrijkste is dat het CO2-gehalte van de atmosfeer in de loop van de laatste honderd jaar aanzienlijk is gestegen (van ongeveer 270-370 ppm).

Ad 2. Over de temperatuurstijging bestaan verschillen van inzicht. Het is een feit dat de gemiddelde wereldtemperatuur in de eerste 40 jaar van de vorige eeuw duidelijk is gestegen. Daarna is de temperatuur op grillige wijze op en neergegaan. Er is onvoldoende zekerheid over de nauwkeurigheid van de berekende gemiddelde wereldtemperatuur, waarbij locale temperaturen kunnen variëren van + 40 tot –70 graden Celsius.

In het KNAW-rapport wordt met stelligheid beweerd dat de temperatuur van de aarde stijgende is, terwijl de stijging sinds 1940 wellicht binnen de meetnauwkeurigheid valt.

Er wordt stilzwijgend uitgegaan van de zogenaamde “broeikastheorie”, die inhoudt dat de temperatuur van de atmosfeer moet stijgen naarmate het gehalte aan “broeikasgassen” (met name CO2) toeneemt. Dit effect is betrekkelijk klein.

Een tweede stilzwijgende aanname is dat de aanwezigheid van water en waterdamp leidt tot een positieve terugkoppeling, waardoor de temperatuurverhoging veroorzaakt door CO2 ongeveer een factor 3 wordt versterkt. Deze aanname is de basis van de IPCC-rapporten, maar is zeker niet voldoende wetenschappelijk onderbouwd. Verschillende gerenommeerde onderzoekers stellen juist dat waterdamp een negatieve terugkoppeling veroorzaakt.

Er wordt in het rapport gesteld dat de “fysica” van het broeikaseffect voldoende zeker is. Dit is inderdaad een populaire opvatting maar dit achten wij beslist onjuist. De theorie over de absorptie van infrarood door CO2 is aangetoond in het laboratorium, maar of deze werking zich in de atmosfeer significant manifesteert, is niet bevestigd.

De tweede theorie, betreffende de positieve terugkoppeling, is een hypothese, die niet gefundeerd is. Er bestaat zelfs een belangrijk argument tegen deze hypothese. Deze zou betekenen dat er een inherente instabiliteit van het wereldklimaat bestaat, waardoor bij een ernstige verstoring de temperatuur uit de hand zou kunnen lopen. Dit is voor zover wij weten in de ruim 4 miljard jaar dat de aarde bestaat en is afgekoeld, nog nooit gebeurd, ondanks de aanzienlijke verstoringen die zich hebben voorgedaan (vooral de inslag van asteroïden).

Bij een nadere studie van de energie-transportprocessen in de atmosfeer blijkt, dat hier een groot aantal verschijnselen gelijktijdig een rol speelt (zie bijlage), waaronder enkele die duidelijke negatieve terugkoppelingen veroorzaken. Het stralingseffect van CO2 is maar een van de vele effecten die een rol spelen. Veel onderzoekers zijn van mening dat er zo veel negatieve terugkoppelingen zijn dat van een broeikaseffect weinig overblijft. Dit is een belangrijk onderwerp waarover de meningen ernstig verschillen. Dit had in het rapport genoemd moeten worden.

Ad 3. De belangrijkste natuurlijke invloeden op het klimaat zijn de invloed van de wisselwerking van de zonnewind (die in de tijd sterk varieert) en de kosmische straling en daarnaast zijn de relatief sterke fluctuaties van de van de zon afkomstige UV-straling en de invloed van de oceaanstromingen, die eveneens in de tijd variëren, waarschijnlijk zeer bepalend voor het klimaat. Van overheersend belang is de invloed van het variërende wolkendek. Die laatste hangt samen met de eerste twee. In een rapport over klimaatverandering dienen deze punten vermeld te worden. Hun totale effect is waarschijnlijk groter dan het stralingseffect van CO2. In het rapport wordt het belangrijke onderzoek op dit gebied afgedaan als “speculaties”. Dat is onverantwoord.

Ad 4. Onder de zaken waarover we beslist onvoldoende kennis hebben noemen wij allereerst de stofbalansen voor CO2. Door de atmosfeer circuleert door natuurlijke oorzaken (verrotting van vegetatie, opwelling uit diepzee in de tropen, opname door vegetatie, terugkeer naar de diepzee aan de polen), ca 150 GtC/y. De humane emissie is ca 7 GtC/j. Van deze totale CO2-stroom die de atmosfeer binnenkomt wordt 98% door de natuur opgenomen. De 2% die overblijft zorgt voor de gemeten toename. Waarom die relatieve opname 98% is, en of die stijgende of dalende is, wordt nog niet begrepen. De opmerking dat van de menselijke emissie “de helft wordt geabsorbeerd” is onjuist.

Verder zijn de oorzaken van de variaties in de zonne-activiteit en in de oceaanstromingen onvoldoende begrepen. Dit geldt ook voor de wolkenvorming en het variërende wolkendek, dat van groot belang is voor het aardse klimaat. Deze zaken zijn natuurlijk van cruciaal belang als men uitspraken wil doen over toekomstige klimaatveranderingen.

Het Klimaatrapport is gebaseerd op een zeer onvolledig beeld van de klimaatproblematiek. De meeste van de zeven “Samenvattende statements” zijn daarom onhoudbaar en zelfs onverantwoord. Wij dringen er op aan dat de KNAW dit rapport terugtrekt. Wij zouden het op prijs stellen indien u de ontvangst van deze brief zou willen bevestigen.

Met vriendelijke groet,

Peter Bloemers, em. hoogleraar biochemie, Radboud Universiteit Nijmegen
Ralf Dekker, voorzitter Groene Rekenkamer
Hans Erren, geofysicus
Bas van Geel, hoofddocent paleo-ecologie, universiteit van Amsterdam.
Kees de Groot, geochemicus, ex-Vice President E(xploratie en) P(roductie) Research and Technology, Royal Dutch Shell
Albert Jacobs, geoloog
Hub Jongen, elektrotechnisch ingenieur
Rob Kouffeld, em. hoogleraar energievoorziening, TU Delft
Kees Kwantes, mijningenieur, gepensioneerd ex Shell
Hans Labohm, econoom en voormalig “expert reviewer” van het IPCC en met Dick Thoenes en Simon Rozendaal auteur van “Man-Made Global Warming: Unravelling a Dogma.”
Kees Le Pair, ex-directeur FOM & STW, Akademie Penning
Gerrit van der Lingen, geoloog, paleoklimatoloog
Rob Meloen, em. hoogleraar moleculaire herkenning, Universiteit Utrecht
Jan Mulderink, chemisch technoloog, oud-directeur AKZO research Arnhem, oud-voorzitter Stichting Duurzame Chemische Technologie in Wageningen
Henk Schalke, voorzitter management team IUGS-UNESCO
Hajo Smit, klimatoloog
Dick Thoenes, em. hoogleraar chemische proceskunde TU Eindhoven, oud-voorzitter Koninklijke Nederlandse Chemische Vereniging
Theo Wolters, ingenieur TU Delft (Industrieel Ontwerpen), directeur-eigenaar van Fabrique Invent, ingenieursbureau voor productontwikkeling
Rypke Zeilmaker, natuur/wetenschapsauteur
Arthur Rörsch, moleculair bioloog, oud vice-voorzitter RvB TNO
Frans Sluijter, em. hoogleraar theoretische natuurkunde TU Eindhoven, voorzitter Stichting Skepsis
Henk Tennekes, voormalig directeur wetenschappelijk onderzoek KNMI
Peter Ziegler, em. hoogleraar geologie Universiteit van Basel, ‘rustend’ lid van de sectie aardwetenschappen KNAW


7-10-2011

Nogmaals het Arctische drijfijs

Op 14 september j.l. berichtte ik over het te alarmerend bericht in de Volkskrant, gebaseerd op het te alarmerend bericht van de universiteit van Bremen. Het bleek dat alleen de analyses van Bremen een nieuw (diepte-) record vertoonden voor wat betreft de oppervlakte drijfijs in de Arctische regio. Hoe ziet de situatie er nu, bijna 4 weken later, uit? We beginnen met de universiteit van Bremen :

 

Het oppervlak ligt al weer op het niveau van 2008, ruim 500.000 km2 meer dan begin oktober 2007 .

En NOAA :

En IARC-JAXA :

En NSIDC :

En DMI :

En Arctic Regional Ocean Observing System :


En Arctic Climate Research van de University of Illinois :

Tot slot de luchttemperatuur van het DMI:

De laatste grafiek toont dat de groei (en smelt) van het Arctische drijfijs niet zozeer afhankelijk is van de luchttemperatuur, maar van de temperatuur van het aangevoerde water. En dat is op zijn beurt het gevolg van de overheersende windsystemen in het Noordpoolgebied. En die zijn op hun beurt weer gekoppeld aan langetermijn fluctuaties zoals de AMO (Atlantische Multidecadale Oscillatie) die we eerder al tegenkwamen bij het verklaren van de gang van de wereldtemperatuur. Lees voor een uitgebreid verslag hierover de bijdrage onder " De Dogma's" in het menu en dan " Het drijfijs smelt".

1-10-2011

Wolken koelen de aarde af


De bewijzen stapelen zich op: wolken hebben netto een afkoelende werking op de oppervlaktetemperatuur van de aarde. Dat is op te maken uit een recente publicatie van Richard Allan van de universiteit van Reading in Groot-Brittannië genaamd “Combining satellite data and models to estimate cloud radiative effect at the surface and in the atmosphere ”. Allan gebruikte voor zijn onderzoek naar het gedrag van wolken op de stralingbalans een tweetal bronnen, namelijk meetgegevens van GERB satelliet en het Numerical Weather Prediction ( NWP) model van Met Office in Groot-Brittannië.

Het gedrag van wolken in de stralingsbalans is de achilleshiel van de vigerende klimaatmodellen. NASA schrijft op haar website: “Ultimately, we are searching for a set of mathematical models that allow us to span the incredibly large range of space and time scales important to aerosols, water vapor, clouds, the land surface, and the oceans. These models must be capable of reproducing the variability shown in the data at both regional and global scales. They must be capable of reproducing El Niño, the Earth's diurnal and seasonal cycles, and the inter-annual variability in the climate system. The models must also be capable of reproducing the systematic changes in the radiative energy balance with changing aerosols, water vapor, clouds, and surface properties. Only then can we begin to trust the models to produce accurate global change predictions.” .

Vereenvoudigde stralingsbalans. Bron: Allison, Mead A., Arthur T. DeGaetano, Jay M. Pasachoff

Joel Norris en Anthony Slingo merken in ‘Clouds in the Perturbed Climate System’ op: “The response of clouds and their radiative effects to global warming represents a longstanding and considerable area of uncertainty in our understanding of climate change. At present, it is not known whether changes in cloudiness will exacerbate, mitigate, or have little effect on the increasing global surface temperature caused by anthropogenic greenhouse radiative forcing. Another substantial uncertainty is the magnitude of radiative forcing resulting from the modification of cloud properties by anthropogenic aerosols. Global climate models provide scant reliable insight regarding these issues because of their inability to parameterize correctly or otherwise represent the small-scale convective, turbulent, and microphysical processes that control cloud properties. It is therefore crucial to document and assess global and regional low-frequency variations in clouds and radiation flux that have occurred over the past several decades, a period marked by rapidly rising temperature and changes in anthropogenic aerosol emissions. This will enable us to estimate from observations how clouds and their impacts on the radiation budget are responding to global warming and aerosol changes. Moreover, a trustworthy observational record will provide a good constraint on global climate model simulations.”.

Het is daarom opmerkelijk dat alle vigerende klimaatmodellen ondanks bovenbeschreven grote onzekerheden uitgaan van een netto positieve tegenkoppeling van wolken ten aanzien van de temperatuur aan het aardoppervlak. Stijgende oppervlaktetemperaturen betekenen meer verdamping en meer wolkvorming. Alle modellen gaan uit van een versterkt broeikaseffect als gevolg van deze extra wolkvorming.

De afgelopen tijd hebben 2 publicaties al deuken geslagen in de hypothese van de veronderstelde gedrag van wolken in de stralingsbalans. Die publicaties van Lindzen en Choi en van Spencer en Braswell hebben in klimatologenland veel stof doen opwaaien, hetgeen aantoont dat de kwestie uiterst gevoelig ligt. Dat is niet verwonderlijk, omdat de geloofwaardigheid van de door het IPCC gebruikte klimaatmodellen in het geding is, en daarmee haar voorspellingen over de opwarming van de aarde.

Nu heeft Richard Allan van de Universiteit van Reading in Groot-Brittannië zich aangesloten bij Lindzen en Spencer. Hij komt tot de conclusie dat het netto effect van wolken op aarde negatief is: wolken koelen de aarde af met -21 W/m2. Hoe is Allan te werk gegaan? Zoals hiervoor al beschreven is het gedrag van wolken in de stralingsbalans niet eenvoudig te duiden. Dat is al onmiddellijk duidelijk als we de volgende 2 figuren bekijken:

Satellietbeelden van de SEVIRI geostationaire satelliet. Links 10.8 μm infra-rood kanaal en rechts 0.8 μm
zichtbaar kanaal, op 2 maart 2011 om 12 uur UTC. Bron EUMETSAT/ Met Office.

Op beide beelden zijn wolken licht afgebeeld. Op het linkerbeeld (IR) is dat het gevolg van het feit dat wolken een lage IR-uitstraling naar boven hebben en een grote albedo voor kortgolvige straling (zonlicht). In het rechterbeeld zijn er grote wolkenpartijen in het koufront voor de kust van Europa, met sterk stijgende lucht tot relatief grote hoogte. De wolkentoppen zijn daardoor koud en stralen weinig IR naar boven.

Op het beeld van de zichtbare straling valt op dat er veel meer wolken zichtbaar zijn dan op het beeld van IR. Het betreft vooral wolkenformaties boven de Atlantische Oceaan die uit lage wolken bestaan. Deze wolken bevatten relatief veel waterdruppels en hebben daardoor een hoge albedo. De IR uitstraling naar boven is gering vanwege de relatief hoge temperaturen in de wolktoppen.

Allan concludeert dat de hoogte en de optische dikte van wolken de netto invloed op de stralingsbalans bepalen. Die netto invloed bestaat uit een opwarmend effect van wolken op de oppervlaktetemperatuur (versterkt broeikaseffect) en een afkoelend effect als gevolg van schaduwvorming. In dit alles spelen uiteraard de afwisseling dag/nacht en de seizoenen een grote rol.

Stralingsgedrag van wolken op 1200 UTC , 24 april 2011, berekend door combinatie van GERB satelliet data en NWP
model clear-sky fluxes. (a) LWCF (c) −SWCF and calculated using the model analysis field simulated (b) LWCF
and (d) −SWCF.

De gebruikte methode is om simulaties van zogenaamde clear-sky radiation te combineren met satelliet meetgegevens. Op bovenstaande figuren is dat weergegeven: kortgolvige en langgolvige uitstraling naar boven van wolken boven Afrika en de Atlantische Oceaan.

LWCR = long wave cloud radiation, ORL = Outgoing Longwave Radiation , OLRc = Outgoing Longwave Radiation voor clear sky. In formule: LWCR = OLRc – OLR. Voor de kortgolvige straling geldt m.m.: SWCF = RSWc – RSW.

De sterkste LWCF ( > 100 W/m2) en SWCF ( < -400 W/m2) zijn te vinden in de gebieden met een tropisch regenwoudklimaat. De zeer hoogreikende altocumili zorgen voor een grote albedo en een relatief zwakke langgolvige uitstraling als gevolg van de lage temperaturen op grote hoogte.

Op bovenstaande figuur zijn kortgolvige, langgolvige en nettostraling weergegeven. De data zijn relatieve waarden ten opzichte van de clear sky –waarden. De gegevens zijn afkomstig van CERES satellietdata 2001-2007. De figuur toont dat wolken kortgolvige straling tot ~100 Watt/m2 reduceren in met name regio’s met frontale systemen, de tropen (ITCZ) en de westelijke kustgebieden van Noord-Amerika, Zuid-Amerika en Afrika. De LWCF is het sterkt in de tropen: tropische cumulonimbus wolken die tot aan de stratosfeer reiken zorgen voor een afkoeling tot 70 Watt/m2. Maar ook de marine strocumulus en de wolken in frontsystemen koelen tot voorbij 50 Watt/m2. Boven de woestijnen en poolgebieden is de NCF ook klein als gevolg van het geringe broeikaseffect door wolken en de grotere uitstraling en albedo.

Nadat is vastgesteld dat er globaal sprake is van een netto koeling door wolken , is de vraag waar die koeling plaats vindt. Is dat aan het aardoppervlak of in de atmosfeer? Het antwoord op deze vraag is van groot belang, omdat dan inzicht ontstaat in de verbanden tussen de energiestromen op aarde en de waterkringlopen. De figuur toont schattingen van het ‘cloud radiative effect’ vanaf TOA (top of atmosphere) , de atmosfeer en het aardoppervlak. Daarbij wordt gebruik gemaakt van de NASA Surface Radiation Budget (SRB) dataset, dat stralingsmodellen combineert met satellietmetingen van wolkeigenschappen uit het ISCCP (International Satellite Cloud Climatology Project).

Er is sprake van een netto afkoeling van de atmosfeer van ~100 Watt/m2, gecompenseerd door de aanvoer van latente en voelbare warmte vanaf het aardoppervlak. Zie de stralingsbalans volgens Trenberth (2009) hieronder.

Bron: Trenberth

Allan heeft vervolgens de data van SRB uit de een na laatste figuur gebruikt om het ‘cloud radiative effect’ zonaal te duiden. In onderstaande grafieken zijn daarvan de resultaten te zien.



 
 


Voor de temperaturen aan het aardoppervlak is met name de grafiek c van belang. Tussen ~65° NB en 65° ZB is het netto cloud radiative effect negatief. Alleen in de poolstreken is de netto cloud feedback positief , voornamelijk vanwege het minder negatieve kortgolvige cloud radiative effect aldaar (SWCF). De door Allan berekende NCF voor de gehele aarde van 21 Watt/m2 is vergelijkbaar met de uitkomsten van Su et al. (2010).


Bron: Su et al. 2010

Conclusies van Allan: de netto afkoeling door wolken op aarde is 21 Watt/m2, wat overeenkomt met de publicaties van Ramanthan et al. (1989) en Su et al. (2010).

Bron: Ramanthan et al. 1989

Het is overigens opmerkelijk dat Ramanthan et al. al in 1989 tot gelijkluidende conclusies kwamen. Dat onderzoek was beperkt tot de toen voorhanden zijnde data van de ERBE satelliet die pas van 1984 in de ruimte was. Ramanthan et al. hebben zich noodgedwongen beperkt tot gegevens van 1985 en 1986. In het Abstract schrijven Ramanthan et al.:


Bron: Ramanthan et al. 1989

Wellicht nog interessanter zijn de laatste conclusies van de onderzoekers:


Bron: Ramanthan et al. 1989

 
14-9-2011

Smelten poolkap bereikt historisch dieptepunt

Dat was de kop van het bericht dat de Volkskrant op 11-9 op haar site plaatste. Bedoeld wordt natuurlijk het drijfijs (zee-ijs) in het Noordpoolgebied. Het woord ijskap wordt meestal als synoniem gebruikt voor het begrip landijs. En landijs is er in dit gebied niet, want er is geen land, afgezien van een deel van Groenland natuurlijk. Maar over het landijs op Groenland gaat dit bericht niet. De foto die bij het bericht geplaatst is betreft ook al geen drijfijs. Het is of het uiteinde van een gletsjer, of een afgebroken deel van een gletsjer (ijsberg).

Maar goed, nu naar de inhoud van het bericht. Duitse wetenschappers hebben gemeld dat het oppervlak aan drijfijs onlangs een historisch dieptepunt heeft bereikt. Het oppervlak zou nu zelfs kleiner zijn dat dat in het recordjaar 2007. Op zoek dus naar die Duitse wetenschappers. En die zijn waarschijnlijk verbonden aan de universiteit van Bremen, de enige universiteit in Duitsland die zich bezig houdt met drijfijsberekeningen. Een persbericht waarop het bericht in de Volkskrant wellicht is gebaseerd heb ik op de site van de universiteit niet kunnen vinden.

Hieronder ziet men de grafiek van de ‘sea ice extend’ volgens de universiteit van Bremen, afgezet tegen de grafieken van de jaren vanaf 2003. Alle grafieken zijn van 13-9-2011. We letten natuurlijk speciaal op het jaar 2007, waarin het drijfijs in september een dieptepunt bereikte. En inderdaad, als je goed kijkt dan zie je dat de lijn van 2011 vanaf half augustus een aantal dagen net onder de lijn van 2007 ligt (goed kijken!). Overigens gebeurt dat ook al in het voorjaar van dit jaar, maar dan ligt de lijn van 2006 nog iets lager.


Maar er zijn nog meer instanties die de uitgestrektheid van het Arctische drijfijs ‘meten’. De grafiek van NOAA, National Oceanic and Atmospheric Administration in de USA, komt dicht bij de grafiek uit Bremen (zie hieronder). Maar de lijn van 2011 komt deze zomer volgens NOAA niet onder de lijn van 2007 uit.


De volgende grafiek is van IARC-JAXA , International Arctic Research Center in samenwerking met Japan Aerospace Exploration Agency . Hier is het drijfijs in de zomer van 2007 duidelijk geringer dan in 2011.


Het NSIDC dan , het National Snow and Ice Data Center in de USA. Ook hier komt de lijn van 2011 niet onder die van 2007.

Dan wellicht het DMI, het Deense centrum voor oceaan en ijs? Hieronder de grafiek van het DMI, die voor zich spreekt.

Wellicht dat Arctic Regional Ocean Observing System dan misschien? Dat is een samenwerkingsverband van 14 instituten uit 9 Europese landen, gevestigd in Noorwegen. Ook hier geen spoor van het zomerse dieptepunt van 2011. Pikant detail is dat de universiteit een van die 14 partnerinstituten is.

Dan de data van het Arctic Climate Research van de University of Illinois. Het minimale zomeroppervlak van het Arctische drijfijs uit 2007 was ruim 500.000 km^2 kleiner dan dat van 2011.

Tot slot nog een grafiek van het DMI. Hier is het verloop van de gemiddelde dagelijkse temperatuur van 2011 afgezet tegen die van de periode 1958 – 2002. Te zien is dat met name de eerste 100 dagen van 2011 opmerkelijk warmer waren dan het langjarig gemiddelde (veel verlies van ijs) , maar dat vanaf begin juni de temperatuur heel mooi het langjarig gemiddelde volgt.

Conclusie: het bericht van de Volkskrant was niet alleen slordig gebracht (kop, foto), maar deugde inhoudelijk ook niet. Interpretatie door diverse instituten van veelal dezelfde satellietgegevens leidt tot diverse grafieken. Alleen die van Bremen komt afgelopen zomer net ietsiepietsie onder de lijn van 2007. Geen enkele andere grafiek toont dat beeld. Om dan te beweren dat het smelten van de ‘poolkap’ op een historisch dieptepunt is, is niet alleen aanvechtbaar, maar ook een akelige vorm van alarmistisch cherry-picking.
 


10-9-2011

Het verloop van de globale temperatuur deel 3: de klimaatgevoeligheid

Nog even een opmerking over de misleidende grafiek uit het vierde rapport van het IPCC zoals getoond in de vorige bijdrage. Daarbij was duidelijk sprake van misleiding door gebruik te maken van de opwaartse trend in het AMO-signaal vanaf 1976. Jan Ruis wijst er terecht op dat hier sprake is van cherry picking, het selecteren van gegevens op een zodanige wijze dat een bepaalde stelling of hypothese ondersteund wordt. De trendlijnen van het IPCC beginnen namelijk alle in een ‘dal’ van de AMO-reeks en eindigen op de piek rond 2005.


Bron: IPCC

Bij steeds korter wordende trendperiodes betekent dat automatisch dat de kortste (=jongste) periode de steilste trendlijn krijgt . Dat wijst op doelbewust geselecteerde trendlijnen. Als je in de AMO cyclus trendlijnen trekt van dal naar piek krijg je ook een artefact van versnelde opwarming die er natuurlijk niet is in de AMO want die vertoont geen trend. Zie de figuur hieronder.


En dan nu de klimaatgevoeligheid. In de vorige bijdrage is op basis van de temperatuurreeks van HadCRUT3 vastgesteld dat de stijging van de globale temperatuur tussen 1856 en 2011 0,048 ºC/ decade was, en dat die trendmatige stijging lineair was.

Nu we de lineaire trend van 0,048 ºC/ decade van de afgelopen anderhalve eeuw te pakken hebben, is het wellicht mogelijk om daaruit de klimaatgevoeligheid ( climate sensitivity) te destilleren. Onder klimaatgevoeligheid verstaan we de verandering van de globale temperatuur als gevolg van een verdubbeling van het C02-gehalte. Zie ook in het menu onder “De feiten” de paragraaf “CO2 sensitivity”. Hieronder is de klimaatgevoeligheid weergegeven volgens het IPCC (modellen) en diverse onderzoekers.

De variatie van de klimaatgevoeligheid binnen de 20+ klimaatmodellen zoals gebruikt door het IPCC is groot, en loopt van 1,5 ºC tot meer dan 4 ºC. het IPCC gaat uit van een gevoeligheid van 3 ºC bij verdubbeling van CO2. Het wordt algemeen aanvaard dat – als alle andere factoren gelijk blijven – de klimaatgevoeligheid ~1,1 ºC is. Elke afwijking van deze waarde in de getoonde tabel is het gevolg van de werking van feeedbacks, met name van bewolking en waterdamp.

Alle door het IPCC gebruikte klimaatmodellen gaan uit van een positieve feedback van bewolking als gevolg temperatuurstijging. Zoals wel vaker hier en elders beschreven is het gedrag van wolken wellicht de minst begrepen factor in de stralingsbalans van de aarde. Maar ook de aanname dat bij een stijgende temperatuur de relatieve vochtigheid van de troposfeer gelijk blijft is aan kritiek onderhevig, zoals in de studie van Solomon e.a. uit 2010.

Miskolczi, Idso, Lindzen en Spencer komen allen veel lager uit dan de 3 ºC van het IPCC , en zelfs lager dan 1,1 ºC. Ze zijn dan ook niet populair bij IPCC-adepten. Alle in de tabel weergegeven waarden zijn op indirecte wijze verkregen. Ze zijn de uitkomst van een of meerdere runs van klimaatmodellen, of het resultaat van soms ingewikkelde wiskundige berekeningen, al of niet op basis van satellietgegevens.

Klimaatmodellen definiëren een klimaatgevoeligheid λ die de stralingsforcering ΔF vertaalt naar een verandering van de oppervlaktetemperatuur ΔT: ΔT= λ ΔF. De klimaatgevoeligheid λ is 0,8 ºC per Wm-2 stralingsforcering. Een verdubbeling van CO2 van het pre-industriële niveau van 280 ppm naar 560 ppm leidt dan volgens het IPCC tot +3,7 Wm-2 stralingsverandering. Dat leidt volgens het IPCC inclusief feedbacks tot de temperatuurstijging van 3 ºC .

De lineaire trend zoals we die hierboven hebben geëxtrapoleerd uit de HadCRUT3 temperatuurreeks kan ook gebruikt worden om de klimaatgevoeligheid te berekenen. Daarvoor moet eerst uitgerekend worden op welk moment de verdubbeling van het CO2-gehalte ten opzichte van de pre-industriële waarde plaats zal vinden. De langste betrouwbare tijdreeks van het atmosferisch CO2-gehalte is die van Mauna Loa op Hawaï, van 1958 tot 2011. De reeks stijgt exponentieel volgens y= 0,000086x^2 + 0,0066130x + 314,298300. Trekt men deze trend door in de tijd, dan komt die trendlijn fraai overeen met die van scenario A1B uit AR4 van het IPCC. In 2073 zou dan sprake zijn van verdubbeling van het CO2-gehalte ten opzichte van dat van het beginjaar van de AMO-reeks in 1856: 572 ppm vergeleken met 286 ppm uit 1856.

Het scenario A1B uit het IPCC rapport wordt gekarakteriseerd door de volgende kenmerken:
Snelle economische groei
Maximale wereldbevolking van 9 miljard in 2050, daarna afname
Snelle verspreiding van nieuwe technologieën
Toenemende sociale , economische en culturele globalisering
Gebruik van zowel fossiele als niet-fossiele energiedragers

Op onderstaande figuur uit het syntheserapport van het IPCC uit 2007 is te zien dat op basis van de gebruikte klimaatmodellen de temperatuur in 2090-2099 2,8 ºC zal zijn dan in de periode 1980-1999. Voor een vergelijking met de situatie van 1850-1899 komt men op een toename van 3,3 ºC. Dat komt overeen met een klimaatgevoeligheid van ongeveer 3 ºC.


Uitgaande van 2073 voor verdubbeling van het atmosferisch CO2-gehalte en een lineaire temperatuurtrend van 0,048 ºC/ decade kan men de klimaatgevoeligheid berekenen:

2073 - 1856 = 217 jaar = 21,7 decaden x 0,048 ºC = 1,0 ºC

Of:

ΔT = 1,0 x LOG (572/286) / LOG (2) = 1,0 ºC

In 2073 zou – als de lineaire trend zich voortzet – het dus op aarde gemiddeld 1 ºC warmer zijn dan in 1856. Bij een stijging van de wereldtemperatuur tussen 1856 en 2010 van ~0,7 ºC betekent dit dat vanaf 2010 tot 2073 er nog slechts 0,3 ºC bij komt.

Deze 1 ºC klimaatgevoeligheid is berekend op basis van de gemeten temperatuurwaarden van 1856 tot 2011, en is dus inclusief alle feedbacks! Als er tussentijds dus geen gekke dingen gebeuren (verandering in externe forcing bijvoorbeeld) dan is de klimaatgevoeligheid dus zo’n 2/3 lager dan het IPCC veronderstelt. En die door het IPCC voorspelde klimaatgevoeligheid van 3 ºC ( op basis van de gehanteerde klimaatmodellen) is óók inclusief feedbacks.

Zonder feedbacks leidt een verdubbeling van CO2 tot een temperatuurstijging van ~1,1 ºC. Dat betekent dat volgens de hier gepresenteerde klimaatgevoeligheid van 1 ºC de totale feedback 0 tot licht negatief moet zijn.


Bron: Levitus et al

Er is een aantal recente publicaties dat ook op een veel lagere klimaatgevoeligheid uitkomt dan het IPCC. Levitus et al hebben in 2009 gepubliceerd over de warmteopslag in de bovenste 700 m van de oceanen (Ocean Heat Content) tussen 1955 en 2008. In de tabel hierboven is te zien dat de stijging van de OHC tussen 1969 en 2008 een temperatuurtoename heeft veroorzaakt van 0,168 ºC over 40 jaar. Dus 0,168/40 levert toename op van 0,042 ºC/decade, een beetje minder dan de berekende trend voor de wereldtemperatuur. Hieruit volgt een klimaatgevoeligheid van 0,9 ºC.

Zoals in de tabel te zien is, is met name de Tchange in het noordelijk deel van de Atlantische Oceaan zeer hoog vergeleken met de temperatuurstijging in de andere oceaanbekkens. In onderstaande figuur van Bob Tisdale is dat goed te zien.


Bron: Bob Tisdale


Dat laatste is niet zo verwonderlijk als men bedenkt dat de metingen van het OHC beginnen in 1955, tijdens het stijgende been van de AMO. Daardoor wordt de trend van de wereld-OHC van 0,0073 GJm-2/jaar ook nog eens overschat. In de bijdrage van 3 augustus j.l. heb ik hier aandacht besteed aan de publicatie van Palmer e.a.. Die toonden aan dat de OHC sinds 2003 geen stijging meer vertoont. Het is dus niet onmogelijk dat de OHC als interne forcing de klimaatgevoeligheid verder zal doen dalen.

Roy Spencer vergeleek de uitkomsten van de Levitus-publicatie met die van 2 klimaatmodellen die door het IPCC worden gebruikt. IPSL-CM4 is een van de meest gevoelige modellen, NCAR PCM1 is een model met een lage klimaatgevoeligheid. Conclusie: de metingen (Levitus) wijzen op een veel kleinere klimaatgevoeligheid dan de door het IPCC gebruikte modellen hanteren.

 

Bron: Roy Spencer

Spencer en Braswell hebben onlangs een publicatie het daglicht doen zien over natuurlijke variaties in bewolking die de feedback van wolken maskeren. De hypothese is dat gedurende de El Niño en La Niña fasen van de ENSO veranderingen in de gekoppelde oceaan-atmosfeercirculatie de bewolking stuurt. In de reguliere klimaatmodellen gaat men er van uit dat bewolking het gevolg is van verandering in de stralingsbalans (als gevolg van een toegenomen CO2-gehalte). Over deze kwestie is een interessante polemiek gaande op http://www.climateaudit.org/ , whatsupwiththat.com en http://www.drroyspencer.com/ .

Richard Lindzen van het MIT en Choi van het EWU in Korea hebben dit jaar gepubliceerd over klimaatgevoeligheid. Het onderzoek werd gedaan op basis van de SST-data (Sea Surface Temperature) en de TOA (Top Of Atmosphere) satellietdata van de ERBE en CERES instrumenten tussen 1985 en 2008. Lindzen en Choi komen op basis van deze meetdata uit op een klimaatgevoeligheid van 0,7 ºC.
 


Bron: Lindzen en Choi

Tot slot nog het volgende: de hier berekende klimaatgevoeligheid van 1 ºC is de resultante van alle forcings en feedbacks die de temperatuur aan het aardoppervlak bepalen. Professor Cees de Jager et al komen in een publicatie uit 2010 uit op een aandeel van de zon in de recente opwarming van 0,3 ºC. Die 0,7 ºC klimaatgevoeligheid op basis van CO2-verdubbeling van Lindzen en Choi lijkt dus zo gek nog niet.


6-9-2011

Het verloop van de globale temperatuur deel 2: IPCC-grafiek misleidend

In de bijdrage van 25 augustus j.l. is aandacht besteed aan de invloed van de AMO (Atlantische Multidecadale Oscillatie) op het verloop van de globale temperatuur op aarde vanaf 1856. Op de figuur hierboven is het verloop van de globale temperatuur weergegeven, alsmede de trendlijn.

Vervolgens is deze grafiek vergeleken met het signaal van de AMO, zie grafiek hieronder. Een verbazingwekkend goede correlatie wordt zichtbaar. Maar liefst 62% van de variantie in de temperatuur wordt verklaard door de geringe lineaire stijging ( 0,48°C per eeuw) gecombineerd met de AMO.

Er bestaat dus een sterke correlatie tussen het AMO-signaal ( anomalie van oppervlaktetemperatuur oceaanwater Noordelijk deel Atlantische Oceaan) en de temperatuur van de atmosfeer vlak boven het oppervlak ( HadCRUT3). Als men bedenkt dat ~70% van het aardoppervlak bestaat uit oceaan, dan is het niet verbazingwekkend dat een dergelijke correlatie bestaat. Wat wel opvallend is is dat de correlatie zo sterk is, zeker als men bedenkt dat het noordelijk deel van de Atlantische Oceaan ~1/3 deel is van het totale oceaanoppervlak.

De vraag is welke van de twee domeinen, oceaan of atmosfeer, de sturende kracht is binnen deze correlatie. Nienke te Raa (IMAU 2006) schrijft in het blad Meteorologica hierover: “…wat veroorzaakt deze Atlantische Multidecadale Oscillatie? Eerder onderzoek heeft uitgewezen dat veranderingen in de atmosfeer waarschijnlijk niet de oorzaak zijn van de AMO, maar het gevolg. Onze hypothese was dan ook dat dit verschijnsel het gevolg is van interne wisselwerkingen in de oceaan. ”. Een en ander is al uitgebreider in de bijdrage van 25 augustus aan de orde geweest.


Bron: Nienke te Raa

Blijft over de stijgende trend in het signaal. Om het temperatuursignaal goed te kunnen analyseren is de grafiek ‘gedetrend ‘ . Daardoor splitst men de (stijgende) trend en de oscillaties in het signaal. In de eerste grafiek is de trendlijn weergegeven. De trendlijn is als volgt geformuleerd: y=0,000397x – 0,526431 , wat neerkomt op een stijging van 0,048 ºC/ decade over de gehele periode van 1856 tot 2011. De grafiek hieronder laat zien hoe het temperatuursignaal er uit ziet als de trend verwijderd is.

Het IPCC heeft in haar rapport uit 2007 onderstaande figuur gepubliceerd. Er is gebruik gemaakt van een viertal trendlijnen. De langstlopende betreft een periode van 150 jaar van 1856 tot 2006, de kortste over een periode van 25 jaar van 1981 tot 2006. Het beeld is duidelijk: de stijgende trend wordt steeds steiler. Over de periode 1856-2006 is de stijging 0,045 ºC/ decade, over de laatste 25 jaar stijgt dat volgens het IPCC naar 0,177 ºC/ decade. Kortom: het wordt steeds warmer!

Bron: AR4 IPCC 2007

Maar is dat ook zo? Daartoe bekijken we weer de trendlijn uit de eerste grafiek. Die trendlijn heeft een stijging van 0,048 ºC/ decade over de periode 1856 – 2011. Hoe ziet nu de trend eruit als we deze trendlijn opknippen in de vier periodes die het IPCC in haar grafiek gebruikt? Dat resultaat ziet u hier:

De trend is gedurende de gehele periode lineair. Er zit dus helemaal geen versnelling in , zoals het IPCC suggereert! In alle vier periodes is de stijging exact 0,048 ºC/ decade. Het IPCC heeft de fout gemaakt geen onderscheid te maken tussen trend en oscillatie. De stijging van de temperatuur tussen ~1970 – 2000 wordt door het IPCC gezien als trend, terwijl duidelijk is dat het de opwaartse beweging is van de natuurlijke oscillatie. En die oscillatie is het gevolg van oscillaties in de SST en met name de AMO. Er is dus geen sprake van een versnelling in opwarming tussen 1856 en 2006 ! De figuur uit het IPCC-rapport AR4 is derhalve onjuist en zelfs misleidend.

In de volgende bijdrage (deel 3) zal worden getracht uit de HadCRUt temperatuurreeks de klimaatgevoeligheid te berekenen.

 


1-9-2011

Lezing Fred Singer bij KNMI



Op 31 augustus hield prof. Fred Singer een lezing bij het KNMI over de invloed van de mens op de opwarming van de aarde. De zaal was bomvol, met vooral onderzoekers van het KNMI ,wat onderzoekers van diverse universiteiten, en een ruime handvol kritische volgers van het klimaatdebat, waaronder ondergetekende. Fred Singer is een klimaatscepticus die zijn sporen als wetenschapper in zijn lange leven heeft verdiend. Hij is van huis uit atmosferisch natuurkundige, en is op vele terreinen werkzaam geweest. Zo was hij de eerste directeur van wat nu heet ‘National Oceanic and Atmospheric Administration’, het NOAA. Van 1971 tot 1994 was hij professor in de ‘Environmental Sciences’ aan de universiteit van Virginia.

Bron: climategate.nl

In de relatief korte lezing nam Singer afstand van de hypothese dat de recente opwarming van de aarde (0,7 °C in de 20 eeuw) volledig te wijten zou zijn aan de verhoging van het CO2 gehalte. Overigens deelde hij tussen neus en lippen door dat hij sinds enkele weken twijfelt aan de antropogene oorsprong van de scherpe stijging van het atmosferisch CO2. Dat deed hij naar aanleiding van de berichtgeving over de ophanden zijn de publicatie van de Australiër Murry Salby. Hierover heb ik op 16 augustus j.l. al geschreven op deze plaats.

Zijn tweede kritiek betrof de klimaatmodellen. Hij ventileert daarover al jaren het standpunt dat die niet de werkelijkheid zijn en onbetrouwbaar. Hij liep daarbij vooruit op een publicatie die binnenkort zal verschijnen, en die handelt over het minimum aantal runs dat nodig is om klimaatmodellen betrouwbaarder te maken dan ze nu zijn.

Hoewel de discussie strak in de hand werd gehouden door dagvoorzitter Gerbrand Komen (ex-directeur KNMI), waren de vragen en antwoorden boeiend. Ik denk dat een uurtje extra niemand zou hebben weggejaagd. Compliment voor het KNMI dat dergelijke lezingen faciliteert. De discussie toonde aan dat op veel punten er overeenstemming is tussen wat ik maar gemakshalve de main stream onderzoekers noem, en de wat sceptischer wetenschappers. Maar op belangrijke punten heeft men elkaar zeker nog niet gevonden, zodat deze site nog even in de lucht kan blijven. Een uitgebreid verslag van de lezing en discussie van de hand van Theo Wolters vindt u op climategate.nl .

 

 

25-8-2011

Het verloop van de globale temperatuur deel 1

Collega Jan Ruis uit Delft heeft onlangs een interessante presentatie van zijn hand opgestuurd, waarvan ik u de uitkomsten niet wil onthouden. Het betreft een analyse van het verloop van de globale temperatuur sinds het midden van de 19e eeuw tot heden. U herkent de grafiek wel. Hij is gebaseerd op de dataset HadCRUT3. Het betreft maandelijkse anomalieën (afwijkingen) ten opzichte van een bepaalde referentieperiode.

 

Deze grafiek werd in het laatste (4e) rapport van het IPCC ‘gebruikt’ om te bewijzen dat er sprake is van een versnelling in de opwarming op aarde:


 


Het ziet er inderdaad indrukwekkend uit, maar is het juist? Om dat nader te kunnen analyseren moet je de grafiek enigszins manipuleren. Ik bedoel daar uiteraard niet mee op de manier “hide the decline”, maar door de grafiek uiteen te rafelen. In de periode 1856-2011 is een tweetal bewegingen te herkennen, namelijk een oscillerende (golvende) en een stijgende (trend).
 


We gaan ons eerst richten op de oscillerende beweging in het signaal. Om die goed te kunnen onderscheiden van de trend moet je de grafiek ‘detrenden’, de trendlijn horizontaal leggen. Dat doe je door de waarden van de trendlijn af te trekken van de waarden van het signaal. De grafiek komt er dan zo uit te zien:


Het toont de golvende beweging in het signaal, zonder dat je ‘last’ hebt van de stijgende trend. Wat is nu de oorzaak van die golfbeweging? Al langer gaat de aandacht uit naar de AMO, de Atlantische Multidecadale Oscillatie. Die zijn we ook al eens tegengekomen in het verhaal over het natter worden van de Sahel (zie onder De Dogma’s: De Sahara groeit). De AMO is een lange serie van veranderingen in de temperatuur van het oceaanwater van de Atlantische Oceaan tussen de evenaar en Groenland. Deze in 1994 ontdekte oscillatie heeft een periodiciteit van gemiddeld 45 jaar. De temperatuurvariatie is niet groot, ongeveer 1°C.



De AMO wordt al ruim anderhalve eeuw gemeten, maar uit paleoklimatologische onderzoeken is bekend dat het verschijnsel al minstens 1000 jaar werkzaam is. Hieronder is het verloop van de AMO gedurende de afgelopen 1000 jaar weergegeven.


 

Bron: Lienke te Raa

De figuur komt uit de studie van Lianke te Raa (IMAU) uit 2006. Zij schrijft:

De oceanen spelen een belangrijke rol in het klimaat. Door de grote warmtecapaciteit van water kunnen de oceanen enorme hoeveelheden warmte opslaan. Deze warmte wordt vervolgens over de hele aarde getransporteerd door de oceaanstromingen. Op andere plaatsen op aarde kan de warmte dan weer worden afgegeven aan de atmosfeer. Een voorbeeld is de Golfstroom, die voor de kust van Florida loopt en dan de Noord-Atlantische Oceaan oversteekt als de Noord-Atlantische Stroming. Het relatief warme water dat door deze stromingen richting West-Europa wordt gevoerd wordt gezien als een belangrijke oorzaak voor het relatief milde klimaat van Noordwest-Europa.


Figuur 1

Ook in de diepzee (dieper dan ongeveer 1500 meter) stroomt het water, al zijn de snelheden daar extreem laag: een typische stroomsnelheid in de diepzee bedraagt enkele centimeters per seconde (tegen enkele tientallen centimeters per seconde tot maximaal 1 meter per seconde voor oppervlaktestromingen). Omdat het echter om zoveel water gaat, is dit transport wel degelijk van belang. Een schematische weergave van de oppervlakte- en diepzeestromingen in alle oceanen (figuur 1) laat zien dat in het noorden van de Noord-Atlantische Oceaan een bijzonder proces optreedt: de oppervlaktestroming 'verandert' hier in een diepzeestroming. Door de sterke afkoeling aan het oppervlak van het relatief zoute water dat door de Golfstroom wordt aangevoerd, treedt hier diepe convectie op. Hierbij wordt de hele waterkolom doorgemengd en ontstaat water met een hoge dichtheid, dat vervolgens aan een reis door de diepzee begint. Het koude, zware water stroomt in de diepzee naar de Zuid-Atlantische Oceaan en komt voor een groot deel in de Indische en Stille Oceaan terecht. In tegenstelling tot de atmosfeer komt zulke diepe convectie in de oceaan maar op enkele plaatsen ter wereld voor: naast de Labrador Zee en ten zuiden van Groenland zijn er nog slechts enkele belangrijke gebieden van zogenoemde diepwaterformatie rondom Antarctica.

Bron: R.Currie

Globale oceaanstromingen zoals geschetst in figuur 1 worden aangedreven door de wind aan het oppervlak en door verschillen in dichtheid van het zeewater. De dichtheid van zeewater wordt bepaald door de temperatuur en het zoutgehalte van het water. Over het algemeen is het (oppervlakte)water op lage breedtegraden warm en zout, terwijl het op hoge breedtegraden koud en zoet is. Temperatuur en zoutgehalte hebben een tegengesteld effect op de dichtheid: hoe warmer, hoe lichter en hoe zouter, hoe zwaarder. Meestal wint het effect van de temperatuur: het zeewater rondom de evenaar is lichter dan dat op hoge breedtegraden. Dit soort dichtheidsverschillen in de oceaan zorgen voor drukverschillen, die op hun beurt stromingen aandrijven. Terwijl het effect van de wind op de oceaancirculatie zich beperkt tot ongeveer de bovenste kilometer (van de gemiddeld zo'n vier kilometer diepe oceaan), spelen stromingen als gevolg van dichtheidsverschillen zich af zowel aan het oppervlak als in de diepzee. Het hier geschetste beeld van de oceaanstromingen is een gemiddelde. De werkelijke stromingen kunnen sterk variëren, met als gevolg dat ook het warmtetransport verandert, evenals de afgifte van warmte aan en opname van warmte vanuit de atmosfeer. Ook de plaatsen waar opname of afgifte van warmte optreedt zijn aan dit soort veranderingen onderhevig.

Figuur 5

Over de exacte oorzaken van het ontstaan van de AMO is de Raa resoluut:

Gemiddeld genomen is het zeewater in het noorden kouder dan in het zuiden, waardoor het zeeoppervlak in het noorden iets lager staat dan in het zuiden. De oppervlaktestroming is dan ook noordoostwaarts, terwijl de diepzeestroming vooral zuidwaarts is (zie ook figuur 1). Tijdens de fase waarin de AMO-index positief is, is de temperatuur in het noorden van de Noord-Atlantische Oceaan wat hoger dan gemiddeld. Hierdoor zet de waterkolom wat meer uit, en staat het zeeoppervlak wat minder laag dan gewoonlijk. Als we het verschil met de tijdsgemiddelde situatie bekijken, is er in het noorden dus een hogedrukgebied in de oceaan ontstaan, met een anticyclonale (afwijking van de gemiddelde) stroming als gevolg. De oost-west component van de stroming aan het oppervlak is minder sterk dan gewoonlijk: de afwijking van de tijdsgemiddelde oppervlaktestroming is westwaarts (figuur 5, linker schema).

Er gebeurt echter ook nog wat anders: omdat het zeewater, afgezien van de warme afwijking in het noorden, gemiddeld genomen steeds kouder wordt naar het noorden toe, zal de anticyclonale stromingsanomalie die ontstaat zorgen voor zuidwaarts transport van koud water in het noordoosten. In het noordwesten wordt juist warm water naar het noorden gebracht. Hierdoor schuift het gebied waarin het water abnormaal warm is, naar het westen toe. Dit is precies de westwaartse verplaatsing die we zagen in de computersimulaties.



Dit brengt ons een kwart periode verder (rechter schema in figuur 5), in de fase waarin de AMO-index overgaat van positief naar negatief. Nu is er met name een zeehoogteverschil in oost-west richting, en aan het oppervlak is er (gemiddeld over de oost-westrichting) een zuidwaartse stromingsanomalie. Omdat de gemiddelde stroming aan het oppervlak noordwaarts is, betekent dit dus een verzwakking van de noordwaartse stroming. Het uit fase zijn van de stroming in noord-zuid en oostwestrichting klopt ook met wat we in de computersimulaties gezien hebben. Weer een kwart periode later is de situatie precies omgekeerd als in het linker schema van figuur 5, met abnormaal koud water, en een cyclonale stromingsanomalie. Ook dit koude water beweegt zicht naar het westen voort, want de cyclonale stroming brengt dan koud water zuidwaarts in de noord-westhoek van het oceaanbekken. Zo kan dit proces blijven doorgaan. De periode van de Atlantische Multidecadale Oscillatie wordt dus bepaald door de snelheid waarmee de koude en warme gebieden in de oceaan westwaarts bewegen. Deze snelheid hangt op zijn beurt weer af van de sterkte van het noord-zuid temperatuurverschil, en van de tijdsgemiddelde stroming. ”

Kort samengevat: de AMO is het gevolg van een aantal natuurlijke processen, zoals verschillen in temperatuur met als gevolg verschillen in waterhoogte, windrichting en Corioliskracht. De gevolgen van de AMO zijn groot. We hebben al gezien dat de AMO het neerslagregime van de Sahel bepaalt, en de droogtes in Noord-Amerika. En het is bekend dat het invloed heeft op de temperatuur in Europa en Noord-Amerika. Maar strekt de invloed van de AMO zich nog verder uit? Kijk eens naar de figuur hieronder.



Hier zijn HadCrut3 en AMO + trend weergeven in 1 grafiek. Een verbazingwekkend goede correlatie, nietwaar? Maar liefst 62% van de variantie in de temperatuur wordt verklaard door de geringe lineaire stijging van 0,5°C per eeuw gecombineerd met de AMO. Kortom: de temperatuurvariatie op aarde wordt voor een flink deel bepaald door de temperatuur van het water van het noordelijk deel van de Atlantische Oceaan.

Een volgende keer kijken we naar de opwaartse trend en of de klimaatgevoeligheid er uit kan worden afgeleid.
 
16-8-2011

CO2 en de menselijke invloed

Er is de laatste dagen nogal wat reuring ontstaan over een – nog niet verschenen – publicatie van Murry Salby, klimatoloog aan de Macquarie Universiteit in Sydney, Australië. Beluister zijn speech hierover via deze link. Nu staat CO2 toch al bij het Australische publiek in de belangstelling vanwege het al of niet invoeren van een groene belasting, maar professor Salby heeft de knuppel in het wetenschappelijke hoenderhok gegooid. Op een bijeenkomst van de IUGG, International Union of Geodesy and Geophysics, gaf hij een voorproefje van zijn komende publicatie. De Australische site joannenova.com.au deed er onlangs een boekje over open.

Bron: Tom Quirk

De conventionele hypothese is dat de stijging van het atmosferische CO2 van ~280 ppm in de 19e eeuw tot ~390 ppm in 2011 het gevolg is van de antropogene uitstoot van CO2 door verbranding van fossiele brandstoffen. Omdat de afgelopen decennia die uitstoot ongeveer 2x zo snel gaat als de groei van het CO2-gehalte gaat men er van uit dat ~50% van die antropogene CO2 opgenomen wordt door de oceanen. Zie de figuur hierboven.

Wat heeft Salby gevonden? Het CO2 dat in de atmosfeer zit bestaat uit 2 isotopen koolstof: 98,9% zogenaamd 12C, en 1,1% 13C. Die verhouding is niet voor elke bron gelijk: fossiele brandstoffen hebben een iets andere verhouding 13C/12C dan bijvoorbeeld planten. De ratio voor fossiele brandstoffen is kleiner dan die van planten. Tot nu toe is men er van uitgegaan dat op basis van die 13C/12C ratio vastgesteld kon worden dat de ‘extra’ CO2 in de atmosfeer het gevolg was van antropogene uitstoot, ook omdat de ratio 13C/12C in de loop van de tijd kleiner geworden is: de ‘fingerprint’. Salby stelt dat het verschil tussen CO2 uit fossiele brandstoffen en CO2 uit planten zeer klein is: de ratio’s verschillen slechts 2,6% van elkaar . Alleen al daarom is niet vast te stellen ‘waar’ het extra CO2 vandaan komt. Hij concludeert dat 80% van de variaties in atmosferische CO2 het gevolg is van schommelingen in de temperatuur.

Bron: WUWT

Ook Roy Spencer heeft dat enkele jaren geleden al beredeneerd. Bovenstaande figuren geven het CO2-signaal en het 13C-signaal weer als de trend verwijderd is. De overeenkomst is duidelijk. Hij vergelijkt dan de variabiliteit van beide bovenstaande signalen met elkaar, en komt tot de verrassende ontdekking dat de ratiohelling exact hetzelfde is als bij vergelijking van de trendsignalen, namelijk 1,0952%. Spencers conclusie: “Bottom line: If the C13/C12 relationship during NATURAL inter-annual variability is the same as that found for the trends, how can people claim that the trend signal is Manmade?? ”.

Bron: Wikipedia

Nu is het sowieso al erg lastig omvast te stellen ‘waar’ CO2 vandaan komt (sources) en waar het weer opgenomen wordt (sinks). Op bovenstaande figuur is de koolstofcyclus weergegeven. De belangrijkste bronnen voor atmosferisch CO2 zijn de oceanen ( 90 gigaton/jaar) , vegetatie (60 gigaton/jaar) en bodems (60 gigaton/jaar). De inbreng van de mensheid is slechts 5,5 gigaton/jaar. De menselijke inbreng in atmosferische koolstof is dus 2,6%. Men kan zich afvragen of een dergelijke kleine inbreng er wel toe doet, zeker als men bedenkt dat bovenstaande getallen schattingen zijn. De foutenmarges in die grote stromen zijn groter dan de antropogene inbreng. Bovendien: een relatief kleine variatie in de natuurlijke stromen van koolstof in de cyclus zal de menselijke inbreng overschaduwen. Maar afgezien daarvan: hoe kan het dat die zeer kleine extra source in staat is om het atmosferische CO2-gehalte zo op te drijven? De vraag stellen is hem beantwoorden vinden sommige wetenschappers.

Er zijn de afgelopen jaren vanuit diverse kanten twijfels gerezen over de antropogene oorsprong van de stijging van het atmosferische CO2. Een daarvan heeft te maken met de dalende 13C/12C ratio. Veel planten gebruiken hoofdzakelijk 12C in hun assimilatieproces, het zogenaamde C3 metabolisme. Maar een klein deel van de planten (~3% van de plantensoorten) heeft een zogenaamde C4 metabolisme en nemen meer 13C op dan de meeste planten.


Bron: http://faostat.fao.org/

Een van die soorten is maïs. En de productie van maïs is de afgelopen decennia enorm gestegen: vanaf 1961 is de productie ongeveer verviervoudigd. Die vermaizing van het platteland heeft ook in ons land, met name op de zandgronden in het oosten en zuiden, de afgelopen decennia een grote vlucht genomen. Dit kan invloed hebben op de 13C/12C ratio van de atmosfeer.

Salby ontkent niet dat CO2 van antropogene oorsprong invloed heeft op het CO2-gehalte van de atmosfeer, hij betwijfelt of die invloed dominant is, zoals tot nu toe werd aangenomen. Hij constateert dat de grootste toenames van CO2 plaatsvinden tijdens El Niño-condities, en de kleinste tijdens grote vulkaanuitbartingen. Dat wijst op een grote gevoeligheid van atmosferisch CO2 voor temperatuurschommelingen. Een fraai voorbeeld van die temperatuurgevoeligheid levert de redacteur van de site klimaatfraude.info. Hij vergelijkt de globale temperatuurstijging volgens HadcrutV3 met de variaties in het CO2-gehalte. Het resultaat ziet u hieronder. Een verbazingwekkend mooie correlatie , waarbij de CO2 grafiek na-ijlt op de temperatuur. Uiteraard gaat het hier om de variaties, de trend is er uit gehaald. Maar de sturende invloed van de temperatuur op het CO2-gehalte is onmiskenbaar.

Bron: woodfortrees.org

Roy Spencer trok in 2008 in een bijdrage voor WUWT al de aandacht voor het CO2-probleem. In onderstaande figuur is de uitstoot door de mens uitgedrukt in mmtC ( miljoen metrische tonnen C per jaar ) vergeleken met de variaties in CO2 (uitgedrukt ijn mmtC) gemeten op Mauna Lao. De enorme variatie in atmosferisch CO2 is niet het gevolg van de antropogene emissies, maar van natuurlijke variaties.

Spencer vergelijkt de trends van het CO2-gehalte uit bovenstaande figuur met die van de Hadcrutv3 globale temperatuur en vindt een toename van 4300 mmtC in Mauna Loa bij 1°C temperatuurstijging. Als hij uit beide grafieken (Mauna Loa en HadCrutv3) de trend haalt en dan beide datasets met elkaar vergelijkt , dan blijkt dat de regressiehelling 5100 mmtC/1°C is. De grootste correlatie ontstaat als je de temperatuurdata van de oceanen op het zuidelijk halfrond vergelijkt met Mauna Loa: 7100 mmtC/1°C.


Spencer concludeert hieruit twee dingen. In de eerste plaats dat het mechanisme dat El Niño/La Niña veroorzaakt sterk genoeg is om de stijgende trend in CO2 op Mauna Loa te verklaren. In de tweede plaats dat het eerder de oceanen dan de continenten zijn die de variaties CO2 op Mauna Loa verklaren. Mogelijk dat een toename van de El Niño/La Niña-activiteit de afgelopen decennia een (grote) impact heeft gehad op het atmosferisch CO2-gehalte. Grotere fluctuaties in omhoogkomend koud zeewater aan de westzijde van continenten, met mogelijke toename van de aanvoer van CO2 uit grotere diepten.

Op onderstaande figuur zijn de variaties van CO2 op Mauna Loa afgezet tegen de antropogene emissies. De variaties lopen van 0% tot 130% van die menselijke emissies. Spencer concludeert: “In Fig. 5 we see that the yearly-average CO2 increase at Mauna Loa ends up being anywhere from 0% of the human source, to 130%. It seems to me that this is proof that natural net flux imbalances are at least as big as the human source. ”


De grote vraag is tenslotte, wat de drijvende kracht zou kunnen zijn achter de natuurlijke variaties van het CO2-gehalte. Het idee van Spencer dat het met name de oceanen zijn die de drijvende kracht zijn achter het atmosferische CO2 wordt ook gedeeld door Tom Quirk in een publicatie uit 2009.

In de publicatie van Quirk is een interessant deelonderzoek te vinden. Ongeveer 75% van de antropogene CO2 emissies vindt plaats ten N van 30° NB. De vraag rees hoe snel C zich over de aarde kan verspreiden. Omdat CO2 ruimtelijk diffuus geëmitteerd wordt (en geabsorbeerd) maakte Quirk gebruik van het feit dat eind jaren ’50 en begin jaren ’60 nabij de Noordpoolcirkel nucleaire proeven zijn gedaan waarbij 14C vrij kwam. Op onderstaande figuur is te zien dat het enkele jaren duurde voordat dit 14C gelijkmatig over de aarde verspreid was.


Men zou verwachten dat op grond van bovenstaande er een time lag is tussen de variaties in CO2 van het NH en die van het ZH, met een omvang van ongeveer een half jaar. Om dat te kunnen vaststellen heeft Quirk de CO2 datareeksen van Mauna Loa en Antarctica vergeleken. Het resultaat ziet u in onderstaande figuur. Van een time lag tussen het NH en het ZH is geen sprake.


Hij concludeert: “The results suggest that El Nino and the Southern Oscillation events produce major changes in the carbon isotope ratio in the atmosphere. This does not favour the continuous increase of CO2 from the use of fossil fuels as the source of isotope ratio changes. The constancy of seasonal variations in CO2 and the lack of time delays between the hemispheres suggest that fossil fuel derived CO2 is almost totally absorbed locally in the year it is emitted. This implies that natural variability of the climate is the prime cause of increasing CO2 , not the emissions of CO2 from the use of fossil fuels

Ik ben erg benieuwd naar de komende publicatie van Murry Salby.

 
9-8-2011

CLOUD experiment afgerond, wetenschappers krijgen ‘interpretatieverbod’

Bron: New Scientist

Dit is een bericht dat nauwelijks aandacht heeft gehad, maar wel zeer opmerkelijk is. CERN in Geneve had al lang op de rol staan het experiment CLOUD, Cosmic Leaving Outdoor Droplets. Met behulp van een nevelkamer tracht men de mogelijke link te ontdekken tussen galactische kosmische straling en wolkvorming. Daarbij wordt gebruik gemaakt van de deeltjesversneller van CERN.

De man die het mogelijke verband tussen kosmische straling het eerst naar buiten bracht is Henrik Svensmark, een Deense fysicus. Zie voor de theoretische achtergrond het artikel in hoofdstuk “Nieuwe inzichten” en dan “Kosmische straling”. Met enige vertraging vanwege de technische aanloopproblemen met de versneller is het experiment dan uiteindelijk enkele maanden geleden uitgevoerd. Resultaat? Tja, dat ligt een beetje moeilijk. Welt Online had een interview met algemeen directeur van CERN, Rolf-Dieter Heuer. Hier een stukje uit dat interview dat over CLOUD ging:

Welt Online:Mit großer Spannung werden auch die Ergebnisse des so genannten Cloud-Experiments erwartet, bei der die Bildung von Wolken erforscht wird. Diese Ergebnisse könnten doch für das Verständnis des globalen Klimawandels wichtig sein?

Heuer:Es geht hier in der Tat darum, die Wolkenbildung besser zu verstehen. In der Natur gibt es sehr viele Parameter, die das beeinflussen – unter anderem die Temperatur, die Luftfeuchtigkeit, Verunreinigungen und auch die Höhenstrahlung. Beim Experiment „Cloud“ geht es darum, den Einfluss der Höhenstrahlung auf die Wolkenbildung zu untersuchen. Die dafür genutzte Strahlung kommt aus dem Beschleuniger. Und in einer Experimentierkammer kann unter kontrollierten Bedingungen erforscht werden, wie die Tröpfchenbildung von der Strahlung und Schwebstoffen abhängt. Die Ergebnisse werden in Kürze veröffentlicht. Ich habe die Kollegen gebeten, die Ergebnisse klar dazustellen aber nicht zu interpretieren. Damit würde man sich sofort in die hochpolitische Arena der Klimawandeldiskussion begeben. Man muss sich darüber klar sein, dass es sich bei der Höhenstrahlung nur um einen von sehr vielen Parametern handelt. “

De wetenschappers van CERN krijgen dus een ‘interpretatieverbod’, een milde vorm van spreekverbod. Nigel Calder, bekend wetenschapsjournalist uit de UK, zegt hierover in zijn blog:

Four quick inferences:
1) The results must be favourable for Svensmark or there would be no such anxiety about them.
2) CERN has joined a long line of lesser institutions obliged to remain politically correct about the man-made global warming hypothesis. It’s OK to enter “the highly political arena of the climate change debate” provided your results endorse man-made warming, but not if they support Svensmark’s heresy that the Sun alters the climate by influencing the cosmic ray influx and cloud formation.
3) The once illustrious CERN laboratory ceases to be a truly scientific institute when its Director General forbids its physicists and visiting experimenters to draw the obvious scientific conclusions from their results.
4) The resulting publication may be rather boring.


Hij zou wel eens gelijk kunnen hebben. Blijkbaar heeft de politieke correctheid het CERN nu ook in zijn greep. Voor wat betreft punt 4 maak ik me geen zorgen. Er zijn voldoende fysici die zelfs met saai onderzoeksuitslagen uit de voeten kunnen. We wachten met spanning op de zorgvuldig van interpretaties ontdane onderzoeksresultaten.
 


8-8-2011

Arctisch tipping point definitief in vrieslade

De hypothese dat er een tipping point bestaat voor het drijfijs op de Noordpool is enige tijd geleden al naar het rijk der fabelen verwezen door Tietsche e.a.van het Max Planck Instituut in Hamburg in een publicatie in GRL.
Bron: Tietsche e.a.

Ze maakten aannemelijk dat vanwege het verminderen van drijfijs er een tweetal factoren het albedo-effect teniet zullen doen, namelijk een toename van de langgolvige uitstraling vanuit de TOA (top of atmosphere) en een afname van de advectie van warmte, de toestroom van warmte vanuit de omgeving. In de zomer domineert als gevolg van verdwenen drijfijs de opwarming doordat de albedo (reflectiewaarde) drastich daalt. ’s Winters echter vonden de onderzoekers dat vanwege de afwezigheid van de isolerende ijslaag de atmosfeer sterk opwarmt , met als gevolg een grote uitstraling van IR en een daling van toestromende warmte vanuit de omgeving. De Noordelijke IJszee kan daardoor binnen 2 jaar hersteld zijn van een ijsvrije situatie. Een zogenaamd tipping point bestaat volgens de onderzoekers niet.
 

Bron: gust

Deense onderzoekers hebben in een onlangs in Science gepubliceerd onderzoek aangetoond dat zelfs tijdens de Holocene Temperature Maximum zo’n 8000 jaar geleden, toen het op aarde enkele graden warmer was dan momenteel, het zomerdrijfijs in omvang ongeveer de helft was van het jaar 2007. In dat jaar was de omvang van het zomerdrijfijs op een recent dieptepunt.

Funder e.a. hebben bij hun onderzoek gebruik gemaakt van drijfhout en het ontstaan van strandribbels in het noorden van Groenland. Drijfhout uit het noorden van Noord Amerika en Europa/Azie kan alleen Groenland bereiken als het drijfijs tot aan de kust van Groenland reikt. Omgekeerd kunnen alleen strandribbels ontstaan als er sprake is van open water. Funder e.a. reconstrueerden op deze wijze de anomalieën van het drijfijs gedurende het Holoceen.

Bron: Funder e.a.

Vanwege het feit dat in Canada voornamelijk sparren groeiden en in Siberië voornamelijk lariksen kon het stromingspatroon in de Noordelijke IJszee gereconstrueerd worden. Dit patroon bestaat uit een tweetal situaties, de Transpolar Drift (TPD) en de Beaufort Gyre (BG). Beide zijn aangegeven op bovenstaande figuur.

De sturende kracht achter beide stromingspatronen is volgens de onderzoekers de AO, Arctic Oscillation. Warme periodes vallen dan samen met tijden met relatief veel positieve AO, met sterke westenwinden, terwijl koelere situaties samenvallen met periodes met relatief veel negatieve AO. Dit laatste is ook al in andere studies verondersteld. Zie hoofdstuk De Dogma’s onder Het Drijfijs Smelt.

In een interview met de BBC benadrukte Funder dat zelfs gedurende het Holocene Temperature Maximum, toen de temperatuur op aarde hoger was dan momenteel, met een oppervlakte aan drijfijs die de helft was van die in 2007 , er geen ‘tipping point’ bereikt is. Hij zegt: " I don't say that our current worries are not justified, but I think that there are factors which will work to delay the action in relation to some of the models that have been in the media. "I think the effect of temperature and global warming may cause a change in the general wind systems which maybe will delay the effects of the rapidly rising temperatures a little bit."

Conclusie van de onderzoekers: “ The lack of uniformity in past sea-ice changes, which is probably related to large-scale atmospheric anomalies such as the Arctic Oscillation, is not well reproduced in models. This needs to be further explored, as it is likely to have an impact on predictions of future sea-ice distribution.”
 


3-8-2011

Oceanen warmen sinds 2003 niet meer op.

Een recente publicatie van Palmer e.a. heeft nogal wat stof doen opwaaien. De studie vergelijkt de decadale trends tussen TOA (Top of Atmosphere), SST (Sea Surface Temperature) en OHC (Ocean Heat Capacity) . Wat direct opvalt is dat OHC sinds 2003 geen opwaartse trend meer vertoont. Bij een toenemende hoeveelheid broeikasgassen in de atmosfeer zou men verwachten dat de OHC ook zou toenemen. Dat doet hij ook wel vanaf ~1970, maar na 2003 stokt de stijging.

De vraag is natuurlijk hoe dat kan? De extra warmte die vanwege een toegenomen broeikaseffect vastgehouden wordt moet toch ergens blijven. De oceanen hebben daarvoor verreweg de grootste opslagcapaciteit.

 

Bron: http://www.argo.ucsd.edu/

Palmer e.a. denken dat een deel van de warmte uit de bovenste waterlaag in de oceanen (mixing layer) naar grotere diepten is getransporteerd, waardoor de warmtehoeveelheid in de bovenste laag sinds 2003 constant is gebleven. Sinds 2001 wordt in alle oceanen tot een diepte van 2000 m onder andere de temperatuur gemeten in het kader van het zogenaamde ARGO-project. Momenteel zijn ruim 3300 ARGO-floats werkzaam. Ook Katsman en van Oldenborgh van het KNMI denken dat een deel van de verklaring te vinden is in het verdwijnen van een deel van de warmte naar grotere diepte.

Er zijn mijns inziens echter geen aanwijzingen vanuit het ARGO-project dat dit het geval is. Ook Roger Pielke sr is die mening toegedaan: “As heat is moved downward, we should see these warm pulses moving downward in the vertical profiles in the layer above about 700m where the data coverage is quite good. To my knowledge we do not see this heat transfer.”

Bron: KNMI

Katsman en van Oldenburgh zien een tweetal oorzaken: extra warmte verdwijnt als warmtestraling aan de bovenkant van de atmosfeer, en extra warmte gaat naar diepere waterlagen. Voor dat laatste verwijzen ze naar fluctuaties in de zogenaamde Atlantic Meridional Overturning Circulation, de warmtetransportband in de Atlantische Oceaan. Als die minder sterk is zou er meer menging plaatsvinden. Dat effect doet zich met name voor in het noordelijk deel van de Atlantische Oceaan, zoals op bovenstaande figuur te zien is. De vraag is gerechtvaardigd of een dergelijk regionaal proces op korte termijn implicaties kan hebben voor de OHC van de gehele aarde.

Pielke zegt daarover: “ If there is such transport of warm water to deep depths in the oceans, this heat is unlikely to be available on even decadal time scales for much transfer back into the atmosphere, where it could affect weather circulation patterns and atmospheric global warming. Of course, sea level rise would still occur from this heat, and, presumably, on some longer time scale this heat will reemerge. Nonetheless, such a long-term sink of heat, if it is occurring, may be an unrealized negative feedback on atmospheric warming.”

Bron: Levitus e.a.

Zoals op bovenstaande figuur uit de studie van Levitus te zien is, begint de stagnatie van de OHC vrijwel tegelijkertijd in alle oceaanbekkens. Het is dus de vraag of dat toegeschreven kan worden aan een regionaal effect zoals een haperende Atlantic Meridional Overturning Circulation.
Het verloop van de OHC zoals gereconstrueerd door Levitus, en Ishii & Kimoto en Domingues, is in onderstaande aangegeven met blauwe lijnen. Het verloop van de OHC is 17 keer nagebootst met een klimaatmodel (grijze lijnen, een voorbeeld is benadrukt in rood), de zwarte lijn geeft het gemiddelde verloop weer waarin de natuurlijke fluctuaties zijn uitgemiddeld (bron: KNMI). Te zien is dat het klimaatmodel tussen 1970 en 2002 de reconstructies heel aardig volgt. Vóór 1970 en na 2002 lopen analyses en model sterk uiteen.

Bron: KNMI

In de grafiek is te zien dat de OHC van Levitus na 2002 hoger ligt dan Ishii en Kimoto. De data van Levitus zijn echter in 2010 door NODC/NOAA naar beneden bijgesteld.

Bron: NODC/NOAA

De onderzoekers van het KNMI verwijzen voor wat betreft de atmosferische component naar een extra warmteverlies naar de ruimte als gevolg van het El Niño-effect. Deze periodieke opwarming van het centrale deel van de Grote Oceaan warmt het water extra op, waardoor via toegenomen warmteuitstraling en verdamping extra warmtetransport naar de ruimte plaats vindt. Dat laatste is voor de trouwe lezers van deze site niet bijzonder. Lees daarvoor de bijdragen over Noor van Andel (Latente warmteflux) en de thermostaat hypothese in het hoofdstuk Nieuwe Inzichten.

Bron: wikipedia

Nu zijn El Niño en La Niña van alle tijden, dus hoe verklaren Katsman en van Oldenborgh dat juist ná 2003 er een stagnatie optreedt? Dat doen zij door te wijzen op de extra El Niño-activiteit in het afgelopen decennium. Nu is dat inderdaad juist: het afgelopen decennium is El Niño extra actief geweest . Maar verklaart dat de stagnatie na 2003? Kijk eens naar het historische verloop van El Niño / La Niña sinds 1982. Inderdaad is El Nño het afgelopen decennium extra actief geweest, maar dat was nog sterker het geval tussen 1990 en 1998. En van een stagnatie in de stijging van de OHC was toen geen sprake. Je kunt je derhalve afvragen hoe sterk dit argument is.

Bron: IRI Columbia

Katsman en van Oldenborgh zetten hun kaarten in op El Niño en noemen de stagnatie van de OHC voor wat betreft de atmosferische component het gevolg van natuurlijke variabiliteit. Ik vind dat niet overtuigend, zoals ik hierboven al heb willen aantonen. Er is namelijk nog een derde mogelijkheid, namelijk de negatieve terugkoppeling via extra verdamping en wolkvorming als gevolg van een stijging van de SST. Lindzen heeft in 2009 al laten zien dat er sprake is van een toenemende uitstraling (TOA) , gemeten door ERBE. En die gemeten toegenomen uitstraling is tegengesteld aan het door klimaatmodellen voorspelde gedrag, namelijk een afname van die uitstraling.

Bron: Lindzen

Oceanen beslaan 71% van het aardoppervlak, en met hun gigantische opslagcapaciteit voor warmte sturen zij het wereldklimaat. Het is derhalve geen toeval dat de stagnatie van de OHC samenvalt met het stilvallen van de gemiddelde wereldtemperatuur het afgelopen decennium. Zie de temperatuurgrafieken van de grote instituten in het hoofdstuk De Feiten onder Wereld Temperatuur. HadCrut laat zelfs een daling van de globale temperatuur zien.

Bron: Hadcrut
 
Uiteraard is het nu nog te vroeg om verregaande conclusies te trekken. Daarvoor is de recente stagnatie nog te kort. Maar als de stagnatie van de OHC doorzet hebben veel klimatologen een groot probleem. De huidige klimaatmodellen blijken weer niet in staat om het uiterst complexe wereldklimaat goed na te bootsen. Toch zijn deze modellen voor veel klimatologen het enige houvast, helaas.

NASA schrijft: “Ultimately, we are searching for a set of mathematical models that allow us to span the incredibly large range of space and time scales important to aerosols, water vapor, clouds, the land surface, and the oceans. These models must be capable of reproducing the variability shown in the data at both regional and global scales. They must be capable of reproducing El Niño, the Earth's diurnal and seasonal cycles, and the inter-annual variability in the climate system. The models must also be capable of reproducing the systematic changes in the radiative energy balance with changing aerosols, water vapor, clouds, and surface properties. Only then can we begin to trust the models to produce accurate global change predictions.”

De onderzoekers van het KNMI zetten hun kaarten voorlopig nog op ‘onbekende’ processen die passen binnen de gangbare broeikashypothese en klimaatmodellen. Dat is jammer, vind ik. Maar de voorzichtigheid als wetenschappers die Katsman en van Oldenborgh desondanks hebben in deze materie is volledig verdwenen in het persbericht van het KNMI over de materie, dat op dezelfde dag (28 juli 2011) verscheen als het bericht van de onderzoekers. Daarin kopt het KNMI: “Verdwenen warmte in oceaan gevonden”. Pff, probleem opgelost, komt het toch nog allemaal goed!

 

1-8-2011

Spencer vergelijkt klimaatmodellen met data CERES
 

Satelliet Terra Bron NASA

Dr. Roy Spencer van UAH en zijn collega William Braswell hebben met hun jongste publicatie nogal wat stof doen opwaaien. Het artikel in het tijdschrift Remote Sensing vergelijkt de data van de CERES instrumenten aan boord van NASA’s Terra satelliet. Een van de twee CERES instrumenten meet sinds 2000 de door de aarde uitgezonden kortgolvige (reflectie) en langgolvige (warmtestraling) straling. De gangbare theorie is dat de temperatuur op aarde met een time-lag reageert op zogenaamde forcings (zoals toename van broeikasgassen) door de absorptie van de extra energie in de zogenaamde mixed layer van de oceanen, en dat daarna pas een correctie komt van de energiebalans door meer output van straling richting ruimte.

Spencer en Braswell vergeleken de satellietdata van de afgelopen 10 jaar met een zestal klimaatmodellen die gebruikt worden door het IPCC. Het IPCC gebruikt meer dan 20 van dergelijke modellen in haar publicaties, maar Spencer gebruikt in zijn studie alleen de 3 meest gevoelige modellen (MIROC3.2-hires; IPSL-CM4; MIROC3.2-medres) en de drie minst gevoelige modellen (FGOALS; NCAR PCM1; GISS-ER). Spencer en Braswell bekeken op welke wijze de 6 klimaatmodellen reageerden in een periode van 18 maanden vóór tot 18 maanden ná een temperatuurwijziging tussen 200 en 2011 , en vergeleken dat met hoe de atmosfeer in werkelijkheid reageerde aan de hand van satellietdata.

Er blijkt een fors verschil te zijn tussen de voorspellingen van de modellen en de gemeten waarden door CERES. De meetgegevens van de satelliet laten zien dat er gedurende een temperatuurpiek veel meer energieverlies richting ruimte is gedurende en na de opwarming dan de modellen aangeven. Dat is vooral het geval boven de oceanen, die ruim 70% van het aardoppervlak beslaan. In onderstaande figuur is dat weergegeven. Voor de temperatuurgegevens aan het aardoppervlak maakten de onderzoekers gebruik van HadCRUT data.



Maar dat verlies aan energie gedurende een opwarmingsfase is niet het enige opmerkelijke verschil tussen de metingen en de modellen. De extra uitstraling begint al zo’n 3 maanden voordat een opwarmingsfase zijn hoogtepunt bereikt. En ook daarin verschillen de waarnemingen met de gangbare modellen.

Spencer en Braswell opperen voorzichtig dat dit wel een aanwijzing zou kunnen zijn dat het aardse klimaat veel minder gevoelig is voor opwarming als gevolg van toenemende broeikasgassen dan tot nu toe door veel klimatologen werd aangenomen. Een belangrijk fundament onder de broeikastheorie is immers dat een lichte opwarming als gevolg van toegenomen broeikasgassen versterkt wordt door positieve terugkoppelingen door met name toenemende bewolking.

Spencer en Braswell benadrukken dat het in feite onmogelijk is om in een ingewikkeld systeem als het aardse klimaat vast te stellen welke klimaatverandering het gevolg is van forcings en welke van feedbacks. Maar met name de sterke extra uitstraling boven de oceanen tijdens een opwarming suggereert dat hier het werk van wolken in het spel is. Ook het feit dat het gedrag van radiative forcing in het gebruikte feedback-forcingmodel (zie figuur hier onder) sterk lijkt op de gemeten uitstraling van bovenstaande figuren sterkt de onderzoekers in hun hypothese dat wolken een belangrijke rol spelen in de wijze waarop de energiebalans van de aarde reageert op temperatuurwijzigingen.


Dat wolken een grote invloed hebben op het aardse klimaat is al langer bekend. Hoge bewolking (cirrus), dat bestaat uit ijskristallen, heeft de eigenschap dat het vrijwel alle kortgolvige straling doorlaat maar een deel van de uitgaande langgolvige straling absorbeert en weer uitstraalt. Dit type bewolking warmt de aarde op. Lage bewolking, zoals stratus, bestaat uit waterdruppels en reflecteert een deel van de kortgolvige straling terwijl het ook langgolvige straling absorbeert. Het netto effect van dit type bewolking is afkoeling. Reflectie domineert dus absorptie.
Al eind jaren ’80 concludeerde NASA aan de hand van data uit het ERBE-project dat aardse bewolking netto een afkoelend effect heeft, dat geschat wordt op zo’n 11°C.

NASA schrijft op haar website: “Given the large impact of clouds on the radiative energy balance, the critical question now becomes: What effect will clouds have on surface temperatures if global climate changes in the next century? No one knows. Clouds could act to dampen any greenhouse gas warming by increasing cloud cover, increasing thickness, or by decreasing in altitude. Conversely, clouds could act to increase warming of the planet if the opposite trends occur. In fact, the climate is so sensitive to how clouds might change, that our current best models of global climate can vary in their global warming predictions by more than a factor of three depending on how we try to model the clouds.

So why can't we model clouds? The biggest problem is that clouds are almost explosive in nature when compared to the rest of the climate system. Cumulus clouds can form in seconds to minutes, and the entire life cycle of a massive thunderstorm can be measured in hours. This thunderstorm cloud may only cover 20 to 50 miles of the Earth's surface, while our best global climate models on the world's fastest supercomputers can only track a single column of the surface and atmosphere every 50 to 200 miles
. ”

Toch gaan alle door het IPCC gebruikte klimaatmodellen uit van een positieve feedback van bewolking als gevolg van een versterkt broeikaseffect. De bevindingen van Spencer en Braswell geven aan dat het tijd wordt voor een heroverweging van wolkengedrag door de modelbouwers. Het zijn spannende tijden in klimatologenland.

 


2-7-2011

Duitse kernenergie exit

Wat bezielt de Duitsers om zo emotioneel te reageren op de problemen met de kerncentrale in Fukushima? Natuurlijk is kernenergie altijd al omstreden geweest in de BRD, maar tot nu toe bleven de acties beperkt tot de (relatief omvangrijke) groep geitenharenwollensokken alto’s.



Ondanks alle alarmerende berichten uit Japan hebben de problemen in de Fukushima-centrale niet geleid tot doden, zelfs niet tot stralingszieken voor zover we nu weten. Bovendien ontstonden de problemen door een extreem hevige tsunami, niet door het falen van het systeem. Men kan stellen dat het systeem op de betreffende locatie zodanig gebouwd had moeten worden dat geen enkele tsunami dergelijke gevolgen zou kunnen hebben. Dat is ongetwijfeld juist.

Dat neemt echter niet weg dat het besluit om op termijn alle Duitse kerncentrales te sluiten vooral op emoties lijkt te zijn gebaseerd, terwijl men toch zou mogen verwachten dat de grootste economie van Europa een zorgvuldige afweging zou maken. Maar hoe maak je een dergelijke afweging? Daar zijn uitgekiende methoden voor.

De vraag hoe het palet van elektriciteitsproductie er in de toekomst uit moet zien is al jaren een onderwerp van onderzoek. Daarbij speelt een populair begrip als ‘sustainabilty’ een belangrijke rol, zeker afgezet tegen de klassieke nadelen van fossiele brandstoffen, zoals milieuproblemen en beperkte voorraad. Nu zijn met name de voorraden van gas maar vooral van steenkool ongekend groot, maar vooral de laatste levert op veel plaatsen milieuproblemen op. Zou het niet fantastisch zijn als het mogelijk was om voor 100% over te stappen op duurzame energie? Maar is dat realistisch?

 

Paul Scherrer Institut in Zwitserland

Een recente methode om voor- en nadelen van diverse vormen van elektriciteitsopwekking op een rijtje te zetten is de MCDA, Multi Criteria Decision Analyses van het Zwitserse Paul Scherrer Institut. Het Paul Scherrer Instituut, PSI, is het grootste onderzoekscentrum voor natuur-en ingenieurswetenschappen binnen Zwitserland.

De recente conclusie van het instituut is dat er momenteel geen optimale oplossing voor het energieprobleem is, en dat de keuze sterk afhangt van de prioriteiten die men wil stellen.

In de MCDA gaat het om 3 velden die een rol spelen in de analyse, namelijk milieu, economie en maatschappij. De opzet van de MCDA is hieronder links schematisch weergegeven. Alle stappen in blauw zijn objectieve stappen, de enige rode is een subjectieve. De drie genoemde velden zijn hieronder rechts verder uitgewerkt, op basis van reacties van een grote groep belanghebbenden.

Alle onderdelen van de drie velden zijn zo goed als mogelijk gekwantificeerd. Daarna heeft men elk van de onderdelen een relatieve weging gegeven, zoals hieronder weergegeven.

Voor Zwitserland is daarna een analyse gemaakt voor het jaar 2050. Daarbij heeft men zo goed als mogelijk is rekening gehouden met lopende technologische ontwikkelingen binnen de diverse vormen van elektriciteitsopwekking. In de figuur hieronder is voor elk van de energievormen aangegeven wat de ranking is op basis van MCDA voor elk van de drie velden. Afhankelijk van bepaalde (bijvoorbeeld politieke) afwegingscriteria kan men aan een van de velden een zwaardere weging toekennen dan aan andere. Voor de Duitse regering is de ‘focus society’ blijkbaar momenteel een zeer zware factor.

Stel nu dat ik alle drie de velden een even zware weging toeken, hoe komt het plaatje er dan uit te zien? Op onderstaande figuur heb ik de uitslag met oranje bolletjes weergegeven. In het veld environment is klimaatverandering als gevolg van de toepassing van een bepaalde vorm van stroomopwekking voor 30% meegeteld. Dat lijkt me een keuze die vooral is ingegeven door de alarmistische visie van het IPCC. Als men de invloed op het klimaat op 0% stelt, zou dat voor de oranje bolletjes in de figuur betekenen dat de waarde met ~1 rankingpunt afneemt.

Als we op basis van bovenstaande figuur de meest duurzame vorm van energieopwekking moeten kiezen, dan is de grote winnaar het gebruik van zonne-energie voor de opwekking van elektriciteit en voor omzetting in warmte. Op een goede derde plaats komt dan nucleaire energie van de vierde generatie. De vraag is echter of de economische component van de analyse even zwaar mag tellen als die van milieu en maatschappij. Tenslotte willen we wel allerlei schone technologie, mits het betaalbaar is. Daarom heb ik in de figuur de component ‘economy’ laten staan, de rode bolletjes.

Geeft men de factor ‘kosten’ een zwaardere weging, dan komen nucleaire energie maar ook aardgas er goed uit. Opvallend is dat windenergie er helemaal niet goed van af komt in de analyse. Het is daarom onbegrijpelijk waarom veel overheden nog steeds deze vorm van energieopwekking omarmen.

Natuurlijk zit de energiewereld niet eenvoudig in elkaar, al was het alleen maar omdat gebruik van meerder energievormen uit oogpunt van risicospreiding voor de hand ligt: draag niet al je eieren in één mandje. De beslissing van de Duitse regering om kernenergie uit te bannen lijkt daarom des te meer op paniekvoetbal. En dan ook nog eens méér windenergie inplannen. Of is het een politieke Schwalbe?

Tot slot nog twee interessante tabellen van het PSI. Voor de duidelijkheid: E-3 betekent : per 1000, E-6 per 1 miljoen, etcetera.



 
29-6-2011

Help, Venetië verzuipt!

 

Alweer een fout van het IPCC "hersteld". In 2007, direct na publicatie van rapport 4 van het IPCC, zei Osvaldo Canziani : “Venice could find itself under water within a few decades if current climate trends continue. Over the next 30 or so years rainfall in the northern Mediterranean will increase by 10-20% as a result of global warming”.

Canziani is een Argentijns meteoroloog die een hoge post bekleedt binnen het IPCC. Gedurende het derde (TAR) en vierde (AR4) rapport van het IPCC was hij co-chairman van werkgroep II.

Bron: Troccoli et al

Venetië is net als Nederland een geliefd doelwit voor alarmisten als het gaat om klimaatverandering. Beide regio’s liggen immers ‘gevaarlijk’ dicht op gemiddeld zeeniveau, en met de door alarmisten voorspelde forse zeespiegelstijging ligt het voor de hand dat daar de eerste klappen vallen.

Maar wat voor de hand ligt hoeft daarom nog niet juist te zijn. Dat bewijst de Italiaanse onderzoeker Dr Alberto Troccoli van CSIRO (Commonwealth Scientific and Industrial Research Organisation) in een studie die hij samen met een internationaal team heeft gedaan. De publicatie, “Storm surge frequency reduction in Venice under climate change”, maakt korte metten met de voorspellingen van Canziani voor wat betreft Venetië.



De plaatjes zijn bekend: bekende delen van Venetië zoals het San Marcoplein , staan onder water. Het lijkt logisch: als de voorspellingen van het IPCC uitkomen, zal Venetië in de golven verdwijnen. Maar de werkelijkheid blijkt weerbarstiger dan de makkelijke optelsom van zeespiegelstijging + extra neerslag + lage ligging Venetië = veel overstromingen.

Troccoli heeft studie gedaan naar het verschijnsel van Acqua Alta, de hoogwaterproblemen. Die problemen ontstaan bij een combinatie van getijdewerking en wind. De getijdewerking is in de Middellandse Zee gering vanwege de vrijwel volledige afsluiting voor de vloedgolf door de nauwe Straat van Gibraltar. Die geringe getijdebeweging van het water vindt dus uitsluitend plaats als gevolg van astronomische krachten.

Veel belangrijker is de invloed van storm, die het water in de Adriatische Zee onder bepaalde omstandigheden flink kan opstuwen. Troccoli noemt dit de atmosferische component. In de onderstaande grafiek is de overheersende rol van de wind ten opzichte van getijdewerking goed te zien.


Bron: Troccoli et al

De stormvloed die zo nu en dan delen van Venetië onder water zet is het gevolg van de luchtdrukverdeling boven de Middellandse Zee. Als die luchtdrukverdeling zodanig is dat er een lagedrukgebied in de buurt van Corsica ligt, zal als gevolg daarvan boven de Adriatische Zee de wind uit het ZO komen en het water in de Adriatische Zee nabij Venetië hoog op stuwen. Volgens Troccoli wordt de atmosferische component van de stormvloed voor 75% bepaald door deze opstuwing.

Bron: Troccoli et al

Naast opstuwing spelen ook nog andere factoren een rol, zoals de lagere luchtdruk, die een zogenaamde inverse barometer effect veroorzaakt ( ~10-15%) en toegenomen neerslag (~5-10%). Troccoli heeft op basis van bovenstaande een tweetal drempels voor het ontstaan van stormvloeden vastgesteld. De eerste is een drukverschil van minimaal 17,5 mbar tussen Venetië en Mostar, de tweede dat de baan van stormcentrum (lagedrukgebied) binnen 10° van Venetië gelegen is. Verificatie vond plaats aan de hand van de ERA-40 dataset.


Bron: Troccoli et al

Vervolgens hebben de onderzoekers een zevental CGM’s (klimaatmodellen) laten rekenen aan de drukverdeling en stormbanen boven de regio tot het eind van de eeuw. Conclusie: het vóórkomen van extreme stormvloeden in de Adriatische Zee zal aan het eind van de eeuw met ongeveer 30% zijn afgenomen. Weliswaar zal het gemiddeld zeeniveau in de Adriatische Zee dan waarschijnlijk wat toegenomen zijn, maar gezien het relatief geringe aandeel van getijden in de overstromingen zal de overstromingskans in Venetië flink afnemen.

Algemene conclusie van Troccoli: “..alterations in extreme tidal levels under climate change must be considered on a case-by-case basis in spite of the projected global sea level increase”. Alweer een ballonnetje van het IPCC doorgeprikt.
 
25-6-2011

De zeespiegel en het klimaat

In een recent artikel van Kemp et al wordt een reconstructie van het zeeniveau van de afgelopen 2100 jaar uitgevoerd op basis van proxies uit twee kustmoerassen in North Carolina. Vervolgens tonen de onderzoekers aan dat voor tenminste de afgelopen 1000 jaar de zeespiegelstijging correleert met het globale temperatuurverloop. Althans, dat is wat de auteurs beweren. In onderstaande grafieken is een en ander aanschouwelijk gemaakt.



 
Een van die auteurs is Michael Mann, bekend van de hockeystickgrafiek. Geen wonder dan ook dat de publicatie op extra belangstelling mocht rekenen van diegenen die het klimaat kritisch volgen. En kritiek kwam er, zowel op de reconstructie van het zeeniveau als op de gebruikte temperatuurdata.

Laten we eerst eens naar de reconstructie van het zeeniveau kijken. De auteurs concluderen op basis van de studie dat er een viertal periodes te onderscheiden zijn:

a) van 100 v. Chr. tot 950 n.Chr. een stabiele zeespiegel
b) van 950 n.Chr. tot 1350 n.Chr. een stijging met 0,6 mm/jaar
c) van 1350 n.Chr. tot ongeveer 1880 n.Chr. stabiel en licht dalend
d) van ongeveer 1880 tot heden 2,1 mm/jaar

Voor een inleiding in de materie leest men bijvoorbeeld deze site, hoofdstuk “De Feiten” en dan “Zeespiegelstijging”. Het is dan al snel duidelijk dat van ‘één zeespiegel’ geen sprake is. Allerlei factoren hebben invloed op de zeespiegel, zodat men beter van regionale zeespiegel kan spreken dan van een mondiale, zeker in een relatief korte tijdsspanne.

Onderhavige studie baseert de reconstructie van het zeeniveau op een aantal sedimentboringen op een tweetal plaatsen, vlak bij elkaar gelegen aan de oostkust van de USA. Tot voor kort, voordat de satelliet zijn intrede deed, was men uitsluitend aangewezen op onderzoek langs de kust. Dat juist dergelijk kustonderzoek voor extra complicaties zorgt is bekend. Mörner (2010) vat de problemen die kunnen ontstaan bij een reconstructie van het zeeniveau langs de kust bondig samen in onderstaande figuur.
 


Bron: Mörner

Zoals op het kaartje goed te zien is, is de kust van North Carolina een sedimentatiekust, met strandwallen, en een achterliggend waddengebied, het haf. Eigenlijk is deze situatie heel goed vergelijkbaar met onze eigen kust in West en Noord Nederland. Net als in North Carolina is in ons haf op den duur veen ontstaan (Hollandveen). Dergelijke kusten zijn zeer dynamisch van aard (zie bovenstaand figuur) waardoor het zeer lastig is het zeeniveau te reconstrueren. Bovendien is het extra lastig op basis van de veenafzettingen dergelijk onderzoek te doen omdat veenafzettingen organisch van aard zijn, en te maken hebben met inklinken, mar ook met andere geochemische reacties.

De auteurs zeggen over de betrouwbaarheid van deze data: “Agreement of geological records with trends in regional and global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments. Despite differences in accumulation history and being more than 100 km apart, Sand Point and Tump Point recorded near identical RSL variations.”

 

Bron: WUWT

Eschenbach heeft in een bijdrage voor WUWT uitgezocht of de salt-marsh proxy approach in de studie inderdaad gerechtvaardigd wordt door nabijgelegen getijdedata. In bovenstaande figuur zijn de 2 nabijgelegen getijdemeetpunten weergegegeven, namelijk Hampton Roads en Wilmington.

Van de eerste gaan de data terug tot 1927, van de tweede tot 1935. Bovendien heeft Eschenbach de satellietgegevens van TOPEX
gebruikt die lopen vanaf 1992. In onderstaande figuur zijn alle data bijeengebracht om te zien of “global tide-gauge data (Figs. 2B and 3) validates the salt-marsh proxy approach and justifies its application to older sediments” zoals de auteurs beweren.

Bron: WUWT

Opvallend is dat de gemiddelde zeespiegelstijging van Wilmington 2 mm/jaar is, terwijl die van Hampton Roads 4,5 mm/jaar is. Beide meetpunten liggen nog geen 300 km van elkaar. Overigens een prachtig bewijs dat Mörner gelijk heeft. Maar de grafiek laat tevens zien dat beide getijdedatareeksen zo ver uiteen lopen dat van een ‘valitation’ van de gebruikte aanpak geen sprake kan zijn. Zeker als men in daarbij de verschillen tussen de gekozen meetpunten Tump Point en Sand Point betrekt: de zeespiegelstijging van het eerste is bijna 50% groter dan van de laatste.

Eschenbach vat dit zo samen: ” We don’t have good observations to compare with their results, so virtually any reconstruction could be claimed to be “validated” by the nearby tidal gauges. In addition, since the Tump Point sea level rise is nearly 50% larger than the Sand Point rise, how can the two be described as “near identical” ?” . Overigens vertoont de recente satellietmeting van TOPEX een gemiddelde stijging vanaf 1992 van 0,5 mm/jaar.

Het tweede probleem betreft de gebruikte temperatuurreconstructie. Die stamt uit een publicatie uit 2008 van Michael Mann, een van de auteurs. En die reconstructie heeft behoorlijk wat kritiek gekregen sinds de publicatie. Een van de zwaarste punten van kritiek is dat Mann de proxies van Tiljander gespiegeld heeft gebruikt. Zie onder andere hier en hier. Amac gaf in 2009 al een uitgebreid overzicht over de discussies over de kwestie.

Een voorzichtige conclusie is dat de manier waarop Mann de 3 Tiljander datareeksen heeft gebruikt zeer omstreden is. Waarom de auteursploeg dan toch deze reconstructie heeft gebruikt in deze studie is de grote vraag. Dat is het zeker omdat een van de auteurs, Martin Vermeer, in een verhit debat op een klimaatblog een opmerkelijke uitspraak doet. Op een opmerking van Steve Mosher dat, indien het (volgens Vermeer) voor de resultaten niet uitmaakt of je de proxiedata van Tiljander al of niet omgekeerd gebruikt, het dan beter zou zijn om de grafiek met de juiste oriëntatie toe te passen, antwoordt Vermeer: “I would agree with you when starting from scratch. But for an existing paper you have to be reponsive to issues brought up by showing how they affect the reported results. If they completely undermine them, you have to retract; short of that, completely rewriting the paper is not usually an option. BTW I would have left out these questionable proxies. But it's a judgment call, and Mann made this choice.”

Waarom Vermeer bij de publicatie van het recente artikel over de zeespiegel er niet op aangedrongen heeft de omstreden proxies niet te gebruiken, is onbekend. Misschien heeft hij dat wel gedaan, maar is Mann’s invloed van doorslaggevende invloed geweest. Van dat laatste is onderstaande figuur uit het bekende Wegman Report illustratief. De machtige positie van Michael Mann in het wereldje van de paleoklimatologen is in een klap duidelijk:

Bron: Wegman Report
 


22-6-2011

IPCC houdt aanbeveling buiten de deur

Bron: WUWT

Naar aanleiding van het feit dat Greenpeace een deel van het nieuwe rapport van het IPCC heeft geschreven (zie de vorige bijdrage) zijn er vragen gesteld aan voorzitter Pachauri van het IPCC. Het IPCC heeft namelijk naar aanleiding van de grote commotie rond haar vorige (vierde) rapport besloten om de samenstelling van haar auteurscommissies transparant en wetenschappelijk verantwoord te maken. Dat zou moeten gaan via de zogenaamde conflict of interest recommendation van het IAC.

Naar aanleiding van de kwestie rond de lead author van het onlangs verschenen rapport van het IPCC waarbij een directielid van Greenpeace lead author is, zijn Pachauri door een journalist van The Economist vragen gesteld over die nieuwe procedures. De voorzitter van het IPCC meent echter dat die nieuwe transparante aanpak nog niet kan gelden voor de huidige teams die zich bezighouden met de voorbereidingen voor het komende 5e rapport van het IPCC. Dat wil dus zeggen dat de directeur van Greenpeace gewoon mag blijven zitten.

Hier een stukje uit dat vraaggesprek:

B: Are you happy with the IPCC’s new conflict-of-interest policy? [adopted at the panel’s recent plenary]
RP: Absolutely. I must say that was a very heartening piece of work. People put in a lot of effort to come up with what I think is a very robust policy in terms of conflict of interest.
B: At what point should it start to apply?
RP: It’s applicable right away. Of course if you look at conflict of interest with respect to authors who are there in the 5th Assessment Report we’ve already selected them and therefore it wouldn’t be fair to impose anything that sort of applies retrospectively.



Vanwege deze affaire heeft de voorzitter van de Committee on Science, Space and Technology van het Huis van Afgevaardigden in Washington een pittige brief gestuurd naar Ban Ki-moon , seretaris-generaal van de UNO waar het IPCC onder valt. Daarin uit hij zijn bezorgdheid over het feit dat het IPCC tot nu toe niets heeft gedaan om de aanbeveling van het IAC in te voeren. Tussen de regels door lees je zelfs dat het IPCC die invoering heeft gefrustreerd. Hoe geloofwaardig is het IPCC? Dit doet de waarde van het volgende rapport van het IPCC verder dalen, ruim voor het uitgekomen is.
 
19-6-2011

Greenpeace schrijft voor IPCC

Na het broodje-haringverhaal van Greenpeace van enkele dagen geleden is de organisatie alweer in het nieuws, en wederom op negatieve wijze.

Bron: WUWT

Op 14 juni j.l. zag een nieuw rapport van het IPCC het daglicht over duurzame energie in de toekomst. Het rapport is geschreven door Werkgroep 3 die zich bezighoudt met mitigatiebeleid. Steve McIntyre , luis op de olifantenhuid van het IPCC, werd nieuwsgierig naar de bron van het volgende statement in het rapport: “Close to 80 percent of the world‘s energy supply could be met by renewables by mid-century if backed by the right enabling public policies a new report shows.”.

Bron: rapport IPCC

Een nogal boude voorspelling, waarvan McIntyre de berekening wilde achterhalen. Die ‘bijna 80%’ is terug te vinden in tabel 10.3 van hoofdstuk 10 van het IPCC-rapport, dat spreekt van 77% duurzame energie in 2050. Bron van dit cijfer is een publicatie van Teske et al uit 2010. Sven Teske is tevens lead author van dit rapport van het IPCC.

Wat is nu het interessante aan dit hele verhaal? Als je zoekt naar de publicatie van Teske kom je vanzelf op een publicatie met dezelfde naam, maar dan uitgegeven door Greenpeace. Even verder zoeken en dan blijkt de leading author van het IPCC, Sven Teske, ook directeur van Renewable Energy Campaign for Greenpeace International.

Het betreffende rapport is door Greenpeace uitgegegeven samen met het EREC, het European Renewable Energy Council. Dat is een club van bedrijven die belangen hebben in installatie en exploitatie van duurzame energie. Het Greenpeacewerk heet: “energy [r]evolution, a sustainable global energy outlook”. Voorwoord is geschreven door R.K. Pachauri, die we ook kennen als voorzitter van het IPCC.


Bron: Grist.org

Conclusie: het betreffende hoofdstuk in het rapport van het IPCC is (deels) van de hand van Greenpeace, in coöperatie met de samenwerkende energiebedrijven op het gebied van duurzame energie. Wie gelooft NU nog in de wetenschappelijke onafhankelijkheid van het IPCC? Conclusie van McIntyre: “Everyone in IPCC WG3 should be terminated and, if the institution is to continue, it should be re-structured from scratch.”.
 
17-6-2011

Prof. De Jager krijgt gelijk

Alle tekenen wijzen erop dat Cees de Jager gelijk krijgt: de zonnevlekkencyclus van 11 jaar dooft langzaam uit. Op een bijeenkomst van de American Astronomical Society afgelopen week gonsde het al van de geruchten over de toenemende hoeveelheid aanwijzingen dat er werkelijk wat aan de hand is met de zonnecycli. Zie ook “Nieuwe Inzichten” onder “Zonnecycli”.


Cyclus 24 is enkele jaren te laat op gang gekomen. Zoals op bovenstaande illustratie te zien is is hij veel zwakker dan de voorafgaande cyclus 23. Cyclus 24 zal naar verwachting zijn maximum hebben in 2013, en cyclus 25 in 2024. Maar alle tekenen wijzen erop dat cyclus 25 of zeer zwak wordt dan wel weg blijft.

Een van die aanwijzingen is het wegblijven van de zogenaamde jet streams. Dat zijn stromingen op een diepte van 7000 km onder het zonne-oppervlak, waarboven de zonnevlekken zich manifesteren. Die jet streams onstaan altijd op hoge breedte (ongeveer 50° NB en ZB) en zakken dan langzaam af naar de zonne-equator. Het ontstaan van dergelijke jet streams vindt al plaats ruim voordat de voorgaande cyclus is uitgedoofd.

Bron: Sky & Telescope

Wetenschappers die zich bezighouden met helioseismologie, zoals Frank Hill en Jay Pasachoff, nemen waar dat het ontstaan van de jet streams voor cyclus 25 uitblijft. De cyclus is al enkele jaren over tijd, om preciezer te zijn. Op onderstaande afbeelding is dat te zien. De jet streams zijn de rood-gele strepen op de figuur. Aan de linkerzijde ziet men de jet streams van cyclus 23, die omstreeks 2002 de zonne-evenaar bereiken. Verder is te zien dat de jet streams van de huidige cyclus 24 al in 1997 verschijnen op 50° NB en ZB, en dat ze de evenaar zullen bereiken in 2013. Het ontstaan van de volgende jet streams van cyclus 25 zou normaal gesproken al in 2009 hebben moeten plaats vinden, maar er is tot nu toe nog helemaal niets te zien.


Een tweede aanwijzing dat er iets bijzonders aan de hand is, is dat de sterkte van het magnetisch veld in het donkere hart van zonnevlekken alsmaar zwakker wordt. Zodra die sterkte beneden de 1500 Gauss daalt zullen er geen zonnevlekken meer ontstaan.

Bron: National Solar Observatory

De parallel met het ontstaan van het Maunder Minimum rond 1620 ligt voor de hand. Ook toen was er sprake van een afzwakkende zonnecyclcus, die er voor zorgde dat zonnevlekken ongeveer 100 jaar weg bleven. Het gevolg was een afkoeling van de temperaturen op aarde, die bekend staat als de Kleine IJstijd.



Prof. De Jager heeft allemaal al enkele jaren geleden voorspeld, in een publicatie samen met de Argentijn Duhau. Hij noemt de komende koele periode het nieuwe Grote Minimum, dat volgens hem zal duren tot ongeveer 2100. Zie de website van de Jager.
 
16-6-2011

Modelleren in de klimatologie

Op 12-5—2011 besteedde ik hier aandacht aan de laatste bijdrage van Noor van Andel, getiteld “Analyse van een fysicus: waar gaan de klimaatmodellen de mist in? ”. Daarin legde hij uit waar de klimaatmodellering zwakten vertoont. Van Andel was in zijn laatste bijdrage duidelijk: het is bijzonder lastig, zo niet onmogelijk om een chaotisch systeem als het klimaat in een model te vangen.

Dat was overigens niet alleen de particuliere mening van van Andel: ook steeds meer wetenschappers die tot voor kort het IPCC en de door deze organisatie gehanteerde modellen als de Heilige Graal beschouwden keren op hun schreden terug en moeten erkennen dat modelleren nog in de kinderschoenen staat.

Een mooi voorbeeld van een wetenschapper die er wat dit betreft al vroeg bij was, is Henk Tennekes, voormalig wetenschappelijk directeur van het KNMI. Men fluistert dat zijn ‘afwijkende’ stellingname mede oorzaak geweest is van zijn vervroegd afzwaaien. In een recente bijdrage van Tennekes over klimaatmodellering, “A Skeptical View of Climate Models, schrijft hij: “…… those that advocate the idea that the response of the real climate to radiative forcing is adequately represented in climate models have an obligation to prove that they have not overlooked a single nonlinear, possibly chaotic feedback mechanism that Nature itself employs. Popper would have been sympathetic. He repeatedly warns about the dangers of "infinite regress." As a staunch defender of the Lorenz paradigm, I add that the task of finding all nonlinear feedback mechanisms in the microstructure of the radiation balance probably is at least as daunting as the task of finding the proverbial needle in the haystack. The blind adherence to the harebrained idea that climate models can generate "realistic" simulations of climate is the principal reason why I remain a climate skeptic. From my background in turbulence I look forward with grim anticipation to the day that climate models will run with a horizontal resolution of less than a kilometer. The horrible predictability problems of turbulent flows then will descend on climate science with a vengeance.”

Reeds eerder schreef ik over de veranderingen in inzicht die onlangs zich openbaarden bij de leden van The Royal Society in Groot Brittannië. Zie “De Feiten” en dan “Klimaatveranderingen”. Ook dit eerbiedwaardige gezelschap van wetenschappers heeft zijn inzichten op het gebied van klimaatverandering bijgesteld. Over modelleren in de klimatologie schrijft de Society:

As noted above, projections of climate change are sensitive to the details of the representation of clouds in models. Particles originating from both human activities and natural sources have the potential to strongly influence the properties of clouds, with consequences for estimates of climate forcing. Current scientific understanding of this effect is poor….Additional mechanisms that influence climate sensitivity have been identified, including the response of the carbon cycle to climate change, for example the loss of organic carbon currently stored in soils. The net effect of changes in the carbon cycle in all current models is to increase warming, by an amount that varies considerably from model to model because of uncertainties in how to represent the relevant processes. The future strength of the uptake of CO2 by the land and is very poorly understood, particularly because of gaps in our understanding of the response of biological processes to changes in both CO2 concentrations and climate.”

The ability of the current generation of models to simulate some aspects of regional climate change is limited, judging from the spread of results from different models; there is little confidence in specific projections of future regional climate change, except at continental scales… The underlying uncertainties in climate science and the inability to predict precisely the size of future natural climate forcing mechanisms mean that projections must be made which take into account the range of uncertainties across these different areas.”

Interessant is om te weten hoe deze kwestie in de gemeenschap van klimatologen ligt. Zoals bekend houden de Duitse wetenschappers Bray en von Storch elke paar jaar een inventarisatie onder vakbroeders om na te gaan hoe de meningen in klimatologenland zijn verdeeld. Over de eerste 2 surveys heb ik al eens geschreven: zie “De Dogma’s” en dan “Er is consensus”. In 2010 hebben Bray en von Storch het kunstje nogmaals herhaald in de publicatie “A Survey of the Perspectives of Climate Scientists Concerning Climate Science and Climate Change”. De onderzoekers hebben 2059 wetenschappers aangeschreven die zich beroepsmatig bezighouden met het klimaat. Hoe die selectie tot stand kwam is in de publicatie te lezen. In totaal hebben 373 wetenschappers meegedaan aan het onderzoek, ruim 18% van de aangeschrevenen. Hieronder vindt u de resultaten van het onderzoek over het item modelleren in de klimatologie.

Hoe goed kunnen klimaatmodellen omgaan met hydrodynamica:


Hoe goed kunnen klimaatmodellen omgaan met straling:


Hoe goed kunnen klimaatmodellen omgaan met waterdamp:


Hoe goed kunnen klimaatmodellen omgaan met invloed van wolken:



Hoe goed kunnen klimaatmodellen omgaan met neerslag:



Hoe goed kunnen klimaatmodellen omgaan met atmosferische convectie:


En over oceaanmodellen:

Hoe goed kunnen oceaanmodellen omgaan met hydrodynamica:



Hoe goed kunnen oceaanmodellen omgaan met warmtetransport in oceanen:



Hoe goed kunnen oceaanmodellen omgaan met oceanische convectie:


 

Tot zover is het duidelijk: de meningen over de betrouwbaarheid van klimaatmodellen zijn over het algemeen netjes Gaussiaans verdeeld. Op merkelijk is dan de volgende grafiek, die specifiek over de betrouwbaarheid van voorspelling gaat m.b.t. broeikasgassen.

De huidige staat van de wetenschap is voldoende hoog om betrouwbare voorspellingen te doen over broeikasgassen uit antropogene bronnen:



Opmerkelijk, omdat de grote onzekerheden die in de voorafgaande items getoond werden, allemaal op een of andere manier ‘verknoopt’ zijn met de invloed van broeikasgassen op het klimaat. Immers, als men weinig vertrouwen heeft in de kennis over de effecten van waterdamp, wolken of neerslag, hoe kan men dan wel vertrouwen hebben in de kennis over de invloed van broeikasgassen? Men kan dan toch immers met weinig zekerheid spreken over de mogelijke feedbacks van genoemde items?

Bij deze vraag lijken méér mensen overtuigd van de betrouwbaarheid over het broeikaseffect dan over de andere items. Alleen bij de vraag over straling wordt eenzelfde uitslag getoond. Hoe is dit te verklaren? Is de vraag naar de effecten van broeikasgassen te direct, te sterk gekoppeld aan het vaak felle debat dat over deze kwestie gevoerd wordt? Gelukkig wordt de zaak weer rechtgetrokken door de laatste vraag:

De huidige staat van de wetenschap is voldoende hoog om betrouwbare voorspellingen te doen over de temperatuur voor de komende 50 jaar:



Conclusie: de enige consensus die er is over de betrouwbaarheid van klimaatmodellen is dat er geen consensus is. Maar let op mijn woorden: dat zal veel alarmisten en politici er niet van weerhouden te beweren dat ‘het overgrote deel van de klimaatwetenschappers’ het met elkaar eens is: de aarde is gevaarlijk aan het opwarmen , en dat komt door de mens. Over de op handen zijnde afkoeling binnenkort meer.


 
14-6-2011

Zijsprongetje: Greenpeace en de haring

Greenpeace probeert met jokkebrokken de angst voor overbevissing aan te wakkeren: vrijdag stond in diverse landelijke dagbladen een paginagrote advertentie met een veelzeggende kop en foto:

 


Het vormde het startsein voor een actie om ‘de vissen te redden’. Nu gaat er inderdaad wel eens wat mis in de visserij, en lijken de overeenkomsten tussen deze branche en de bio-industrie zo nu en dan groot. Maar deze keer gaat Greenpeace echt de fout in. De kop en de foto suggereren dat het met de haring slecht gaat, en dat is onjuist. Het gaat met de haring zelfs goed de laatste jaren. Enkele dagen voor deze peperdure reclame berichtte de Volkskrant daar al over. En dit zijn de meest recente persberichten over de haringstand van de hand van IMARES:

Atlanto-scandische haring

Atlanto-scandische haring wordt in de Noorse zee gevangen. Na de instorting van de visstand in de jaren zeventig en tachtig van de vorige eeuw heeft dit haringbestand zich sterk hersteld dankzij een aantal sterke broedjaren en een lage visserijdruk. In 2010 wordt de paaistand op een niveau geschat van ongeveer 9 miljoen ton. Daarmee is de Atlanto-scandische haring het grootste haringbestand ter wereld. Wegens het uitblijven van nieuwe sterke broedjaren is er een lichte daling van het bestand waarneembaar in 2010. Voor het beheer ervan is een internationaal beheerplan van toepassing. De toegestane vangst in 2011 volgens dat beheerplan is 1 miljoen ton. Onder het MSY principe wordt er een TAC geadviseerd van maximaal 1.2 miljoen ton. De TAC in 2010 is 1.5 miljoen ton.


en Wageningen Universiteit samen met IMARES:

Noordzeeharing
Na een herstel in het begin van deze eeuw daalde de haringstand na 2004. Dit is het gevolg van de geringe aanwas van jonge haring. Jaarlijks worden weliswaar voldoende haringlarven geboren, maar slechts een gering aantal overleeft. Dit heeft waarschijnlijk te maken met veranderingen in het zeemilieu en de gevolgen daarvan voor het voedsel van haring: dierlijk plankton. De stand van de volwassen haring is door voorzichtig beheer gestabiliseerd rond de 1 miljoen ton. Dat wil zeggen: boven het limietniveau maar onder het voorzorgniveau. Op basis van het beheerplan van de Europese Unie en Noorwegen adviseert ICES voor 2010 een toegestane vangsthoeveelheid voor de visserij op consumptie haring van 164.300 ton. Dat is 4 % lager dan de TAC in 2009, welke 171.000 ton bedraagt.

 

De Hollandse Nieuwe komt hoofdzakelijk uit de Noorse zee. Wil Greenpeace geloofwaardig blijven, dan moet ze dit soort acties niet doen. Overigens is de methode beproefd: angst zaaien bij slecht geïnformeerde burgers, en dan (geld) oogsten. Klimaatalarmisten hebben daar ook een handje van.
 


10-6-2011

Spencer toont nieuwe meetgegevens van Aqua satelliet: geen opwarming

Roy Spencer is specialist op het gebied van temperatuurmetingen met behulp van satellieten. Dat gebeurt al sinds jaren met AMSU. AMSU is de afkorting van Advanced Microwave Sounding Unit. Het is de opvolger van MSU die als eerste sinds 1979 aan boord van de satelliet TIROS-N de temperatuur van de troposfeer meet. Een van de voordelen van AMSU vergeleken met het oudere MSU is dat AMSU een veel hogere resolutie heeft dan MSU. Zie onderstaande afbeelding.

Bron: http://amsu.cira.colostate.edu/

Sinds eind jaren ‘70 is er een aantal andere satellieten in een baan gebracht , met steeds geavanceerdere meetapparatuur. Het afgelopen decennium is veel gebruik gemaakt van de data van NOAA-15 die in mei 1998 gelanceerd werd.

Satellieten hebben echter de neiging om na verloop van tijd afwijkingen te krijgen in hun baan om de aarde (drift) , waardoor data minder goed bruikbaar zijn. Dat is al sinds enige tijd het geval voor de data van NOAA-15. Vandaar dan ook dat de laatste tijd gewaarschuwd werd om bepaalde datareeksen van deze satelliet met voorzichtigheid te benaderen. Alleen channel 5 was volgens Roy Spencer nog betrouwbaar.

Channel 5 geeft data over de temperatuur in de midden troposfeer, in nevenstaande figuur aangeduid met TMT. Spencer is expert op het gebied van microwave scanning. Vanwege zijn grote expertise op dit gebied is hij dan ook door NASA aangesteld als hoofd van het wetenschappelijke team dat de Advanced Microwave Scanning Radiometer (AMSR-E) beheert van NASA’s Aqua satelliet, die in mei 2002 gelanceerd werd. Deze satalliet gaat binnenkort de taak van NOAA-15 overnemen.


Bron: http://www.ssmi.com/

Bron: earthobservatory.nasa.gov

De data van de Aqua satelliet zijn (nog) niet beschikbaar, maar Spencer heeft op zijn site al een voorproefje gegeven van wat ons te wachten staat. Daartoe bekeek hij de data van 3 kanalen , 3, 5 en 7, die respectievelijk de lagere, midden en hogere troposfeer beslaan. Op onderstaande grafiek zijn de resultaten weergegeven. Het betreft de gegevens van de gematigde zone op het noordelijk halfrond, tussen 30° en 60° NB.

Bron: Spencer

Spencer komt tot de conclusie dat er geen lineaire trends te zien zijn in de signalen. Dat komt overeen met de meetgegevens van de temperatuur aan het aardoppervlak, die al ruim een decennium geen opwarming meer vertonen. Het signaal van de midden troposfeer toont een lichte stijging in het begin van de meetperiode, en een lichte daling in het laatste deel.

Het signaal van kaneel 3, de lagere troposfeer, is onbetrouwbaar, omdat het niet alleen reageert op de temepratuur in dit deel van de troposfeer, maar ook op lagere bewolking boven de oceanen en op sneeuwbedekking. Met name dit laatste is van invloed op het groene signaal in de grafiek, gelet op de verdeling land-zee in deze zone.


Bron: Spencer

Interessant is ook wat er op de hogere breedten van het NH is gebeurd de afgelopen 9 jaar. Dat is te zien in bovenstaande grafiek. Kanaal 7 doet niet meer mee, omdat op deze breedte ( 60° tot 85° NB) dit kanaal deels de stratosfeer meet, die zoals bekend boven de polen veel lager ligt dan op lagere breedten. De grafiek is vooral interessant omdat dit gebied vaak aangehaald wordt als de regio waar de ‘antropogene opwarming’ het snelst is verlopen.

In de grafiek is te zien dat de temperatuur in de midden troposfeer boven de Arctische regio geen enkele opwarming vertoont. Het signaal van de onderste troposfeer laat echter opwarming zien. Spencer wijst er op dat dit signaal ‘vervuild’ wordt door de aanwezigheid van zeeijs, dat een opwarmend effect heeft op het gemeten signaal. Sneeuwbedekking heeft echter een afkoelend effect op het gemeten signaal. Een en ander maakt de interpretatie van het signaal van kanaal 3 dus uiterst complex.

Conclusie van Spencer: er zijn geen tekenen van opwarming sinds 2002 in de regio die de afgelopen 40 jaar de sterkste opwarming heeft laten zien. Voor de mensen die niet geloven dat zeeijs een opwarmend effect heeft op het signaal van kanaal 3, kijk maar eens naar de meting van 6 juni j.l. in onderstaande figuur. Let op de Arctische regio, en het zeeijs rond Antarctica.

Bron: NOAA


4-6-2011

De Bilt revisited deel 2

 

Meetapparatuur op DB260, links de schotelhut voor temperatuurmetingen. Bron KNMI

Dat het niet meevalt om de luchttemperatuur te meten komen we te weten uit het rapport van Theo Brandsma dat het KNMI onlangs liet verschijnen.

In de vorige bijdrage van 31-5-2011 schetste ik de problemen die ontstonden bij de verplaatsing van het meetpunt De Bilt in 1950, waarbij een plotselinge daling van de temperatuur plaatsvond van meer dan 1 °C. Dergelijke inhomogeniteiten die ontstaan door bijvoorbeeld verplaatsingen of verlagingen van meetpunten dienen gecorrigeerd te worden. Dat doet men vaak door de meetreeks van het betreffende station te vergelijken met die van nabijgelegen stations. Vaak ook zorgt men bij een verplaatsing voor een overlappingsperiode van de oude en de nieuwe meetplaats, zodat de oude meetplaats de nieuwe calibreert. Men zou er dan van uit moeten gaan dat de ‘oude’ meetreeks correct is.

Zoals reeds beschreven is de meetreeks van De Bilt van extra groot belang omdat het een van de oudste ter wereld is. Bovendien wordt zij ook gebruikt door grote organisaties zoals GISS/NASA, die zich bezig houden met de berekening van de globale temperatuur. Het is dus zaak om dergelijke inhomogeniteiten op de juiste wijze te corrigeren, te homogeniseren. Dat dat op een correcte wijze (KNMI) en op een foute wijze (GISS) kan, heb ik in die vorige bijdrage al beschreven.

Het meetpunt DB260 was gelegen op het grote meetveld van het KNMI en is operationeel geweest van 27 augustus 1951 tot 25 september 2008. Zie de foto hierboven. In 2008 is het meetpunt verplaatst naar een nieuwe locatie, die op de foto is aangeduid als Test4.

Er was een aantal redenen voor het onderzoek. In de eerste plaats waren de bomen in de bomenrij ten ZZW van DB260 in de loop van de jaren flink gegroeid: er waren exemplaren bij van 30m hoog. Gezien de relatief kleine afstand tussen meetpunt en de bomenrij was te verwachten dat er sprake zou kunnen zijn van enige beïnvloeding. Bovendien lag het graslandperceel tussen DB260 en het bosperceel ten W van het meetpunt vanaf 1999 braak en was gaandeweg veranderend in een ruderaal terrein met opgaande bosjes tot wel 3m hoog.


Het KNMI heeft daarom vanaf mei 2003 een drietal parallel meetpunten geïnstalleerd, genaamd Test1, Test2, Test3 en Test4. Test 1 ligt vlak bij de hoofdgebouwen van het KNMI, Test 2, 3 en 4 op het meetveld, en Test4 ten O van het volkstuinencomplex. Gedurende de testperiode is het ruderaal terrein aan de westzijde veranderd is in een soort van landschapspark inclusief een grote en kleine vijver. Op de foto hierboven zijn deze duidelijk waar te nemen. Reden voor het KNMI om de testfase te verlengen tot juni 2005 om ook deze omgevingsveranderingen mee te kunnen nemen in de metingen.

Mogelijke oorzaken van meetverschillen tussen de diverse meetpunten kunnen zijn: advectie (aanvoer van warmte van omgeving), verschillen in stabiliteit van de onderste luchtlagen, verschillen tussen de schotelhutten als gevolg van straling, schaduw, straling door omgeving, verschillen in bodemtype/GWS/albedo, en instrumentfouten.


Zoals te verwachten waren de verschillen het grootst tussen test1 en de andere locaties, vanwege de nabijheid van gebouwen en hoge bomen bij Test1. Op bovenstaande figuur is dat te zien voor wat betreft het percentage schaduw. Duidelijk is dat Test4 het minst last heeft van nabijgelegen obstakels. De gemiddeld maandelijkse minimum temperatuur was op Test1 1,2 °C hoger dan bij Test4. Test4 was het referentiemeetpunt gedurende het onderzoek.

Een van de belangrijkste conclusies van het onderzoek is dat ‘sheltering’, beschutting door gebouwen, bomen en struiken een relatief grote invloed heeft op de meetresultaten, en dat niet alleen voor wat betreft de schaduwwerking zoals hierboven beschreven. Beschutting veroorzaakt ook het ontstaan van een stabiele grenslaag gedurende de nacht, vermindert de uitgaande langgolvige straling en vermeerdert de stralingsfouten van de schotelhutten als gevolg van een afname van de natuurlijke ventilatie.


 

Een ander opmerkelijke zaak is dat de landschappelijke veranderingen op het ruderaal terrein invloed hadden op de dagelijkse gang van de temperatuur. Dat betekende dat bij homogenisatie het niet voldoende zou zijn om alleen de dagelijkse gemiddelde temperatuur te homogeniseren.

Het onderzoek toonde dat de verschillen tussen de meetpunten sterk afhankelijk waren van windsnelheid (afhankelijk van mate van beschutting) en bewolkingsgraad. In het algemeen namen de temperatuurverschillen toe met afnemende windsnelheid en afnemende bewolkingsgraad. De nachtelijke grenslaag verhinderde homogenisatie vanwege het feit dat daardoor de correlatie tussen de windsnelheid aan de grond en die op 10m hoogte gering was. Bovendien is het ontstaan en het verdwijnen van een dergelijke grenslaag een niet-lineair proces en derhalve moeilijk te vangen in een model.
Dat het KNMI uiteindelijk heeft besloten het meetpunt De Bilt te verplaatsen naar de locatie van Test4 is , gelet op het bovenstaande, begrijpelijk. Minder begrijpelijk is dat het KNMI aan deze verplaatsing geen ruchtbaarheid gaf. Natuurlijk een onvergeeflijke fout, zeker in de richting van de zakelijke klanten van het KNMI, zoals MeteoConsult in Wageningen. Daar had men in 2009 in de gaten dat het meetstation De Bilt, dat al jaren erg hoge temperaturen gaf in vergelijking met omliggende meetstations, plotseling in de pas liep.

Men nam de proef op de som en vergeleek de meetgegevens van De Bilt met die van Cabauw ten ZW van Utrecht. De gemiddelde maximumtemperatuur in de zomer van 2009 bleek in De Bilt slechts 0,02 °C hoger te liggen dan die van Cabauw, terwijl dat verschil in de zomer van 2008 nog 0,53 °C was in het voordeel van De Bilt. Kortom: de verplaatsing van DB260 naar de Test4 locatie was een juiste beslissing geweest, er niets over zeggen een onjuiste beslissing.


Bron: http://www.surfacestations.org/

Dat de ligging van meetpunt DB260 thans prima is en het voortdurend onderzoek naar de validiteit van de locatie de professionaliteit van het KNMI benadrukt, lijkt me evident. Hoe het anders kan bewijst een reeks van foto’s van officiële meetpunten van het Amerikaanse USHCN netwerk. Op de foto hierboven ziet u het meetpunt Forest Grove in Oregon. De foto spreekt voor zich.
  

31-5-2011

De Bilt revisited deel 1

Het KNMI heeft onlangs een rapport van de hand van Theo Brandsma uitgegeven, dat een beschrijving geeft van een locatieonderzoek van een aantal meetpunten in De Bilt tussen 2003 en 2005. Dat onderzoek leverde interessante informatie op. Over dit rapport de volgende keer meer. Om een en ander in perspectief te plaatsen gaan we even terug naar een onderwerp dat vorig jaar al eens aan de orde was: de temperatuurreeks van De Bilt, de gevolgen van verplaatsing van meetpunten en de gebruikte homogenisatietechnieken.

Ruimtelijke verplaatsing van een meetpunt in een meteorologisch meetnet kan vervelende gevolgen hebben. Bijna altijd ‘gebeurt’ er wat met het signaal dat gemeten wordt: er ontstaat een sprongetje in de tijdreeks.


Bron: GISS/KNMI


Verplaatsing van meetpunt 260 van rode naar groene pijl in 1950

De meest opmerkelijke in ons land was de verplaatsing van het meetpunt in De Bilt in 1950. Hierboven ziet u de verplaatsing van de Stevensonhut van een plek vlakbij het hoofdgebouw van het KNMI naar een open grasveld zo’n 300m verderop. De temperatuurreeks ( boven de foto ) daalde met ongeveer 1°C. Als men bedenkt dat de globale temperatuurverhoging in de 20e eeuw 0,6 °C is geweest (bron: HadCRUT, KNMI), dan is duidelijk dat de betrouwbaarheid van meetgegevens cruciaal is.

In 1961 is de Stevensonhut (zoals alle meetpunten in ons land ) verlaagd van 2m. naar 1.50 m. Dat had in De Bilt een lichte verhoging van de temperatuur tot gevolg. De vervanging van de Stevensonhut in 1993 door een schotelhut had nauwelijks invloed.

Inhomogeniteiten die ontstaan door bijvoorbeeld verplaatsingen of verlagingen van meetpunten dienen gecorrigeerd te worden. Dat doet men vaak door de meetreeks van het betreffende station te vergelijken met die van nabijgelegen stations. Vaak ook zorgt men bij een verplaatsing voor een overlappingsperiode van de oude en de nieuwe meetplaats, zodat de oude meetplaats de nieuwe calibreert. Men zou er dan van uit moeten gaan dat de ‘oude’ meetreeks correct is.

Inhomogeniteiten in de meetreeks van De Bilt zijn van extra groot belang. Niet alleen is de meetreeks van De Bilt een van de oudste ter wereld, maar zij wordt ook gebruikt door grote organisaties zoals GISS/NASA, die zich bezig houden met de berekening van de globale temperatuur. Het is dus zaak om dergelijke inhomogeniteiten op de juiste wijze te corrigeren, te homogeniseren.

 


Bron: Hans Erren

Van Engelen en Nellestijn doen dat met de De Biltreeks in hun voortzetting van de bekende Labrijnreeks. Zij hanteren een zogenaamde staphomogenisatie: gaat de temperatuur in 1950 door verplaatsing van het meetpunt (ongeveer) 1 °C omlaag, dan corrigeren zij vanaf het moment van verplaatsing de reeks in één keer. Op de grafiek hierboven is dat goed te zien.

GISS pakt die homogenisatie heel anders aan. Zij maken gebruik van hellingcorrectie. Dat houdt in dat –in het voorbeeld van de sprong van 1 °C in 1950 – niet in één keer de fout wordt gecorrigeerd, maar in een heleboel kleine stapjes voor en na 1950. Weliswaar publiceert onderzoeker Hansen van GISS de algemene homogenisatietechnieken die gehanteerd worden, maar op welke wijze dat voor ieder individueel meetpunt is gebeurd blijft duister. Daar kan men alleen achter komen als men de gehomogeniseerde reeks van GISS aftrekt van de ruwe meetdata. Voor de gehomogeniseerde data van De Bilt van januari 2010 ziet het verschil er dan als volgt uit:


Bron: Jan Peirs

Wat voor gevolgen deze hellingcorrectie heeft op de temperatuurreeks van De Bilt volgens GISS is te zien op de volgende animatie:


Het beeld is duidelijk: door de sprong van 1950 op deze wijze te corrigeren krijgt de reeks een veel steiler verloop (het wordt alsmaar warmer!). Bovendien klopt de reeks nu eigenlijk vrijwel nergens meer: een eenmalige fout wordt over erg veel jaren uitgesmeerd. Wat dat voor gevolgen heeft is in onderstaande grafiek te zien. Hier is de gehomogeniseerde reeks van GISS (januari 2010) vergeleken met de gehomogeniseerde reeks van van Engelen en Nellestijn. 0= geen verschil.


Bron: Jan Peirs

Nog veel bonter maakt GISS het als in oktober 2010 wederom een bijstelling van de homogenisatie plaats heeft gevonden. Geen woord hierover te vinden op hun site over het hoe en waarom. Vragen van mijn kant hierover bleven onbeantwoord. Hieronder de animatie met 3 reeksen: de ruwe data, de gehomogeniseerd GISS-reeks van januari 2010 en die van oktober 2010.

Vergelijken we de GISS data van januari 2010 met die van oktober 2010 dan is hieruit de correctie te halen die in oktober 2010 op de reeds gehomogeniseerde reeks is toegepast:


 

Bij deze homogenisatie ligt het kantelpunt ergens begin jaren ’30 van de vorige eeuw. De Bilt geeft voor deze periode geen bijzonderheden voor het meetpunt De Bilt, dus het is uitgesloten dat GISS deze correctie toepast vanwege een nog niet meegenomen correctie op dat punt. Waarom dan wel blijft volkomen duister. Wel gaat door deze wijziging de temperatuurreeks na 1950 wat steiler omhoog.

Als men kijkt naar homogenisatie ter compensatie van het UHI-effect dan is de methode van het KNMI veel nauwkeuriger dan die GISS toepast. Het KNMI maakt gebruik van meetgegevens in het eigen fijnmazige netwerk, voor De Bilt aangevuld met modelleren voor de situatie in De Bilt. GISS heeft tot voor kort gebruik gemaakt van de methode om temperatuurreeksen van een urbaan meetpunt te vergelijken met dichtbijgelegen rurale meetpunten. In het grofmazige netwerk dat GISS hanteert in het dichtbevolkte West Europa betekende dit dat de gegevens van De Bilt werden vergeleken met het dichtstbijgelegen rurale station, gelegen in Zuid Duitsland. Sinds kort gebruikt men een fraaiere manier, namelijk het schatten van de urbanisatiegraad aan de hand van satellietgegevens over lichtuitstraling ’s nachts. Wellicht wat beter dan de oude methode , maar veel minder nauwkeurig dan die van het KNMI.


Bron: Hansen et al 2010

Kortom: de homogenisatiemethode van GISS laat voor wat betreft De Bilt erg te wensen over, met als gevolg dat hun temperatuurreeks onbetrouwbaar is. Marcel Crok schreef in zijn recente boek: “ GISS gebruikt vervolgens deze ruwe metingen en laat daar een computerprogramma op los dat de metingen moet ‘homogeniseren’. Dat mislukt volledig, want het eindresultaat lijkt in niets op dat van het KNMI zelf.

Op de website van het PCCC wordt deze uitspraak van Crok in twijfel getrokken, waarbij men als ‘bewijs’ grafieken van het KNMI vergelijkt met die van o.a. GISS. Conclusie op de site: “ Maar belangrijker is dat deze passage tevens een verkeerd beeld geeft van de manier waarop correcties en individuele stationdata doorwerken in de mondiale temperatuurreeksen. De onderstaande figuren illustreren het correctief vermogen van de reconstructie van mondiale temperatuurreeksen en tonen aan dat de stelling dat de reconstructie ‘dus volledig is mislukt’ onjuist is.

Nu lijken de getoonde grafieken allemaal wel op elkaar, maar een dergelijke visueel ‘bewijs’ zegt op zich nog niet zo veel. Daarom heb ik hieronder het verschil weergegeven tussen de Labrijnreeks van van Engelen en Nellestijn en de gehomogeniseerde reeks van GISS op basis van hun laatste homogenisatie van oktober 2010:

De gemiddelde afwijking tussen beide reeksen is in vele jaren van de periode 1880-2010 zeer groot, zeker vergeleken met de globale temperatuurstijging in deze periode. In deze periode zijn er maar liefst 40 jaren met een verschil tussen beide reeksen van 0,5 °C. Ik denk dus dat Marcel Crok met zijn forse uitspraak toch dichter bij de waarheid zit dan het PCCC.
 

 


27-5-2011

De zon heeft het alweer gedaan

Qian en Lu, twee Chinese klimaatonderzoekers, hebben onlangs gepubliceerd over de periodieke oscillaties die in het aards temperatuurverloop van de afgelopen 1000 jaar waarneembaar zijn.

 

Daarvoor combineren ze de gereconstrueerde temperatuurreeks van Mann uit 2008 met de meetgegevens van HadCRUT3 (bovenste grafiek). Duidelijk zijn het Middeleeuws Optimum , de Kleine IJstijd en de recente opwarming te herkennen. Na verwijdering van deze langdurige trend blijft het ‘kale’ signaal over ( tweede grafiek). Na analyse van het overgebleven signaal is een viertal oscillaties te herkennen met een periodiciteit van 21,1 , 62,5 , 116 en 194,9 jaar (onderstaande grafiek).

Combineert je bovenstaande 4 oscillaties tot 1 temperatuursignaal (onderbroken lijn) en leg je die dan op het (trend removed ) originele signaal, dan is een opvallende correlatie te zien met een correlatiecoëfficiënt van 0,5 !

De onderzoekers gingen vervolgens op zoek naar mogelijke verklaringen voor bovenstaande oscillaties en vonden een tweetal verklarende mechanismen. De eerste is de zon. Daarvoor bekeken Qian en Lu de afgelopen 400 jaar. De reconstructie van zonneactiviteit werd gedaan op basis van 10Be meetgegevens. Analyse van die gegevens levereden een tweetal oscillaties in het signaal van de zon, met een periodiciteit van 118 en 175 jaar. Zet je de resultante van beide sinusoscillaties af tegen het gemeten signaal van zonneactiviteit dan ontstaat het volgende beeld:


Opvallend noemen de onderzoekers de correlatie in de ze 400-jarige periode tussen de oscillatie van 118 jaar (zon) en de temperatuuroscillatie van 111 jaar in genoemde periode. De time lag tussen beide signalen wijst volgens de onderzoekers op een vertraagde reactie van de aardse temperatuur op de veranderende zonneactiviteit.

Voor veranderingen op decadale tijdschaal bekijken Qial en Lu de periode 1850-2000. Bij analyse van deze relatief korte periode onderscheiden ze een tweetal oscillaties in de temperatuurreeks van 21,12 en 64,8 jaar, en een drietal oscillaties in het signaal van de zon van 10, 22 en 43,3 jaar. In onderstaande grafiek is de sterke correlatie te zien tussen de resultante van beide zonneoscillaties (onderbroken lijn) en de temperatuur.

 

Ook de koppeling oceaan-klimaat werd door de Chinese onderzoekers bekeken. De ook door andere onderzoekers al gesignaleerde oscillatie in de aardse temperatuur van ongeveer 65 jaar werd vergeleken met de oscillatie in de PDO-index van ongeveer 62 jaar (PDO= Pacific Decadal Oscillation). Uitkomst: de SST loopt ongeveer 2 tot 6 jaar voor op de wereldtemperatuur.

Opvallende uitkomsten van het onderzoek:

- De invloed van de zon op het temperatuurverloop op aarde is groot.
- De opwarming aan het einde van de vorige eeuw was vooral het gevolg van een samenvallen van de 4 temperatuuroscillaties. Tussen 1994 en 2002 vielen voor het eerst in 1000 jaar de toppen van genoemde 4 oscillaties samen.
- Op basis van de analyse van de dataset van de afgelopen 1000 jaar voorspellen de onderzoekers een afkoeling van de wereldtemperatuur rond 2030 en een opwarming rond 2060.
 
24-5-2011

CO2 laat planten groeien!

Wat iedereen met enig verstand eigenlijk wel weet is dat CO2 goed is voor plantengroei. In de regio waarin ik woon zijn veel glastuinders die al sinds jaar en dag extra CO2 in de kas brengen om de groei van de planten en vruchten te bevorderen. Dat kan oplopen tot zo'n 1500 ppm (390 ppm is het huidige atmosferische CO2-gehalte). Dat betekent dat naast alle rampspoed die volgens het IPCC en andere instanties over ons heen zal komen door stijgende CO2-gehaltes er ook een machtig voordeel is: plantengroei wordt bevorderd. Dat levert niet alleen meer CO2-afvang op door groeiende planten, maar vooral ook een grotere landbouwproductie. Dus meer voedsel en biobrandstoffen. Meer voedsel is goed voor de nog steeds uitdijende wereldbevolking, meer biobrandstoffen is goed voor de mentale rust van die wereldbewoners die geloven dat CO2 alleen maar slecht is.

De blogger van de site CO2science.org heeft op Youtube een aardig videootje geplaatst om een en ander nog eens aanschouwelijk te maken voor het volk. Hier is de link.


21-5-2011


Deense studie toont invloed kosmische straling op wolkvorming aan

Maanden voordat het CERN zijn CLOUD-project zal starten is een aantal Deense wetenschappers er in geslaagd aan te tonen dat wat Svensmark al langer dacht, echt waar is: kosmische straling is van invloed op wolkvorming en daarmee op de temperatuur op aarde. Zie hiervoor het hoofdstuk “Nieuwe Inzichten”.

In 1997 lanceerden Svensmark en Eigil Friis-Christensen een theorie die kosmische straling verbond met veranderingen in de gemiddelde wereldtemperatuur. Volgens beide Denen zijn deze temperatuurfluctuaties het gevolg van variaties in de intensiteit van de zonnewind. Ze noemen deze theorie kosmoklimatologie. Dit idee was al eerder (1975) geopperd door Dickinson. Een kleinschalig laboratoriumexperiment werd al eerder in het Danish National Space Center gedaan. Svensmarks onderzoek ondergraaft de overheersende rol die de CO2-stijging speelt in het huidige klimaatdebat.


Een deel van de Deense deeltjesversneller ASTRID

De kosmische straling is afkomstig van geëxplodeerde sterren. Deze energierijke deeltjes komen met een snelheid die grenst aan die van het licht de heliosfeer binnen, het deel in de ruimte waar het magnetisch veld van de zon zijn invloed laat gelden. Hoe actiever de zon is, hoe sterker het magnetisch veld, hoe minder kosmische straling de aardatmosfeer bereikt. Die kosmische straling afkomstig van sterren heeft volgens Svensmark langs een flinke omweg invloed op de hoeveelheid wolken. Wolken reflecteren een deel van de zonnestraling richting ruimte. De zon bepaalt op zijn beurt hoeveel kosmische straling de aardatmosfeer binnenkomt.



Het deeltje dat volgens Svensmark verreweg de grootste invloed heeft op de vorming van lage bewolking is het zogenaamde muon. Dat ontstaat wanneer kosmische straling van hoge energie op luchtdeeltjes botst. Een lang leven is deze deeltjes niet beschoren; ze bestaan slechts twee miljoenste van een seconde, precies lang genoeg om het onderste deel van de dampkring te bereiken. Op hun korte reis schieten muonen losse elektronen uit luchtdeeltjes. Deze fungeren op hun beurt als een soort katalysator bij het vormen van zogenaamde condensatiekernen, waarop waterdamp condenseert, die uiteindelijke uitgroeien tot wolkendruppels.

 

De klimaatkamer

De Deense onderzoekers hebben gebruik gemaakt van ASTRID, de grootste deeltjesversneller van Denemarken van de Aarhus universiteit. In een klimaatkamer bootsten de onderzoekers de atmosferische omstandigheden na die heersen in de atmosfeer op hoogten waar wolkvorming plaatsvindt. Ze vonden dat het toevoegen van straling (gamma en elektronen) een toename in het ontstaan van ionen en aerosolen veroorzaakte. Deze aerosolen gedragen zich als condensatiekernen bij het ontstaan van wolken.

Invloed van gammastralen en energierijke elektronen op vorming van aerosolen

De kamer bevat lucht met nauwkeurig uitgebalanceerde hoeveelheden zwaveldioxide, ozon en waterdamp. Zonlicht is een noodzakelijk ingrediënt voor aerosolvorming in de natuurlijke omgeving en wordt hier nagebootst met een UV-lamp. Natuurlijke atmosferische processen zoals de vorming van zwavelzuur worden op deze wijze geïmiteerd, van belang voor de vorming van aërosolen. Als de elektronen uit de versneller het luchtmengsel bereiken vindt er een toename van aerosolen plaats, die als condensatiekernen fungeren voor de productie van waterdruppels (wolken).

In eerdere experimenten uitgevoerd door SKY DTU Space in Kopenhagen, werd kosmische straling gesimuleerd door gamma-straling. In 2006 is het verslag van het SKY experiment gepubliceerd in Proceedings of the Royal Society (“Experimental evidence for the role of ions in particle nucleation under atmospheric conditions, 2006, Proceedings of the Royal Society, London ”). Het experiment toonde aan dat gammastralen is staat zijn om aërosolen te vormen. In het nieuwe experiment met de energierijke elektronen van het ASTRID-versneller lijkt de gesimuleerde situatie veel beter op de kosmische stralen die in de natuur voorkomen.

Door deze recente studie hebben de onderzoekers aangetoond dat er een correlatie is tussen kosmische straling en wolkvorming. Alweer een nagel aan de doodskist van het klimaatalarmisme. De volgende stap zal zijn om met behulp van systematische metingen en modellering te bepalen hoe belangrijk kosmische straling is voor het klimaat. Met andere woorden: hoe groot is het aandeel ervan op klimaatverandering. Maar eerst wachten we op de uitslag van het CLOUD-project in Geneve.
 


16-5-2011

Warmte-inhoud van oceanen zegt iets over klimaatgevoeligheid.

Oceanen nemen ruim 70% van de totale opppervlakte van de aarde voor hun rekening. Oceanen zijn vanwege hun fysische eigenschappen in staat om veel grotere hoeveelheden energie te bufferen dan de continenten en de biosfeer. Zie hier in kort bestek de ingrediënten voor een toenemende belangstelling voor oceanen in de discussie over ‘global warming’.

Natuurlijk wisten we al veel langer dat oceanen een belangrijke factor vormen in het klimaatsysteem van de aarde, maar de overdreven belangstelling voor broeikasgassen in de energiebalans van de aarde heeft lange tijd de aandacht vooral gefocused op de temperatuur aan het aardoppervlak. Daarbij speelde en speelt de SST (sea surface temperature) een belangrijke rol. De laatste jaren is er een toenemende belangstelling voor de temperatuur in dieper water dan de SST. Met name de ontwikkeling van de ARGO-programma heeft hiertoe een flinke stimulans geleverd. Lees hierover in de “Nulhypothese Clark” in het hoofdstuk “Nieuwe Inzichten”.

De (meeste) oceanen bestaan thermisch bezien uit 4 lagen. Bovenin een laag van ongeveer 50m dik waarbij de temperatuur sterk gekoppeld is aan de temperatuur van de onderste luchtlagen als gevolg van warmteoverdracht en menging. Daaronder een ‘spronglaag’ of thermocline : van 50 meter tot 200 meter diep, ontbrekend in de poolzeeën. Het is een menglaag met o.a. door de seizoenen sterke verschillen in temperatuur. Daaronder de laag van 200m tot 2 km diep met een relatief stabiele overgang van hogere temperaturen naar de stabiele lage temperaturen van de diepzee. En tenslotte de diepzee (dieper dan 2 km) met constante temperaturen rond 0° C.

Roy Spencer van de UAH heeft onlangs een interessant onderzoek gedaan naar de zogenaamde ‘heat content’ van de bovenste 700m van de oceanen . In het Nederlands is ‘heat content’ de warmte-inhoud. Dat is de totale hoeveelheid warmte die opgeslagen is in een bepaalde hoeveelheid water ((standaard 1 kg) bij een bepaalde temperatuur. De warmte-inhoud van water is het aantal graden x de soortelijke warmte (4,19 kJ/kg.K). Eén kg water van 20° C heeft dus een warmte-inhoud van 20 x 4,19 = 83,8 kJ.

Bron: Levitus 2009

In bovenstaande figuur is de warmte-inhoud-anomalie vanaf 1955 t/m 2008 weergeven, zoals berekend door Levitus e.a. (2009). De stijging ziet er fors uit, maar het gaat dan ook om een enorme hoeveelheid zeewater. We zien een stijging tussen begin jaren ’70 tot 2003, waarna er een stabilisatie optreedt. Stijging en daling in de warmte-inhoud vinden plaats als er een onbalans is tussen inkomende en uitgaande straling. De data die door Levitus werden gebruikt komen uit een aantal bronnen. Daarbinnen zijn de berekeningen van de SST erg belangrijk. Levitus heeft om zekerheid te hebben over de betrouwbaarheid van de berekende warmte-inhoud van de bovenste 700m een vergelijking gemaakt tussen de 3 databronnen voor de SST. (Levitus 2008)

Bron: Levitus et al 2008

Daarbij valt op dat de datareeksen van NCDC, Hadley Centre en WOD05 uitstekend overeenkomen. Spencer heeft op basis van bovenstaande tijdreeks uit de eerste figuur van Levitus berekend hoeveel extra energie er per jaar het systeem in dan wel uit gegaan is. Een relatief simpele rekensom als je de verandering van de warmte-inhoud weet en de totale oppervlakte van de oceanen. Hij komt uit op een toename van de inkomende straling van 0,2 W/m^2 voor de totale periode 1955-2010. Dat komt goed overeen met de berekening die Levitus e.a. ook maakten in hun publicatie uit 2009. Omgerekend betekent dit een temperatuurtoename van de bovenste 700m van 0,17° C voor de totale periode 1955-2008.

Het bijzondere aan die temperatuurstijging van 0,17° C is dat deze ver achter blijft bij de HadSST (SST door Hadley Centre) , die voor delfde periode een temperatuurtoename van 0,6° C claimt. Tot zover niet heel spectaculair, zou je zeggen. Maar dan gaat Spencer iets heel aardigs doen. Hij bekijkt van jaar tot jaar het verschil in warmte-inhoud, en berekent vervolgens hoeveel energie er nodig was om die jaarlijkse verschillen te veroorzaken. Hij vergelijkt dan zijn uitkomsten met enkele grafieken van de hand van James Hansen, kopstuk bij GISS/NASA. Hansen publiceerde die grafieken in 2007 in een studie genaamd: Dangerous human-made interference with climate: a GISS modelE study .

 

Bron: Hansen et al 2007

In de eerste grafiek is van een aantal forcings voor de periode 1880-2003 de invloed weergegeven op de stralingsbalans. De tweede grafiek is het netto resultaat van al die forcings. Omdat de grafieken van Hansen slechts t/m 2003 lopen heeft Spencer voor de laatste jaren van het afgelopen decennium alle forcings op een na onveranderd gehouden, alleen het CO2-gehalte heeft hij op basis van recente metingen laten stijgen.
 

Bron: www.drroyspencer.com

Voor de periode 1955-2010 berekent Spencer op basis van de grafieken van Hansen een gemiddelde toename van de ‘radiative forcing’ van 0,8 W/m^2, terwijl in dezelfde periode de warmte-inhoud met ‘slechts’ 0,2 W/m^2 is toegenomen. Hoe kan dat ? Waar zijn die andere 0,6 W/m^2 gebleven? Spencers antwoord hierop is: feedback. Feedbacks in de vorm van verandering in bewolking, waterdamp en extra output van warmtestraling als gevolg van opwarming. Die extra output van warmtestraling noemt Spencer ‘THE main climate stabilizing influence’. Ik permitteer me de vrijheid om bij dat laatste eerder te denken aan extra latente energie en convectie als gevolg van opwarming dan aan extra stralingsenergie, hoewel dit laatste uiteraard ook zal plaatsvinden. Zie voor dit laatste ook de ideeën van Noor van Andel, Miskolczi en Clark in het hoofdstuk ‘Nieuwe Inzichten’. Conclusie: het klimaatsysteem van de aarde is veel minder gevoelig voor forcings zoals CO2-stijging dan gedacht door het IPCC.

Bron: www.drroyspencer.com

Met behulp van een eenvoudig fysisch model tracht Spencer tenslotte de feedback-parameter λ zodanig te parameteriseren dat de ‘radiative imbalance’ zo goed mogelijk overeenkomt met de gemeten toename van de warmte-inhoud met 0,2 W/m^2. Zie bovenstaande figuur. Let op het feit dat in het model de sterke feedback de forcing grotendeels neutraliseert, zoals de toename van de warmte-inhoud met 0,2 W/m^2 reeds indiceerde. Daarbij komt hij uit op een grootte van de feedback parameter λ van 4 W/m^2K, resulterend in een klimaatgevoeligheid van slechts 1° C bij verdubbeling van het atmosferische CO2-gehalte. Veel lager dus dan de door het IPCC gehanteerde gemiddelde toename van de temperatuur met 3° C.

Van diverse zijden is commentaar geleverd op bovenstaande uitkomsten, met name op het feit dat Spencer ‘slechts’ de bovenste 700m van de oceaan heeft bekeken. In een update op bovenstaand onderzoek heeft hij daarom zijn forcing-feedback model opnieuw laten lopen met de volgende 2 aanpassingen:
1) een netto opwarming over 50 jaar van 0,06° C voor de 0-2000m bovenste laag
2) een opwarming over dezelfde periode van 0,6° C van de SST

Het resultaat is een netto feedback parameter van 3W/m^2k, corresponderend met een klimaatgevoeligheid van 1,3° C bij verdubbeling van CO2, nog steeds ruim onder de gemiddeld 3° C van het IPCC, en zelfs onder de onderste limiet van 1,5° C die het IPCC voor toekomstige opwarming hanteert.

Tot slot: In de grafiek van de warmte-inhoud is te zien dat vanaf 2003 er sprake is van een stagnatie in de toename ervan, een stagnatie die tot op de dag van vandaag stand houdt. Het is wellicht interessant om dat verschijnsel in de nabije toekomst eens nader onder het licht te houden.

 


12-5-2011

Aansluitend aan de vorige bijdrage over het overlijden van Dr.Noor van Andel vindt u hieronder het laatste artikel van van Andel, geschreven voor en gepubliceerd in het tijdschrift SPIL. Met dank aan de redactie van SPIL voor de toestemming tot publicatie.

Analyse van een fysicus: waar gaan de klimaatmodellen de mist in?

Door Noor van Andel

Het IPCC haalt auteurs aan die de volgende theorie aanhangen: De CO2-concentratie in de atmosfeer is de laatste tijd gestegen van 280 tot 390 ppm. Die stijging is nog niet eerder vertoond, en we weten bijna zeker dat de 0,7 graden Celsius globale temperatuurverhoging die vanaf 1976 is gemeten, door die CO2-stijging is veroorzaakt. Als we zo doorgaan, zal de globale temperatuur meer dan 2 graden Celsius stijgen, en dan zullen de gevolgen niet meer te beheersen zijn; dus er moet nu wat gedaan worden om de CO2-uitstoot te verminderen. Een verdubbeling van de CO2-concentratie tot 560 ppm, die aan het eind van deze eeuw zal worden bereikt, zal een extra warmtebelasting betekenen van 4 W/m2, en een opwarmend effect hebben van zeker 1,5, waarschijnlijk 3, en wellicht zelfs 5 graden Celsius wereldwijd. Wat klopt hiervan niet?


Meten is weten. Weerballonen zijn naast satellieten een grote bron van informatie over de processen die zich in de atmosfeer afspelen

Eerst de delen van de IPCC-theorie die kloppen:
• De toename van de CO2 in de lucht is inderdaad te wijten aan de uitstoot die gepaard gaat met het gebruiken van fossiele brandstoffen. In principe kunnen we daarmee ophouden. Dat moet ook, maar om andere redenen dan die van opwarming door CO2.
• Een verdubbeling van de CO2 in de lucht leidt inderdaad tot 4 W/m2 extra warmte naar het aardoppervlak, maar alleen als er verder niets in de atmosfeer verandert.

Speculatief element

Er is maar één speculatief element in de IPCC-theorie, en dat is dat die 4 W/m2 extra warmtestroom bij 2 x CO2 zal leiden tot 3 graden Celsius temperatuurverhoging. Hoe komt men daaraan? Vrijwel iedereen is het erover eens dat, als er verder in de atmosfeer niets zou veranderen, die 4 W/m2 een globale gemiddelde temperatuurverhoging van 1,5 graad Celsius tot gevolg heeft. Dat komt doordat, vooral boven in de atmosfeer, zo tussen 5 en 10 km, er weinig waterdamp meer is. Het is daar zo koud, dat al het water uitgevroren is en als sneeuw en regen naar beneden gevallen is.

Maar het CO2 vriest niet uit, en dat is daar dan het belangrijkste gas dat de infrarode (warmte)straling naar de ruimte absorbeert, daardoor de atmosfeer ter plaatse opwarmt, zodat de aarde straalt tegen een warmere lucht en daardoor zelf ook warmer moet worden om de ingevangen zonnestraling weer kwijt te raken. Alle door het IPCC aangehaalde klimaatmodellen nemen CO2 als enig ‘broeikasgas’ en behandelen de waterdamp, die 80% van het broeikaseffect voor zijn rekening neemt, als zogenaamde ‘terugkoppeling’. Wordt het warmer, dan wordt het ook overal in de atmosfeer vochtiger, en dat versterkt het 2 x CO2-effect van 1 tot 1,5 à 5 graden Celsius. Die versterkte opwarming wordt door alle klimaatmodellen voorspeld.

Meten leidt tot beter weten

Klopt dat met metingen? Neen.De satellietmetingen laten juist een tegengestelde trend zien.Ook de klassieke meteorologie weet sinds 1958 hoe de vork aan de steel zit. Dat is anders:

1. De ingevangen zonnewarmte verlaat het aard- en zeeoppervlak via verticale luchtstroming, thermiek, meenemen van waterdamp die op grote hoogte condenseert en weer koud uitregent. Via warmtestraling wordt de atmosfeer kouder, niet warmer. De voornaamste koeling is boven de zee en de regenwouden boven de evenaar, in dagelijkse tropische regenbuien, die de warmte in de vorm van waterdamp tot 15 km hoogte opstuwen. De tropische zeetemperatuur is precies geregeld op 29 graden Celsius. Er is 20 W/m2 nodig om die temperatuur met 1 graad Celsius te laten toenemen. Dat is 5 x zo veel warmte als die 4 W/m2 die het gevolg is van 2 x CO2. Daardoor blijft de opwarming door 2 x CO2 beperkt tot enkele tienden van een graad Celsius. Dat is niet te meten tussen natuurlijke variaties van 0,5 graad Celsius van jaar tot jaar.

2. Waterdamp is het broeikasgas dat onze temperatuur regelt. Als het wat warmer wordt, komen er wat meer wolken die het zonlicht terugkaatsen, de passaatwinden in de tropen nemen sterk toe, meer dan 10% per graad opwarming. De tropische warmte wordt hoog in de atmosfeer opgestuwd, tot 12 à 17 km. Daar heeft 2 x CO2 een koelend effect. We meten dat door de toegenomen CO2 de temperatuur daar inmiddels 3 graden Celsius is gedaald. Niet gestegen. De wolktop daar is in de periode waarin het warmer werd, sinds 1976, hoger en dus ook kouder geworden. Daardoor is de lucht daar droger en dus ook doorzichtiger voor warmtestraling, juist tegengesteld aan wat de klimaatmodellen, aangehaald door het IPCC, menen te voorspellen.

3. Er is geen sprake van een sterke opwarming van de lucht tussen 5 en 12 km, zoals de klimaatmodellen laten zien. Er is juist een afkoeling gemeten, juist in de periode waarin het klimaat wat warmer werd, 1976 -2009. Die afkoeling baart door de IPCC aangehaalde auteurs grote zorgen, en er verschijnen ook veel ‘wetenschappelijke’ publicaties waarin de juistheid van die metingen in twijfel wordt getrokken. De juistheid van de modellen wil men graag blijven aannemen. Dat is tekenend voor de situatie: men wil zijn theorie niet aan de werkelijkheid aanpassen, maar de werkelijkheid, metingen door weerballonnen en satellieten over 30 jaar, aan de theorie aanpasssen, zodat ze met de bestaande modellen in overeenstemming worden gebracht. Iedereen voelt op zijn klompen aan dat het omgekeerde behoort te gebeuren: pas je theorie aan de werkelijkheid aan, niet andersom.

4. De klimaatmodellen laten een 3 x kleinere vergroting in de neerslaghoeveelheid rond de evenaar zien dan er wordt gemeten. Men wil niet weten van de intensivering van de koeling door tropische regenbuien als het ook maar 0,5 graad Celsius warmer wordt. Ze laten een 5 x kleinere vermindering van de regenval zien in de neerdalende lucht in de passatwindgordel, omdat men niet wil weten van het droger worden van die neerdalende lucht als gevolg van die opwarming. Want er is gemeten dat de waterdampspanning daar zo is afgenomen, dat die invloed groter zou moeten zijn dan die van de toenamen van CO2.

5. Alle klimaatmodellen laten een afname van de warmte-afgifte van de aarde naar de ruimte zien als gevolg van opwarming. Alle metingen daarentegen laten een toename zien van die warmte-afgifte, zoals ook logisch is. Er is geen enkele reden om aan te nemen dat de warmteoverdracht naar het heelal bij huidige aardse temperatuur nu ineens zou afnemen bij wat hogere temperatuur. Als dat werkelijk zo was, zou het klimaatsysteem instabiel zijn. De paleoklimatologie laat zien dat het systeem juist heel stabiel is, over miljarden jaren, ook aanvankelijk bij een 30% zwakkere zon, is de temperatuur binnen 10 graden Celsius (3 % van de absolute waarde) stabiel gebleven.

The Earth as a Heat Engine. The equatorial Hadley Cells provide the power for the system. Over the tropics, the sun (orange arrows) is strongest because it hits the earth most squarely. The length of the orange arrows shows relative sun strength. Warm dry air descends at about 30N and 30S, forming the great desert belts that circle the globe. Heat is transported by a combination of the ocean and the atmosphere to the poles. At the poles, the heat is radiated to space .

Werkelijke oorzaken van temperatuurveranderingen

De vraag is: als het niet de CO2-stijging is, wat heeft dan wel de temperatuurveranderingen veroorzaakt?

1. De belangrijkste korte-termijninvloed is de ENSO, of de El Niño Southern Oscillation. Dat is een periodieke onderbreking van de opwelling van koud oceaanwater voor de kust van Peru en Equador, waardoor het gehele klimaat ter plekke verandert. De autochtone bevolking ziet dat aankomen; als ze de Pleyadensterren niet meer gescheiden ziet, is de lucht vochtiger, de oceaan warmer. Dan is het El Niño, Spaans voor het kerstkind, en je hoeft niet te wachten met aardappelpoten. De vissers hebben het dan moeilijk, de zee is minder voedselrijk. De afkoeling tussen 1940 en 1976 vond plaats in een tijd van veel perioden met veel koude opwelling, de periode van 1976 tot nu is er een met weinig koude opwelling, dus veel El Niño. De koude winter van 2010-2011 is het gevolg van een heel sterke koude opwelling, La Niña, die in mei 2010 begon en die inmiddels de hele tropische Stille Zuidzee tot aan Australië een paar graden heeft afgekoeld en heeft gezorgd voor veel en vroege sneeuw in Europa.

2. Hoewel de door het IPCC aangehaalde auteurs (zoals professor Michael Mann, University of Virginia, met zijn ‘hockeystick’) erg veel moeite hebben gedaan om dit te ontkennen, is de ‘kleine ijstijd’, ongeveer de zeventiende eeuw, veel kouder geweest dan nu. De vele ijsgezichten in de Nederlandse schilderkunst getuigen daarvan, de Theems vroor regelmatig tot in Londen dicht, wat aanleiding gaf tot ‘ice fairs’ op het ijs in de stad. In diezelfde periode, na de uitvinding van de telescoop door Lippersheij in Middelburg, is men het aantal zonnevlekken gaan bijhouden. Het blijkt dat er gedurende de gehele kleine ijstijd nauwelijks zonnevlekken zichtbaar waren, het ‘Maunder minimum’. Ook in het begin van de negentiende eeuw is er een korte periode geweest met weinig zonnevlekken. Het was toen erg koud. Napoleons leger vroor vast op de Berezina, en na een zware vulkaanuitbarsting op Sumbawa in Nederlands Indië kwam er 1816, het ‘jaar zonder zomer’, waarin de graanoogsten mislukten en er 100.000 hongerdoden in Europa vielen. De Middeleeuwen, rond het jaar 1000, waren warm, de Vikingen zaaiden toen graan op Groenland en men plantte wijnstokken in Schotland. De Romeinse tijd was warm en een tijd van grote voorspoed. De tijd van de volksverhuizingen was weer koud, hongerige stammen plunderden Europa en vestigden zich in het Zuiden, de Vandalen in (West) Andalusië.

Deze grote klimaatschommelingen hebben allemaal niets met CO2 te maken, des te meer met wisselingen in de magnetische activiteit van de zon. Wel een ingewikkeld verhaal: Een actieve zon heeft niet alleen meer zonnevlekken, maar ook een sterker magnetisch veld, dat dan de harde kosmische straling uit ons Melkwegstelsel meer afschermt. Die straling is zo energetisch, dat hij tot op het aardoppervlak doordringt en op zijn pad duizenden luchtmoleculen ioniseert, die dan wolkcondensatiekiemen veroorzaken, dus meer laaghangende bewolking, wittere wolken met meer en kleinere waterdruppeltjes. Daardoor wordt de aarde witter, het zonlicht kaatst meer terug, en het wordt kouder bij een inactieve zon. Ook dit effect is sinds 1960 opgemerkt en sindsdien uitvoerig gemeten. CERN in Genève, waar men beschikt over die harde straling uit een eigen deeltjesversneller, heeft er een opstelling voor gebouwd die onlangs is aangelopen en het effect ook heeft geconstateerd. De zon is de laatste tijd heel actief geweest, sommigen verwachten dat dit nu anders wordt en dat we dus een koude periode in het vooruitzicht hebben.

The coincidence of tropical Pacific SST and global average temperature. Red: SST anomalies Pacific 20ºN-20ºS; blue: global temperature anomaly

Effect van wisselende zonne-activiteit is aangetoond

Zoals te verwachten, hebben door het IPCC aangehaalde auteurs zich heftig verzet tegen deze samenhang tussen zonne-activiteit en klimaat, onder meer door erop te wijzen dat de zonnestraling zelf heel weinig varieert met de 11-jarige cyclus van de zonneactiviteit. Maar het gaat ook niet om de hoeveelheid zonlicht, het gaat om de de hoeveelheid wolken. En juist de laaghangende wolken nemen toe als de zon wat minder actief is en dan de kosmische straling wat minder afschermt. Het wordt dan kouder, omdat die wolken het warmende zonlicht weerkaatsen. Op elke tijdschaal is dit effect aangetoond: van uren tot dagen tot jaren tot eeuwen tot duizenden eeuwen tot miljoenen jaren. Dat kan, omdat er tijdens een stille zon meer van de isotoop 10Be wordt gevormd via een kernreactie in de atmosfeer. Die isotoop heeft een lange halfwaardetijd en kan goed worden aangetoond, bijvoorbeeld in ijskernen die op Groenland en in Antarctica worden geboord. Met de verhouding van 16O/18O kun je de temperatuur meten, met 10Be de galactische kosmische straling. Een van de meest indrukwekkende samenhangen is die tussen de graanprijzen en de hoeveelheid 10Be, zoals het diagram betreffende de zeventiende eeuw illustreert.

De ononderbroken lijn in de figuur is de 10Be-spiegel in het sediment uit die tijd. Als de zon minder actief is, is er meer harde kosmische straling, dus ook meer 10Be. Het is dan kouder, de graanoogst is geringer en de prijzen stijgen. De witte en zwarte ruiten zijn driejaars-gemiddelde graanprijzen, de witte en zwarte driehoeken zijn de momenten van minimum en maximum graanprijs. De getoonde periode is bekend als ‘kleine ijstijd’. Een kouder klimaat heeft echt schadelijke gevolgen. Een warmer klimaat brengt welvaart.

Ontkrachting van andere alarmerende voorspellingen

Tot slot nog enkele vaststellingen die alarmerende berichten ontkrachten die het IPCC graag verspreidt en die de media graag overnemen:

• Er is geen enkele aanwijzing dat de zeespiegel sneller stijgt dan in voorbijgegane eeuwen.
• Er is geen enkele aanwijzing dat het aantal extreme weerstoestanden, zoals orkanen, droogten, overstromingen, toeneemt.
• Er is geen aanwijzing dat het afsmelten van gletschers versnelt. In de warme Middeleeuwen waren ze veel korter dan nu.
• Er is geen enkele aanwijzing dat meer CO2 schadelijk is; integendeel, planten groeien sterker en hebben minder last van watertekort als er meer CO2 is.
• Er is geen aanwijzing dat het bleken van koralen versnelt door opwarming.
• Er is geen aanwijzing dat stijging van de zuurgraad van de zee nadelige invloed heeft op het leven daar.
• Er is geen enkele aanwijzing voor een achteruitgang van de voedselproductie door ‘klimaatverandering’.
• Er is geen enkele aanwijzing dat menselijk gezondheid in gevaar gekomen is als gevolg van een toegenomen concentratie van CO2 in de lucht.

Foto rechts: Bij een tropische donderbui dringt de ‘diepe convectie’ tot in de stratosfeer door.

 

10-5-2011

In memoriam Noor van Andel

Toen ik enkele weken geleden bezig was met het bewerken van een recent artikel van zijn hand, bereikte me het bericht dat Dr. Noor van Andel was overleden. Noor van Andel was naar mijn mening een van de weinige echt gróte denkers op het gebied van klimaatverandering in ons land. Hij schrok er niet voor terug de professionals in het veld zo nu en dan stevig toe te spreken op hun eigen vakgebied.

Noor van Andel was van huis uit ingenieur en is lange tijd van zijn werkzame leven directeur geweest van de laboratoria van AKZO. Hij werd gezien als een kopstuk op het gebied van duurzame energietechnologie. Na zijn pensionering ging hij niet stilzitten maar zette zijn enorme kennis en praktijkervaring in in zijn bedrijf Fiwihex, dat technologie ontwikkelt voor onder andere duurzame energieopslag in tuinderskassen.

Zijn enorme kennis op het gebied van energieoverdracht zette hij ook in op een andere gebied dat zijn aandacht had, namelijk klimaatverandering. Daar versterkte hij al snel het klimaatkritische kamp. Zijn praktisch gerichte werkwijze en inzichten contrasteerden sterk met de theoretische benadering van veel professionele werkers in het klimaatveld, wat niet zelden tot schermutselingen op hoog niveau leidde.

 

Bron foto: climategate.nl

Zijn ideeën over klimaatveranderingen spraken me dermate sterk aan dat ik daar een jaar geleden al een hoofdstuk aan gewijd heb: “Latente Warmteflux” onder “Nieuwe Inzichten” . Ik zal de komende tijd proberen om zijn laatste artikelen over klimaatveranderingen daar een plaats te geven.
 


27-4-2011

Vincent Courtillot en zijn heldere kijk op klimaatveranderingen

De afgelopen maanden is hier (soms bij herhaling) een aantal onderwerpen aan de orde geweest dat belangrijk is voor de ‘klimaatdiscussie’. Een daarvan is de vraag of het interessant is dat we wederom een jaar achter de rug hebben met een klimatologisch record: nee dus. Zolang we (al meer dan 10 jaar) ons op een soort hoog temperatuurplatform bevinden zal elke kleine uitschieter naar boven een record opleveren. Interessanter is de vraag wat de temperatuurtrend is, en waarom de temperatuurstijging al meer dan een decennium stokt.

Een ander aspect dat uitvoerig aan de orde is geweest is de vraag of de recente temperatuurstijging van 0,6 °C in de afgelopen eeuw uniek is. Een blik op de temperatuurgang van de afgelopen millennia gaf al snel uitsluitsel: geen bijzondere dingen. Sommigen zullen zeggen: maar die recente opwarming is antropogeen en dus afwijkend van al die andere fluctuaties. Ik heb hier al eerder opgemerkt dat die antropogene opwarming onderdeel vormt van de hypothese dat een stijging van broeikasgassen in de atmosfeer een stijging van de temperatuur veroorzaakt. Dat (die antropogene invloed) is mogelijk, maar als het al zo is dat is met de huidige stand van wetenschap nog steeds niet uit te maken hoe groot dat antropogene aandeel is en hoe groot het aandeel van andere (,natuurlijke’) factoren. Wat dat laatste betreft: uitvoerig aandacht is ook besteed aan de rol van de zon in de temperatuurfluctuaties aan het aardoppervlak, zowel voor wat betreft de berekeningen van Cees de Jager c.s., van Shaviv , als de hypothese van Svensmark c.s. betreffende de rol van cosmic rays op de aardse temperaturen.

Als u dit alles ook nog eens wilt horen uit de mond van een eerbiedwaardige professor, dan moet u hier klikken. Het is een opname van de toespraak die professor Vincent Courtillot heeft gehouden op een klimaatcongres dat afgelopen december in Berlijn is gehouden. Coutillot , geofysicus, is hoogleraar aan de Universiteit van Parijs en sinds 2003 lid van de Académie des Sciences. Hij is gespecialiseerd in paleoklimatologie en paleobiologie en houdt zich bezig met de invloed van klimaatveranderingen op organismen.

Courtillot hield zijn toespraak op het congres van EIKE, het Europäisches Institut für Klima und Energie. Hij geeft een uitermate heldere uiteenzetting over de impasse waarin de klimaatwetenschappers zich bevinden, met hun soms obscene hang naar modelleren. Courtillot zet in zijn toespraak die klimaatwetenschappers weer met beide benen op de grond. Uiteraard wordt dat de professor niet door iedereen in dank afgenomen. Hij wordt dan ook door een deel van de klimaatfamilie gezien als scepticus. Oftewel: hij deugt niet. Oordeelt u zelf door de video te bekijken.
 


19-4-2011

Stijging van temperatuur in 20e eeuw verre van uniek (deel 2)

Op 19 februari j.l. heeft u hier een bijdrage kunnen lezen over de temperatuurstijging van de afgelopen eeuw, vergeleken met temperatuurreeksen van de afgelopen 50.000 jaar. De conclusie was dat de recente temperatuurstijging van de 20e eeuw niet bijzonder was. Een Amerikaanse blogger , John Kehr, heeft hetzelfde onderzoekje als ik deed op 19 februari ook gedaan, nu voor de afgelopen 2 millenia. Hij gebruikte daarvoor de temperatuurreeks zoals die door Moberg e.a. is gereconstrueerd.

Moberg publiceerde de onderzoeksresultaten in 2005 in Nature, en is sindsdien in meer dan 500 publicaties geciteerd.


Bron: Moberg

Hij maakt bij zijn reconstructie van de temperatuur op het NH van de afgelopen 2000 jaar gebruik van diverse proxies. Zo gebruikt hij de boomringdata die zo populair zijn geworden door de publicaties van Mann c.s., en die de vermaledijde hockeystick opleverden. In 2005, het jaar van publicatie van het artikel van Moberg e.a. , werd de eerste vernietigende kritiek geschreven in het Nederlandse blad Natuur en Techniek, van de hand van journalist Marcel Crok. Maar ook in het wetenschappelijke veld was toen al de nodige kritiek op de werkwijze van Mann c.s. Op grond daarvan besloten Moberg et al om de kortetermijnbevindingen van de boomringdata te combineren met langetermijn data uit meer- en oceaansedimenten (zie figuur hierboven).

 

Bron: theinconvenientskeptic.com

Met behulp van een statische techniek, de wavelet transform technique, was het mogelijk om een temperatuurreconstructie te maken van de afgelopen 2000 jaar, die hierboven is afgebeeld. Wat direct opvalt is de aanwezigheid van de Middeleeuws Optimum, een warmere periode die tot op de dag van vandaag door Mann c.s. ontkent wordt als globaal verschijnsel.

Maar interessanter wordt het als we niet het absolute verloop van de temperatuur beschouwen, maar de temperatuurverandering per tijdvak van 50 jaar vanaf het jaar 25 n. Chr. tot 1955 n.Chr. Het resultaat ziet u hieronder.

Bron: theinconvenientskeptic.com

De blauwe lijn geeft de veranderingen per tijdvak weer op basis van de data van Moberg. De rode lijn geeft de veranderingen weer per tijd van 50 jaar op basis van de gecombineerde data van CRU, GHCN, UAH en RSS. Het verspringen van de rode lijn t.o.v. de blauwe lijn is het gevolg van een time lag tussen de gemeten temperatuur en de proxies van lagetermijn data zoals die uit oceanen.

De bevindingen zijn opmerkelijk: de opwarming in de 20e eeuw is niet de sterkste van de afgelopen 2000 jaar. Als we alleen naar de afgelopen 1000 jaar kijken dan valt op dat er zeker 10 periodes zijn met een significatie opwarming. De opvallendste daarvan vond plaats in de 17e eeuw, toen opwarming bijna een eeuw duurde.
Het temperatuurverloop toont ook een langetermijn-periodiciteit van een aantal eeuwen, die met behulp van de boomproxies van Mann e.a. niet herkenbaar waren. En het verloop van de temperatuur gedurende de afgelopen eeuw vertoont geen afwijking van het patroon dat al eeuwenlang de temperatuur op het NH beheerst. Afkoeling staat derhalve voor de deur, is te verwachten.


16-4-2011

Hoe goed zijn klimaatmodellen in het voorspellen van de SST?

Bob Tisdale heeft op de site Whatsupwiththat een vergelijking gemaakt tussen klimaatmodellen en gemeten temperaturen van oceaanwater (SST), en komt daarbij tot opmerkelijke conclusies. Hij gebruikt daarvoor een aantal door het IPCC gebruikte klimaatmodellen die hij voedt met een tweetal scenario’s. De ene is 20C3M dat gebruikt wordt om zogenaamde hindcast (= ‘achteruit voorspellen’) toe te passen. De tweede,SRES A1B , is een scenario om voorspellingen in de toekomst te kunnen doen. Hij zet de uitkomsten van de klimaatmodellen af tegen gemeten waarden van de SST (Sea Surface Temperature) op basis van Reynolds OI.v2 dataset, satellietmetingen. De verschillen zijn opmerkelijk.

Bron: KNMI

Bovenstaande figuur vergelijkt voor de gehele aarde de gemeten data vanaf 1982 (start satellietmetingen) met de gemiddelde uitkomsten van klimaatmodellen. Het verschil is opvallend. Niet alleen verdwijnen El Niño/La Niña variaties, maar ook de trend van de modellen ligt zo’n 50% hoger dan de gemeten trend.

Bron: KNMI

Deze afwijkingen blijven ook aanwezig als Tisdale de Grote Oceaan in vieren knipt: noord, zuid oost en west. Bovenstaande figuur betreft de situatie voor het noordelijk deel van de Pacific. De lineaire trend van de modellen is bijna 2x zo groot als die van de meetgegevens. Alleen voor het westelijk deel van de Grote Oceaan geldt dat de modellen heel aardig de gemeten trend volgen.

 

Bron: KNMI

Maar in het oostelijk deel van de Grote Oceaan zijn de verschillen tussen modellen en de gemeten waarden zeer groot: de lineaire trend van de modellen is daar meer dan 6x hoger dan die van de gemeten data.

Bron: KNMI

Tisdale kijkt ook naar de zonale verschillen die de modellen weergeven. De zones hebben een breedte van 5 breedtegraden, dus bijvoorbeeld van 45 °NB tot 50 °NB, en lopen van Noordpool tot Zuidpool. Voor elke zone worden dan de lineaire trend weergegeven volgens de klimaatmodellen . De periode loopt van januari 1982 tot februari 2011. De zones zijn per oceaanbekken weergegeven, waarbij de Indische Oceaan en de Grote Oceaan gesplitst zijn in een westelijk en een oostelijk deel.
 

Bron: KNMI

Opvallend is dat de afwijkingen van de modellen het grootst zijn op lage breedten en afneemt tot vrijwel 0 in Arctische en Antarctische wateren , dat deze afwijkingen over het gehele traject positief zijn, en dat dit voor alle oceanen geldt.
Als we bovenstaande zonale data per oceaan samenvoegen, en vergelijken met de gemeten data, dan wordt het beeld heel anders.

Bron: KNMI

De modellen missen de afkoeling van de SST ten Z van 50 °ZB , de opwarming van het oceaanwater nabij 62 °NB, terwijl de afwijking tussen 30 °ZB en 30 °NB ook erg groot zijn. Kortom, de modellen elke link met het werkelijke verloop van de SST.
Als men de zonale data van het westelijke bekken van de Grote Oceaan vergelijkt met die van het oostelijk deel, dan krijgt men het volgende beeld. Hieronder eerst het westelijk deel van de Pacific:

Bron: KNMI

In het westelijk deel missen de modellen de gemeten afwijkingen op 67 °ZB, 50 °ZB, 40 °NB en 62 °NB, maar overigens doen de modellen het in dit deel van de Pacific niet erg slecht. Dat komt overeen met datgene wat we ook al zagen in de derde figuur. Maar als men dan de data van het oostelijk deel van de Grote Oceaan bekijkt dan slaan de klimaatmodellen de plank volledig mis:

Bron: KNMI

Tot slot kwam Tisdale nog met een update van zijn bevindingen, omdat de figuren gevoelig zijn voor de keuze van begin- en eindpunt van de gemeten periode. Dat is op onderstaande grafiek duidelijk te zien.

 

Bron: KNMI

Om het El Niño/La Niña-effect op het verloop van de grafieken te elimineren kiest Tisdale als beginpunt januari 1986 en als eindpunt december 2005, beide El Niño/La Niña-neutrale data. Voor alle oceanen samen levert dat het volgende effect op:

Bron: KNMI

Als men dat vergelijkt met de figuur die het tijdvak 1982-2011 bestrijkt dan zien we dat de afwijkingen weliswaar op sommige breedten iets kleiner zijn geworden, maar dat blijft staan dat de klimaatmodellen extreem afwijken van de gemeten waarden. De oceanen maken ongeveer 2/3 van het totale oppervlak van onze planeet uit en zijn vanwege hun enorme buffercapaciteit voor wamte, vanwege de zeestromen en vanwege verdamping van zeer grote invloed op het klimaatsysteem. Men dient dan ook mijns inziens de uitkomsten van die modellen met grote voorzichtigheid te benaderen.

Met dank aan Bob Tisdale en het KNMI voor de data.
 


15-4-2011

Nogmaals de zon

Prof. Horst Malberg, voormalig directeur van het 'Institut für Meteorologie der Freien Universität Berlin', heeft een interessant essay geschreven over de rol van de zon op het klimaat. In mijn bijdrage van 1 april j.l. ben ik al uitgebreid ingegaan op de recente publicaties van prof. De Jager over de invloed van de zon op klimaatveranderingen. De bijdrage van Malberg bevestigen de Jagers conclusie, namelijk dat de zon meer dan andere ‘forcings’ de drijvende kracht is achter klimaatveranderingen.

Bron: NOAA

Malberg vergelijkt het gemiddeld aantal zonnevlekken van 3 opeenvolgende 11-jarige Schwabe-zonnecycli met het temperatuurverloop gedurende die zonnecycli in onder andere Midden Europa. Beide zijn uitgedrukt in anomalieën, veranderingen ten opzichte van een bepaalde referentieperiode. In bovenstaande figuur is de bekende temperatuurtrend te zien vanaf het einde van de Kleine IJstijd (Maunder Minimum) : een oplopende temperatuur tot de 19e eeuw, dan weer een afkoeling (Dalton Minimum) en daarna de opwarming van de 20e eeuw. Daarmee volgt de temperatuurtrend van Midden Europa die van de globale temperatuur met een correlatiecoëfficiënt van + 0,94.

Het is hier al eerder opgemerkt dat de meeste temperatuurgrafieken die betrekking hebben op klimaatverandering niet in de 17e eeuw beginnen, zoals bovenstaande grafiek, maar in de tweede helft van de 19e eeuw. Logisch , want veel meteorologische diensten, zoals ook het KNMI, begonnen in die periode met hun metingen. Maar daardoor komt alleen de laatste opwarming vanaf 1880 in beeld, waardoor de indruk gewekt kan worden dat deze temperatuurstijging uniek is. Dat beeld werd nog versterkt door de foutieve reconstructie van de globale temperatuur sinds 1100 door Michael Mann, de bekende hockeystickgrafiek. Tel daar nog eens bij de als vaststaand feit verkochte hypothese dat atmosferisch CO2 de temperatuur op aarde stuurt, en het beeld dat de globale temperatuurstijging sinds 1880 van ~ 0,7 °C vrijwel zeker antropogeen van oorsprong moest zijn was een feit.

In bovenstaande grafiek is te zien dat de temperatuurstijging sinds 1880 onderdeel is van een cyclische schommeling. Deze zogenaamde De Vries-cyclus heeft een periodiciteit van ongeveer 200 jaar en wordt aangedreven door de zon.

 

Bron: Malberg

In de figuur hierboven zien we de temperatuuranomalieën in Midden Europa per periode van 3 Schwabe-cycli. Opvallend is dat het verloop van deze grafiek sterk lijkt op die van de eerste grafiek. Zonneactiviteit is ontegenzeggelijk een belangrijk sturende factor in het temperatuurverloop.

Malberg heeft de correlatiecoëfficiënt berekend tussen die zonneactiviteit en het temperatuurverloop in diverse gebieden (zie de grafiek hieronder).

Bron: Malberg

In de grafiek is de correlatie weergegeven voor Midden Europa en centraal Engeland, en vanaf 1857 ook voor het NH, ZH en de aarde als geheel. Voor de periode 1857-1996 kan volgens Malberg de zon voor ongeveer 80% de langetermijn temperatuurveranderingen verklaren. Opvallend is dat de correlatie zonneactiviteit – temperatuur daalt bij beschouwing van kortere periodes, zoals die met de duur van een zonnecyclus. Dat is het geval vanaf 1996, als ook de laatste cyclus, nummer 23, meegerekend wordt. Daarom heeft Malberg aandacht besteed aan de periode 1991-2010 om meer zicht te krijgen op de vraag welke factoren van invloed zijn op kortstondige periodes met een lengte van een zonnecyclus. In onderstaande grafiek is het verloop van de globale temperatuur weergegeven, bron HadCrut. De kortstondige temperatuurverandering in deze periode zijn vrijwel alle terug te voeren tot de invloed van El Niño (ENSO) en La Niña, de grootschalige veranderingen in het stromingspatroon van de tropische Pacific.

Bron: HadCrut

Een El Niño fase verwarmt de aarde, La Niña daarentegen koelt de aarde af. Deze fases hebben een relatief kortstondige uitwerking op de globale temperatuur. Maar er is ook een langere periodiciteit te ontdekken in de invloed van beide verschijnselen. In onderstaande grafiek is de zogenaamde aandrijffactor F = Tm*Mon weergegeven, waarbij men per decennium de totale invloed van El Niño en La Niña berekent. Deze warmtebalans is positief als El Niño overheerst, en negatief als La Niña overheerst.

Bron: NOAA

Opvallend is dat in de jaren’50 de balans negatief was, en in de decennia daarna (met uitzondering van de jaren ’70 , positief. Vooral in het laatste decennium is de invloed van Pacifische cyclus groot geweest.

Bron: Malberg

Bovenstaande grafiek geeft de correlatie weer tussen de jaarlijkse globale gemiddelde temperatuur en die van de tropische Pacific voor diverse periodes. Opvallend is dat de correlatie om en nabij de + 0,8 is voor het afgelopen decennium. Malberg merkt op dat El Niño/La Niña op twee manieren het klimaat beïnvloed, namelijk op een decenniale schaal en een intra-annuele schaal. Met name het afgelopen decennium is de invloed op de globale temperatuur groter dan in de voorafgaande decennia, terwijl de kortstondige pieken en dalen in de temperatuurreeks de tweede invloed vormen. Volgens Malberg compenseert de toegenomen invloed van El Niño/La Niña op decenniale schaal de teruglopende zonne-activiteit van de afgelopen 50 jaar.

Bron: NASA

Wat biedt de toekomst? Net zoals prof. De Jager denkt ook Malberg dat de kans groot is dat we aan de vooravond van een afkoeling staan. Van cruciaal belang volgens Malberg is de vraag wat cyclus 24 gaat doen. Als het gemiddelde zonnevlekkenaantal onder de 50 blijft verwacht hij een langere periode van afkoeling. En in die verwachting staan Malberg en De Jager niet alleen. Over CO2 als drijvende kracht achter de temperatuur is de professor kort: “Der anthropogene CO2-Effekt kommt als Ursache des aktuellen Temperaturverhaltens nicht in Betracht. Wäre er dominant, müsste sich die globale Temperatur seit1998 auf Grund des exponentiellen CO2-Anstiegs stark erhöht haben. Eine konstante globale Temperatur ist durch einen angeblich dominierenden CO2-Effekt physikalisch ebenso wenig zu erklären, wie es globale Abkühlungen sind.
 


13-4-2011

De Staat van het Klimaat van het PCCC en van Crok

In de vorige bijdrage heb ik aandacht besteed aan het Volkskrantartikel over het zojuist uitgekomen rapport De Staat van het Klimaat 2010 van het PCCC. Het moet gezegd worden: het boekje geeft een heel aardig overzicht over het actuele klimaatonderzoek en het beleid daarin van de Nederlandse overheid. En heel netjes wordt, zoals beloofd, ook aandacht besteed aan kritische geluiden in het klimaatdebat.


In dat debat, waarin ondergetekende ook zo nu en dan een steentje tracht bij te dragen, is de uitgave van het boek van wetenschapsjournalist Marcel Crok niet onbelangrijk. Crok heeft een hoop klimatologische items toegankelijk gemaakt voor een groot publiek, en dat heeft hij prima gedaan. Crok probeert net zoals ik enig tegengas te geven tegen de stortvloed aan main stream informatie die de afgelopen jaren over ons uitgestort is. Het is daarom een beetje flauw van de auteurs van het bovengenoemde boekje van het PCCC om Crok aan te rekenen dat hij niet altijd álle publicaties noemt maar zich beperkt tot de sceptische. In dit geval gaat het om de vraag hoe warm het op aarde gaat worden.

Kritische mensen als Crok zijn er juist voor om enig tegenwicht te vormen tegen de main stream opvattingen, niet om een breed afgewogen beeld te schetsen van de wetenschappelijke discussie op klimaatgebied. Dat laatste lijkt me juist een taak van instellingen als het IPCC en het KNMI, die daar de afgelopen jaren niet in geslaagd zijn.

Deze site, Klimaatgek.nl, heeft ook niet als doel om een evenwichtig beeld te schetsen, maar om kritische kanttekeningen te plaatsen bij de algemeen heersende opvattingen over klimaatverandering. Daarom moet Marcel mijns inziens gewoon doorgaan met waar hij mee bezig is, namelijk gedegen werk leveren als luis in de pels. Ik las dat nu ook zijn e-versie van het boek op de markt is, dit voor diegenen onder u die het boek nog niet gelezen hebben. Overigens: ik heb geen ‘aandelen Crok’ !


8-4--2011

Koud in Nederland, warm in de wereld.

Bron: Volkskrant/NCEP

Op 6 april j.l. berichtte de Volkskrant op pagina 3 over twee zaken die interessant zijn voor deze klimaatsite. Het eerste bericht betrof het relatief koude jaar 2010 voor Nederland, terwijl de aarde als geheel “een van de warmste jaren sinds 1850” meemaakte.

Nu zijn beide beweringen waar: 2010 was relatief koel voor Nederland en relatief warm voor de wereld als geheel. Maar is dat bijzonder? Natuurlijk niet, want Nederland is de wereld niet. Maar waarom dan een paginagroot artikel over iets dat zo vanzelfsprekend is, kun je je afvragen? Het antwoord is te vinden in het tussenkopje: “Kou heeft scepsis over opwarming doen toenemen”. Nu zijn er veel meer redenen te bedenken om sceptisch te zijn over opwarming van de aarde dan een koude decembermaand. En misschien is het wel waar dat bij het publiek die koude maand de scepsis verder heeft doen toenemen. Het artikel is gebaseerd op het rapport “De Staat van het Klimaat 2010 ”van het PCCC, een samenwerkingsverband tussen enkele universiteiten, het KNMI , Deltares en het NWO. Het is een artikel met een boodschap: denk niet dat na een koude winter in West-Europa de wereld ophoudt met opwarmen. Maar is die boodschap juist?

Op 22 januari j.l. heb ik het temperatuurverloop van het afgelopen decennium bekeken. Daarbij gebruikte ik de data van de 4 grote instituten die zich bezig houden met het berekenen van die data. En dat het verloop van de wereldtemperatuur een kwestie van rekenen is bleek toen wel: alle vier de reeksen weken van elkaar af. GISS/NASA berekende de grootste stijging: + 0,152 ºC, NCDC NOAA kwam uit op een decenniale stijging van + 0,013 ºC, HadCRUTv3 op een daling van – 0,052 ºC, en de satellietdata RSS MSU op + 0,032 ºC. Als we deze waarden middelen dan is de conclusie gerechtvaardigd dat er gedurende het laatste decennium geen noemenswaardige stijging heeft plaatsgevonden. Overigens vindt al vanaf 1996 geen noemenswaardige stijging meer waar te nemen in de aardse temperatuur.

Onderstaande grafiek geeft het verloop weer van de temperatuur van het onderste deel van de troposfeer zoals waargenomen door de AMSU satelliet. De rode lijn geeft de officiële door UAH (University of Alabama Huntsville) berekende temperatuuranomalie, de blauwe lijn geeft het temperatuurverloop van Channel 5 van dezelfde satelliet, een bijna real time verloop van de temperatuuranomalie (niet gecorrigeerd). Als de grafiek gefilterd wordt op El Niño/La Niña pieken en dalen, dan is het verloop sinds 1996 nagenoeg vlak. De referentieperiode van de grafiek is 1981-2010.

Bron: processtrends.com
In een periode waarin de gemiddelde temperatuur op aarde ongeveer gelijk blijft, zijn vele jaren aan te wijzen waarvoor het statement geldt dat in de subkop van het Volkskrantartikel staat: “… wereldwijd was het een van de warmste sinds 1850”. Interessanter lijkt mij het feit dat de stijging van de wereldtemperatuur sinds 1996 stokt. Geen enkel klimaatmodel heeft deze afvlakking kunnen voorspellen. Wat is er aan de hand, waarom stijgt de temperatuur niet mee met de stijging van het CO2-gehalte?

Een mogelijk antwoord op deze vraag heeft prof. De Jager gegeven, zie de vorige bijdrage op deze site. De Jager toont aan dat een proportioneel deel van de temperatuurstijging sinds het Maunder Minimum het werk is van de zon, en niet van CO2. Een ander deel van het antwoord is te vinden in de beperkingen van klimaatmodellen. Zelfs de meest geavanceerde modellen zijn niet goed in staat om het wereldklimaat adequaat te simuleren. The Royal Society, het prestigieuze Britse instituut dat toch niet bekend staat vanwege zijn kritische houding richting IPCC, schrijft hierover in het recent verschenen Climate Change: a Summary of the Science :

"Observations are not yet good enough to quantify, with confidence, some aspects of the evolution of either climate forcing or climate change, or for helping to place tight bounds on the climate sensitivity. Observations of surface temperature change before 1850 are also scarce. As noted above, projections of climate change are sensitive to the details of the representation of clouds in models. Particles originating from both human activities and natural sources have the potential to strongly influence the properties of clouds, with consequences for estimates of climate forcing. Current scientific understanding of this effect is poor.

Additional mechanisms that influence climate sensitivity have been identified, including the response of the carbon cycle to climate change, for example the loss of organic carbon currently stored in soils. The net effect of changes in the carbon cycle in all current models is to increase warming, by an amount that varies considerably from model to model because of uncertainties in how to represent the relevant processes. The future strength of the uptake of CO2 by the land and oceans (which together are currently responsible for taking up about half of the emissions from human activity is very poorly understood, particularly because of gaps in our understanding of the response of biological processes to changes in both CO2 concentrations and climate. ".

Ook NASA heft een lijstje gemaakt van onzekerheden in forcings en feedbacks, waarbij naast bovengenoemde aspecten ook het gedrag van oceaanstromen , aerosolen en neerslag genoemd worden. Opmerkelijk is dat in tegenstelling tot het Britse rapport, NASA wél de zon noemt als forcing die nader onderzoek nodig maakt. Kortom: wetenschappers die zich (nog steeds) focussen op CO2 als drijvende kracht achter “de opwarming van de aarde” veronachtzamen daarmee andere forcings die wellicht minstens zo belangrijk zijn.

Staatssecretaris Atsma nam het rapport van het PCCC in ontvangst. De Volkskrant noteerde uit de mond van de staatssecretaris: “ Het klimaat verandert, dat staat ontegenzeggelijk vast. Het gaat nu om de mate waarin dat gebeurt. ” . Daar is geen speld tussen te krijgen. Wat opvalt is dat ‘opwarming’ verdwenen is en ‘verandering’ daarvoor in de plaats gekomen is. Deze verschuiving in woordkeuze heeft men de afgelopen tijd ook bij veel alarmisten kunnen waarnemen. Gezien de temperatuurtendens van het afgelopen decenium lijkt me dat niet onverstandig.

Ter afsluiting is het misschien leuk om ‘klimaatverandering’ op een iets langere tijschaal te bekijken. Herinnert u zich onderstaande grafiek nog? (‘Unieke Temperatuurstijging’ in hoofdstuk De Dogma’s). Het betreft een reconstructie van de temperatuur van de afgelopen 350.000 jaar op basis van enkele ijskernen door Sime et al in 2009 (Nature). De rode stip is 0 jaar BP (Before Present). Salomon Kroonenberg van TU Delft zei enkele jaren geleden: "Misschien is een beetje opwarming nog zo gek niet, om de komende ijstijd wat langer buiten de deur te houden".

 

 


 

1-4-2011

De stralingsbalans onder vuur deel 3: de zon als onderschatte speler

In het hoofdstuk ‘Nieuwe Inzichten’ is al uitgebreid aandacht besteed aan de zon als veroorzaker van klimaatveranderingen. Daarmee wordt niet bedoeld de relatie tussen zon en aarde zoals verwoord in de Milancovic cycles, maar veranderingen van de zon zelf die van invloed zijn op het aardse klimaat. Daarbij is de zogenaamde “zonnedynamo” de spil van het verhaal.

De zonnedynamo is vergelijkbaar met het ontstaan van het aardmagnetisch veld. De belangrijkste processen spelen zich af in de zogenaamde tachocline, een laag van enkele tienduizenden km dikte op een diepte van 200.000 km onder het zonsoppervlak. De daar opstijgende gasmassa’s gaan wervelen als gevolg van de zonnerotatie. De hierdoor ontstane elektrische velden genereren op hun beurt weer sterke magneetvelden.

 

Bron: De Jager
 

De variabiliteit van de zon wordt bepaald door 2 componenten van het magnetisch veld, de zogenaamde torroïdale component en de poloïdale component. Omdat beide componenten niet direct worden gemeten gebruiken fysici – net als bij temperatuurreconstructies - proxies. Voor de torroïdale component is dat de Rmax , het maximum aantal zonnevlekken in een cyclus. In de grafiek hierboven is het verloop van de Rmax te zien vanaf 1100 na Chr. Met behulp van de proxies 14C en 10Be is een reconstructie van zonnevlekken tot ~850 v.Chr. mogelijk.

Wat opvalt in de grafiek is dat vanaf 1100 de langetermijntrend een dalende is tot ongeveer 1640, als het dieptepunt tijdens het Maunder Minimum bereikt wordt. Dat is de relatief koele periode die in Europa bekend staat als de Kleine IJstijd. Daarna stijgt de torroïdale activiteit weer tot het einde van de vorige eeuw.

Bron: De Jager

Voor de poloïdale component wordt de geomagnetische index gebruikt. De proxy voor de poloïdale magnetische veldsterkte is aamin , de minimum waarde van de aa magnetische component. In bovenstaande grafiek is het verloop van deze index vanaf 1100 n. Chr. weergegeven. Duidelijk is te zien dat de grafiek nagenoeg hetzelfde verloop toont als die van de Rmax . De richting van het magnetisch veld keert ongeveer elke 11 jaar om, waardoor de zonnevlekkencyclus gestuurd wordt. Gedurende de elfjarige cyclus wisselen de twee velden in sterkte: als het veld rond de evenaar maximaal is, is het polaire veld minimaal en omgekeerd.

Behalve deze 11-jarige cyclus, Schwabe-cyclus genaamd, is er ook sprake van een periodiciteit op een langere tijdschaal:

Hale cyclus: 22 jaar
Lower Gleissberg cyclus: 70 jaar
Upper Gleissberg cyclus: 100 jaar
De Vries Cyclus: 205 jaar
Halstatt cyclus: 2300 jaar

Er is de afgelopen tijd een reeks van wetenschappelijke publicaties geweest die verwezen naar een correlatie tussen zonneactiviteit en temperatuur op aarde. Een van de meest recente is een publicatie van De Jager, Duhau en van Geel uit 2010. Daarin komen ze voor het eerst tot nauwkeurige schattingen over de bijdrage van zonneactiviteit op de oppervlaktetemperatuur van de aarde, waarover verderop meer.


Coughlin & Tun (2004) hebben onderzoek gedaan naar de correlatie tussen de torroïdale component en de troposferische temperatuur in de 11-jarige Schwabe cyclus. Zij vergeleken daartoe de temperatuurreeksen van NCEP/NCAR tussen 1958 en 2003 met de zonnevlekactiviteit in dezelfde periode. Tijdens een periode met maximale zonnevlekken is de toename van de totale energie van de zon niet spectaculair, namelijk ongeveer 0,1%. Maar de toename van de hoeveelheid UV-straling is wel groot: 6 tot 8%. Coughlin et al maken gebruik van een methode genaamd “empirical mode decomposition”. Daarbij herkennen ze in de temperatuurreeks (en de zogenaamde geopotentiele hoogte) een vijftal oscillaties en een langjarige trend. In onderstaande figuur is dat weergegeven.

Bron: Coughlin

Te zien is dat in het 700 hPa drukvlak de 4e oscillatie zeer goed overeen komt met de elfjarige zonnevlekkencyclus. De correlatiecoëfficiënt tussen beide data is + 0,72, zeer hoog dus. Ook hoger in de troposfeer blijft de correlatie in stand. De onderzoekers concluderen: “Statistical tests show that this signal is different from noise, indicating that there is enhanced warming in the troposphere during times of increased solar radiation. ” .


Usoskin et al (2004) onderzochten de correlatie tussen de zonnevlekken vanaf 850 n. Chr. op basis van een reconstructie m.b.v. 10Be data en de temperatuurreconstructies op het NH van Mann& Jones (2003)en Mann et al (1999).

Bron: Usoskin

Rekening houdend met een time lag van ongeveer 10 jaar waarbij de zonnevlekken de temperatuur sturen komen Usoskin et al op een correlatiecoëfficiënt voor de temperaturen op het NH van 0,71 (Mann & Jones) tot 0,83 (Mann et al) met een significantieniveau van > 95%.


De Jager et al (2006) zochten naar de correlatie tussen 7 temperatuurreeksen en zonneactiviteit. Hierbij wordt een onderscheid gemaakt tussen de veranderingen in stralingsactiviteit van de zon (met name de fluctuaties in de UV-straling) enerzijds en de invloed van het zonmagnetisch veld op het cosmic-ray-niveau op aarde anderzijds.



Bron: De Jager

De Jager et al concluderen dat op langere termijn er een duidelijke correlatie is tussen de UV-fluctuaties en temperatuur, en een minder duidelijke correlatie is tussen cosmic rays en temperatuur. Zie voor cosmic rays Svensmark in het hoofdstuk “Nieuwe Inzichten”.

Scafetta (2009) ontwierp met behulp van satellietdata vanaf 1980 een model om de invloed van zonneactiviteit op de aardse temperatuur te kunnen reconstrueren. Hij maakt daarbij gebruik van een aantal datasets waarvan de gevolgen voor de temperatuur nogal uiteen lopen. Zo voorspelt PMOD een afkoeling bij stijgende zonneactiviteit, terwijl andere datasets bv. ACRIM) een aanzienlijke opwarming aangeven, waarbij het aandeel van de zon tot 65% oploopt.

Scafetti concludeert dat de invloed van de zon op recente temperatuurveranderingen aanzienlijk is, en wijt het standpunt van het IPCC (2007) dat de zon een verwaarloosbare rol speelt in de opwarming aan het gebruik van foute zonnedata. Zijn bevindingen wijzen op een grote gevoeligheid van het klimaatsysteem. Zelfs kleine fouten in het modelleren kunnen daardoor klimaatmodellen onbruikbaar maken. Men kan hierbij denken aan de vraag hoe albedo, wolkendek, waterdamp feedback, LW- straling reageren op temperatuurveranderingen op decadale schaal.

Le Mouël et al (2009) onderzochten voor 203 weerstations in de USA, Europa en Australië of er een verband bestaat tussen het temperatuurverloop en zonneactiviteit, i.e. aantal zonnevlekken en magnetisch velddata van de zon.

Bron: Mouel

Conclusie: “We conclude that significant solar forcing is present in temperature disturbances in the areas we analyzed and conjecture that this should be a global feature.”.

Behalve bovengenoemde studies is er nog een veelvoud recentelijk beschikbaar gekomen die een correlatie tussen zonneactiviteit en temperatuur aantonen. Daarbij wordt gebruik gemaakt van paleoklimatologische reconstructies op basis van 14C en 10Be, waarbij onderzoek gedaan wordt aan gletsjers, meerafzettingen, veenvorming, zeesedimenten door drijfijs, stalagmieten en landijs.
 

In de reeds genoemde publicatie van De Jager, Duhau en van Geel (2010) trachten de auteurs het verband tussen de torroïdale en poloïdale componenten van de zonnedynamo en de oppervlakte temperatuur van de aarde kwantitatief beter te onderbouwen. Zij vergeleken daartoe temperatuurreeksen van de periode 1610-1970 met veranderingen in zonneactiviteit. Met name de Hale cyclus van 22 jaar, Lower Gleissberg cyclus van 70 jaar, de Upper Gleissberg cyclus van 100 jaar en de De Vries Cyclus van 205 jaar blijken goed te correleren met de gebruikte zeven temperatuurreeksen.

Aan de hand van die zeven temperatuurreeksen is vastgesteld dat de gemiddelde stijging van de globale temperatuur in de periode 1610—1970 0,087 °C/eeuw is geweest. Daarvan is 0,077 °C/eeuw gecorreleerd aan de torroïdale component van het magnetisch veld van de zon. De helft van deze 0,077 °C/eeuw wordt veroorzaakt door de toename van de TSI (Total Solar Irradiance) in deze periode, terwijl de andere helft veroorzaakt is door de positieve feedback van waterdamp als gevolg van de gestegen temperatuur.

Maar volgens de onderzoekers hebben de veranderingen van het magnetisch veld van de zon ook een negatieve component: de poloïdale component wordt geschat op -0,040 °C/eeuw. Daarvoor zijn vooral de sterke polaire zonnewinden verantwoordelijk, die op hun grootst zijn als het aantal zonnevlekken minimaal is. Tegelijk is de cosmic ray flux die de aarde bereikt groot. De door diverse onderzoekers aangedragen relatie met wolkvorming (Svensmark en anderen) is tot nu toe nog onvoldoende gestaafd.

Wat overblijft, als men de rekensom netjes volgt, is een positieve component van 0,051 °C/eeuw waarvoor de onderzoekers geen verklaring hebben: het is gecorreleerd aan ‘klimatologische processen’. Daarin kunnen forcings van antropogene oorsprong een rol spelen, maar ook natuurlijke processen van terrestrische oorsprong. Welke en in welke mate is nog onzeker. Conclusie: er komt steeds meer bewijs dat ‘solar forcing’ een belangrijke rol speelt bij klimaatveranderingen, en dat tegenkoppelingen de effecten versterken.

Bron: De Jager

Het dynamosysteem bevindt zich momenteel in een chaotische transitiefase, vergelijkbaar met periode vlak voor het Maunder Minimum. De Jager gaat er van uit dat dit komende Grote Minimum van het Maunder type zal zijn. In een recente publicatie legt hij uit op grond waarvan hij dit verwacht ( S. Duhau and C. de Jager, The Forthcoming Grand Minimum of Solar Activity, Journal of Cosmology, 2010, Vol 8, 1983-1999. ).

Op onderstaande grafieken is het verloop van Rmax en aamin te volgen.


Bron: De Jager

Eens in de zoveel tijd raakt het systeem door nog onbekende reden instabiel. Zo’n situatie werd in 2008 bereikt. Deze situatie hebben we al eens eerder gehad, namelijk vlak voor de Kleine IJstijd, het Maunder Minimum. Weliswaar klimmen we momenteel heel voorzichtig uit een diep minimum, maar volgens De Jager zal cyclus 24 niet veel voorstellen. Daarna begint volgens hem een langdurig minimum dat een groot deel van deze eeuw in beslag zal nemen, misschien een soort Maunder Minimum. Over een paar decennia weten we meer.
 
24-3-2011


Gastcolleges

Vandaag een wat meer beschouwende bijdrage. Ik heb gisteren 3 gastcolleges mogen geven op de hogeschool in Nijmegen. Het publiek bestond uit aankomende docenten aardrijkskunde en het thema was uiteraard klimaatverandering (in kritisch perspectief). Dat laatste is belangrijk, omdat ook aardrijkskundemethodes die in het voortgezet onderwijs gebruikt worden soms sterk leunen op de ‘main stream’ opvattingen over antropogene CO2-emissies en de catastrofale opwarming van de aarde die daar ‘’zonder twijfel’’ het gevolg van is.

Mijn grootste probleem bij de voorbereiding was de vraag welke onderdelen van klimaatverandering aan de orde moesten komen, uiteraard rekening houdend met het gemiddelde kennisniveau op dit gebied van de docenten in opleiding. Ik heb uiteindelijk gekozen om aan te haken bij het onderwerp CO2 dat ik in de vorige bijdrage heb uitgewerkt, maar vaak had ik de neiging om nog even dit of dat te laten zien. Op dergelijke momenten merk je pas goed hoe lastig het is om een ingewikkeld thema als klimaatverandering in een notendop uit te leggen. In versterkte mate geldt dat als het onderwerp aan de orde komt in mijn hoogste klassen van HAVO en VWO. Wat vertel je wel en wat niet?

Uiteindelijk moet je tot de conclusie komen dat je slechts in staat bent geweest contouren te schetsen van het thema klimaatverandering, en dat dit mensen die méér willen weten hopelijk aanzet zelf in de materie duiken. Maar dergelijke gastcolleges dienen behalve als informatieverschaffing over klimaatverandering ook nog een ander doel, namelijk mensen bewust maken van het feit dat enkelvoudige waarheden vaak niet bestaan, dat media niet waardevrij informatie geven en dat het in de wetenschap óók om geld en banen gaat. En voor aankomend docenten zeer belangrijk: dat de keuze van je bronnen (of het ontbreken van die keuze) bepaalt welke informatie je leerlingen krijgen en welke niet.

Het thema klimaatverandering leent zich welhaast bij uitstek voor dit laatste doel. Antropogene klimaatverandering is lange tijd het bastaardkind geweest uit het ongewenste huwelijk tussen wetenschap en politiek. De meeste media hebben lange tijd als een kip zonder kop achter de standaard opvattingen van het IPCC aangelopen zonder zich te verdiepen in de problematiek. Al Gore kreeg zelfs de Nobelprijs voor zijn arglistig docudrama. De loodzware schaduw van dit alles lag jarenlang als een apocalyptische dreiging over het thema en smoorde elk debat. Dat is veranderd door het uitlekken van emails van gerenommeerde klimatologen, Climategate genaamd. Sindsdien is er weer licht en lucht voor meer debat. En daar is alle reden toe lijkt me. Er valt nog zoveel te ontdekken in de klimatologie.
 


16-3-2011 (rev. 19-3-2011)

De stralingsbalans onder vuur deel 2: CO2 en temperatuur in het verleden

In de klassieke broeikastheorie zoals hier recent behandeld, speelt het broeikasgas CO2 een prominente rol (zie “De Feiten” onder “Klassieke Broeikastheorie”). CO2 heeft de eigenschap dat het langgolvige straling kan absorberen en emitteren. Op grond van deze eigenschap is de hypothese geformuleerd dat een stijgend CO2-gehalte van de atmosfeer de aarde kan opwarmen. De diverse in het laatste IPCC-rapport aangehaalde klimaatmodellen komen op een toename van de temperatuur door CO2-forcing van 1,5 tot maar liefst 6,5 °C.

Laboratoriumproeven toonden al in de jaren ’60 van de vorige eeuw aan dat een verdubbeling van CO2 een temperatuurtoename van 1,1 °C veroorzaakt. Berekeningen aan emissiespectra van langgolvige straling komen tot vergelijkbare resultaten (als álle andere factoren gelijk blijven). De hoge uitkomsten van klimaatmodellen zijn het gevolg van parameterisatie (schattingen) van met name het gedrag van waterdamp en van wolken in de atmosfeer. De vraag hoe goed die schattingen zijn zal ongetwijfeld de komende jaren stukje bij beetje beantwoord worden. Maar zelfs de genoemde toename van 1,1 °C bij verdubbeling van CO2 hoeft zeker niet de klimatologische uitkomst te zijn; daarvoor is het klimaat te complex.

In de klimatologische toekomst kijken is moeilijk, zo niet onmogelijk. Maar in het verleden kijken gaat heel aardig. De temperatuurmetingen gaan terug tot ongeveer 1850, sommige nog verder. Voor oudere data maken we gebruik van proxies, zoals ijskernen en sedimenten. Atmosferisch CO2 wordt vanaf 1958 gemeten op Hawaï. In de 19e eeuw werd CO2 hier en daar gemeten, maar niet systematisch. Dus ook voor CO2 geldt dat we voor vroegere periodes gebruik moeten maken van proxies.

De relatie CO2-temperatuur op Proterozoische tijdschaal

Hoe verder weg in de geschiedenis van de aarde, des te lastiger is het om een reconstructie te maken van het verloop van temperatuur en CO2-gehalte van de atmosfeer. De Proterozoische tijdschaal omvat het deel van de aardegeschiedenis waarion het begin van leven ontstaat. Het loopt van ongeveer 2,7 miljard jaar geleden tot 542 miljoenjaar geleden. Zo’n 2,7 miljard jaar geleden was er nog nauwelijks CO2 in de atmosfeer. Waarschijnlijk waren toen andere broeikasgassen dominant, zoals CH4. Die situatie veranderde 2,2 miljard jaar geleden, toen de aardse atmosfeer oxideerde. Vanaf dat moment werd CO2 belangrijker.

Bron: Kaufman

Kaufman e.a. (2003) pogen het CO2-gehalte tot 1,4 miljard jaar BP vast te stellen. Daartoe hebben ze gebruik gemaakt van koolstofisotopen in microfossielen uit een leisteenformatie in China van 1,4 miljard jaar oud. Ze berekenden dat het CO2-gehalte in deze periode tussen de 10x en 200x zo hoog was als het huidige CO2-gehalte. Over de aardse temperaturen in deze periode zijn weinig gegevens bekend, over een exacte relatie CO2- temperatuur derhalve ook niet. Maar het is vrij zeker dat de oceanen tot 3,5 miljard jaar geleden een groot deel van de tijd ijsvrij waren. De zonne-energie was in die allervroegste periode van de aardgeschiedenis ongeveer 30% kleiner dan momenteel, hetgeen bij de huidige hoeveelheid broeikasgassen waarschijnlijk zou leiden tot bevroren oceanen. Een van de hypotheses is dan ook dat de hoeveelheid broeikasgassen destijds veel groter is geweest dan momenteel. Kaufman gaat uit van verhoogde concentraties CO2 waardoor de aarde toch ijsvrij bleef.

Bron: Kaufman

Overigens staat nu wel vast dat er tijdens het Proterozoicum tenminste 2 glaciale periodes zijn geweest. Beide zijn in bovenstaande grafiek van Kaufman weergegeven. Men onderscheidt in de laatste weer twee afzonderlijke glacialen, namelijk het Sturtian glaciaal (~730 miljoen jaar BP) , en het Marinoan & Varangian glaciaal (~600 miljoen jaar geleden). Deze glacialen staan bekend als snowball earth, omdat de temperaturen zo laag waren dat de oceanen tot aan de evenaar bevroren waren. Dergelijke glaciaties zijn opmerkelijk omdat de CO2-gehaltes toen vele malen hoger waren dan momenteel.

Hoffman e.a. komen tot de conclusie dat vulkanische activiteit een eind maakte aan deze glacialen. Daarbij nam het CO2-gehalte toe tot 350x de huidige waarde!

De relatie CO2-temperatuur op Phanerozoische tijdschaal

De Phanerozoische of tektonische tijdschaal is de periode van het heden tot 542 miljoen jaar BP. Van deze periode is al veel meer bekend over het CO2-gehalte van de aardse atmosfeer, terwijl ook grove temperatuurreconstructies kunnen worden gedaan op basis van onder andere landijsbedekkingen. Het blijkt dat gedurende deze periode van ruim 500 miljoen jaar de aardse temperatuur schommelt tussen een warme fase (hot house) en een koude (ice house).


Onderstaande grafiek geeft het verloop van het atmosferische CO2-gehalte weer vanaf 545 miljoen jaar BP. Alhoewel de figuur anders doet vermoeden, zijn er slechts 2 onafhankelijke wetenschappelijke bronnen, namelijk de reconstructie volgens het GEOCARB3 model , en de reconstructie volgens Rothman.

Bron: wikipedia

Het GEOCARB3 model is een model waarin met behulp van een aantal parameters zoals verwering en temperatuur een reconstructie gemaakt is van het CO2-gehalte in de atmosfeer. Berner gaat uit van de veronderstelling dat er sprake is van een steady state van de koolstofstromen die tussen atmosfeer en oceanen aanwezig zijn. De verwering van silicaatgesteente is in het model de spil waar alles om draait.

Bron: gatech edu

Het model toont CO2 gehaltes die veel hoger zijn geweest dan de huidige. Lage CO2-gehaltes komen in het model redelijk goed overeen met relatief koude periodes in de aardgeschiedenis, zoals de glaciale periode op de overgang van Carboon en Perm 300 miljoen jaar geleden, en de huidige koude periode die halverwege het Tertiair begon (~30 miljoen jaar BP). Opvallend is dat de glaciale periode gedurende het Ordovicium , zo’n 440 miljoen jaar geleden, niet in het model terug te vinden zijn. Deze koude periode ging gepaard met relatief hoge CO2-gehaltes in het model. Er zijn diverse speculaties over de oorzaak van deze discrepantie, maar een deugdelijk verklarend mechanisme hiervoor is tot nu toe niet gevonden.


Bron: Royer & Berner, 2004, Berner 2001

Daniel Rothman van het MIT heeft in 2002 een reconstructie gemaakt van het CO2-gehalte in het Phanerozoicum. Anders dan Berner baseert Rothman zich op proxies op basis waarvan het CO2-gehalte vastgesteld werd. Hij vergelijkt de chemische verwering van gesteenten ,vulkanische activiteiten en sedimentatie van organische koolstof met gemeten waarden van isotopen van koolstof en strontium.

 


Bron: Rothman

In de figuur zijn op de bovenste as met een grijze balk de koude periodes weergegeven. Opvallend is dat Rothman op de overgang van Jura naar Krijt ( (ongeveer 140 miljoen jaar BP) wel een koude periode weergeeft, die in het GEOCARB3 model afwezig is. Rothman heeft gekeken of er een correlatie is tussen de gevonden CO2-waarden en de temperatuur op aarde, en vond geen verband. Hij schrijft: “ Because the long-term evolution of carbon dioxide levels depends similarly on weathering and magmatism, the relative fluctuations of CO2 levels are inferred from the shared fluctuations of the isotopic records. The resulting CO2 signal exhibits no systematic correspondence with the geologic record of climatic variations at tectonic time scales.”

Een derde bron benadert de relatie CO2-temperatuur op weer een andere wijze, en probeert een verband te leggen tussen CO2-gehalte en cosmic ray flux. Shaviv & Veizer hebben in 2003 onderzoek gedaan naar de correlatie tussen CRF (cosmic ray flux) en paleoklimatologische temperatuurreeksen. Op basis van hun bevindingen stellen zij: “We find that at least 66% of the variance in the paleotemperature trend could be attributed to CRF variations likely due to solar system passages through the spiral arms of the galaxy”.

Volgens het tweetal is CO2 dus niet de drijvende kracht achter de aardse temperatuur, maar is kosmische straling de belangrijkste factor. Maar minstens zo belangrijk is de conclusie: “…one interpretation of the above result could be that the global climate possesses a stabilizing negative feedback. A likely candidate for such a feedback is cloud cover (Lindzen, 1997; Ou, 2001). If so, it would imply that the water cycle is the thermostat of climate dynamics, acting both as a positive (water vapor) and negative (clouds) feedback, with the carbon cycle “piggybacking” on, and being modified by, the water cycle (Nemani et al., 2002; Lovett, 2002; Lee and Veizer, 2003).”

Voor uitgebreidere informatie over kosmische straling verwijs ik naar het hoofdstuk “Nieuwe Inzichten”. CO2-fluctuaties lijken dus eerder “mee te liften” op de fluctuaties in de kringloop van het water dan dat ze een drijvende forcing voor temperatuur zijn.

Bron: Shaviv & Veizer

Het PETM

Ongeveer 55 miljoen jaar geleden, in het vroeg-Tertiair, was er sprake van een kortstondige extreme verhoging in de aardse temperatuur. Die sterke opwarming gedurende deze Palaeocene/Eocene Thermal Maximum (PETM) wordt algemeen geassocieerd met een sterke stijging van met name CO2 in de atmosfeer. Maar die sterke stijging van de temperatuur is niet (alleen) te verklaren door een sterke stijging van CO2. Overigens was de extreme opwarming van relatief korte duur, namelijk ~ 170.000 jaar.


Bron: Pagani

Een bekende hypothese is het vrijkomen van grote hoeveelheden methaanhydraten van de bodem van de oceanen, waarbij CH4 in korte tijd omgezet zou zijn naar CO2. Pagani schreef in 2006 dat een oprisping van methaanhydraten alleen onmogelijk was, en dat er andere mechanismen aan het werk moeten zijn geweest om zeer grote hoeveelheden koolstof vrij te maken (zie figuur hierboven).

Helaas maakt Pagani de veelgemaakte fout door er van uit te gaan dat een sterke temperatuurstijging wel het werk moet zijn van sterk toegenomen broeikasgassen, daarmee mogelijke andere oorzaken veronachtzamend.


Bron: Sluijs e.a.

Sluijs e.a. publiceerden in 2006 een onderzoek op basis van sedimentboringen in de Arctische Zee. Ze concludeerden dat de sterke temperatuurstijging van 10 °C , waarbij watertemperaturen aan de Noordpool werden bereikt van meer dan 23 °C, onmogelijk alleen door broeikasgassen veroorzaakt kan zijn en dat andere factoren een cruciale rol moeten hebben gespeeld in deze plotselinge opwarming. Sluijs e.a. denken daarbij aan feedback mechanismen zoals polaire stratosferische wolken, of orkaan-geïnduceerde mengingen van oceaanwater.

In een publicatie van Sluijs e.a. in 2009 constateren de onderzoekers dat in het Antarctische gebied tijdens de PETM de oceaantemperaturen zelfs 30 °C waren. Vanwege die zeer hoge temperaturen op de polen ontbrak de temperatuurgradiënt tussen polen en tropen zoals wij die nu kennen: het was overal vrijwel even warm. De extreme , relatief korte opwarming verdween even snel als hij gekomen was. Zowel voor het snelle ontstaan als het snelle verdwijnen zijn tot nu toe geen plausibele verklaringen voorhanden.

CO2 en temperatuur gedurende het Kwartair

Het Kwartair is de periode die 2,5 miljoen jaar geleden begint en waarin we ons nog steeds bevinden. Het wordt gekenmerkt door een sterk schommelende temperatuur tussen koud (glacialen) en minder koud (interglacialen). De oorzaken van deze schommelingen zijn te vinden in de relatie tussen de zon en de aarde, zoals als eerste beschreven door de wiskundige Milankovic. Zie het hoofdstuk “Nieuwe Inzichten”.

Diverse ijskernen die op Groenland en Antarctica zijn aangeboord leveren gegevens over temperatuur en CO2-gehalte. Al Gore toonde in zijn documentaire An Inconvenient Truth een grafiek die in ieder geval leek op de data verkregen uit de Vostok kern op Antarctica.

 

Bron: An Inconvenient Truth

Hij kreeg de lachers in de zaal op zijn hand door te wijzen op de wel heel duidelijke correlatie tussen beide grootheden. Je moest toch wel een beetje gek zijn als je dat niet zag, nietwaar? En inderdaad, de correlatie is sterk:

 

Bron: Nature

Wat Al Gore niet zei, en misschien ook niet wist, is dat bij veel omslagpunten in de Vostokgrafiek de temperatuur een beetje voorliep op de CO2. Een time lag van 800 jaar wordt vaak genoemd, maar dat is eem grof gemiddelde. De tijdvertraging tussen temperatuur en CO2-gehalte varieert van ongeveer 200 jaar tot meer dan 1500 jaar. Dat ziet men niet als de totale temperatuur-CO2-reeks van de Vostok ijskern bekijkt. Maar als je “inzoomt” is dat wel te zien. Deze techniek, veranderen van schaal, wordt in de geografie vaak toegepast. Inzoomen vergroot de details, uitzoomen geeft je meer kijk op grootschalige patronen. Soms vergroot inzoomen je inzichten, soms uitzoomen.

Wanneer men de temperatuur- en CO2-data van dezelfde ijskern in detail bekijkt rond de overgang Weichselglaciaal – Holoceen, dan is duidelijk de time lag te zien bij een aantal markante omslagpunten (zie figuur hieronder).

Bron: Guy Leblanc

Petit et al. (1999) reconstrueerden oppervlaktetemperaturen en atmosferische CO2-concentraties uit de Vostok ijskern. De onderzoekers noteren: "The CO2 decrease lags the temperature decrease by several thousand years" en: "the same sequence of climate forcing operated during each termination."

Bron: UNEP

Indermühle e.a. vonden in hun studie uit 2000 een time lag van 1200 +/- 700 jaar in de Taylor Dome ijskern op Antarctica . Het betrof de periode van 60.000 – 20.000 BP.

In een vergelijkbare studie naar CO2-gehalte en temperatuur verkregen uit de Dome Concordia, Antarctica gedurende 22,000-9,000 BP vonden Monnin et al. (2001) dat er een time lag is tussen temperatuur en CO2 van zo’n 800 jaar. Monin e.a. stellen bovendien: “The close correlation between CO2 concentration and Antarctic temperature indicates that the Southern Ocean played an important role in causing the CO2 increase. ” .


In 2001 publiceerde Mudelsee over de relatie CO2-temperatuur in de Vostok ijskern, en concludeerde dat er een time lag is van 1300 tot 1500 jaar. Onderstaande grafiek toont de door hem gevonden time lag:


Bron: Mudelsee

In 2003 publiceerden Caillon e.a. een studie over de timing van CO2 en temperatuur op de scherpe overgang van het interglaciaal (in West Europa het Oostermeer-interglaciaal genoemd) naar de Saale-ijstijd, zo’n 240.000 jaar geleden. Conclusie: “The sequence of events during Termination III suggests that the CO2 increase lagged Antarctic deglacial warming by 800 - 200 years and preceded the Northern Hemisphere deglaciation”.


Al met al mag geconcludeerd worden dat de time lag tussen temperatuur en CO2-gehalte in het Pleistoceen zeer goed gedocumenteerd is. Het CO2-gehalte volgt de temperatuurstijgingen en –dalingen, en niet andersom. De vraag blijft natuurlijk hoe dit mechanisme werkt. Met andere woorden: op welke wijze veroorzaakt een koudere oceaan lagere CO2-gehaltes en andersom?


Bron: windows2universe

Een voor de hand liggende verklaring is dat CO2 beter oplosbaar is in kouder water dan in warmer water. Op deze wijze zou dus een deel van het atmosferische CO2 tijdens glacialen oplossen in water. Bij 1 atmosfeer druk ,een watertemperatuur van 15 °C (= de huidige gemiddelde wereldtemperatuur) en het huidige atmosferische CO2-gehalte is er 0,78 mg CO2 per liter water opgelost. Als die temperatuur daalt naar 10 °C dan stijgt het opgeloste CO2 naar 0,92 mg/l bij gelijkblijvend atmosferisch gehalte.

In werkelijkheid verandert het CO2-gehalte in de atmosfeer natuurlijk ook als dat in de oceanen stijgt of daalt. Bovendien gelden de gekozen watertemperaturen slechts voor de bovenste paar honderd meter, de zogenaamde mixed layer. Daaronder daalt de temperatuur snel, en dieper dan 1500 m is het oceaanwater gemiddeld 2 °C. Het is duidelijk dat de oplosbaarheid van CO2 in oceaanwater dus ook afhankelijk is van menging tussen het water aan de oppervlakte en op grotere diepte.

In onderstaande figuur van de pre-industriële koolstofkringloop is te zien dat de totale hoeveelheid C in de diepere oceaan ongeveer 55x groter is dan in het oppervlakkige deel.

 


Bron: Sigman en Boyle

Een aantal wetenschappers is er van overtuigd dat de veranderende oplosbaarheid in water niet de enige verklarende factor kan zijn voor de schommelingen in het CO2-gehalte gedurende het Kwartair. Sigman en Boyle publiceerden in Nature in 2000 een artikel (“Glacial/interglacial variations in atmospheric carbon dioxide”) waarin zij een verklaring trachten te vinden voor de CO2-schommelingen in het Kwartair. Ze gaan ervan uit dat de glaciale-interglaciale temperatuurschommelingen een fluctuatie van het atmosferische CO2 hebben kunnen veroorzaakt van ongeveer 30 ppm. Bovendien is tijdens glacialen het zoutgehalte in de oceanen hoger dan normaal, hetgeen de oplosbaarheid van CO2 vermindert . Al met al zijn de temperatuurfluctuaties niet voldoende om als volledige verklaring te kunnen dienen.

Sigman en Boyle menen dat de oplossing gezocht moet worden in de zogenaamde “biological pump”. Dat is een deel van de koolstofcyclus waarbij organisch koolstof gevormd wordt in het bovenste deel van de oceanen. Een variërende biologische productie in combinatie met veranderingen in de vorming van calciumcarbonaat dat neerslaat vormen volgens de onderzoekers een positieve tegenkoppeling van temperatuurschommelingen in het Kwartair.


Bron: Wikipedia


Einde van de laatste ijstijd

Lowell Stott e.a. publiceerden in Science in 2007 een opzienbarende studie, getiteld “Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming”.

Stott e.a. deden onderzoek naar de stijging van atmosferisch CO2 aan het einde van de Saale ijstijd, zo’n 18.000 jaar geleden, en de opwarming die de opmaat vormde voor het huidige interglaciaal. Dat deden ze door isotopen onderzoek in mariene sedimenten in het westelijk deel van de Grote Oceaan. Ze vonden dat de stijging van het CO2 vooraf gegaan werd door een stijging van de temperatuur, zo’n 1300 jaar eerder. Deze was het gevolg van de opwarming van diep zeewater op het zuidelijk halfrond. Die opwarming was weer het gevolg van een toegenomen instraling in de lente op Antarctica, in combinatie met een afnemende albedo van drijfijs.

Deze conclusies werden door Stoot nogmaals bevestigd in een publicatie genaamd “The Oceanic Climate Capacitor” in GeoScience ( 2010 ). Hierboven zagen we al dat ook Monnin een grote rol inschatte voor het Antarctisch gebied bij grote temperatuurovergangen.

Bron: Stott

In een interview in ScienceDaily in 2007 zegt Stott: " I don't want anyone to leave thinking that this is evidence that CO2 doesn't affect climate. It does, but the important point is that CO2 is not the beginning and end of climate change." Ik denk dat Stott met deze uitspraak de spijker op zijn kop slaat. CO2 is een broeikasgas en heeft als zodanig invloed op de energiebalans van de aarde. Maar dat wil nog niet zeggen dat atmosferisch CO2 de “major trigger” is voor klimaatverandering. De bovenstaande publicaties tonen dat glashelder aan.

Ter afsluiting een grafiek die het verloop van temperatuur en atmosferisch CO2-gehalte weergeeft gedurende het Phanerozoicum. De temperatuurreeks is gebaseerd op Scotese, de CO2-reeks op Berner.


 

1-3-2011

Windsnelheid neemt af, windmolenbouw ook

Het aantal gebouwde windmolens in Nederland is de afgelopen 2 jaren flink minder geworden. Was in 2008 de gebouwde capaciteit nog tamelijk hoog met 400 megawatt aan geïnstalleerd vermogen, in 2009 zakte dat in tot 75 megawatt en in 2010 tot 30 megawatt. Tegelijk daalde de gemiddelde windenergie in ons land ook fors, zoals onderstaande grafiek laat zien.

Bron: Volkskrant

Natuurlijk bestaat er geen oorzakelijk verband tussen beide verschijnselen. De malaise in de molenbouw is waarschijnlijk een gevolg van stokkende subsidies. Grote windmolens zijn namelijk erg onrendabele dingen, ze draaien alleen als er een flink bedrag aan subsidies in gestopt wordt. Nu de windsnelheid aan het afnemen is wordt rendement alleen maar lager en wordt het uit energetisch oogpunt bezien steeds onaantrekkelijker om windmolens te plaatsen. Dat er desondanks bij diverse partijen in het veld toch grote belangstelling is voor de bouw ervan (denk aan het omstreden plan bij Urk) heeft uitsluitend te maken met de financiële aantrekkelijkheid als gevolg van zeer hoge subsidies.

Op deze plaats gaat de belangstelling uiteraard vooral uit naar de windsnelheid. Zoals op bovenstaande grafiek te zien is, is er in Nederland een duidelijke tendens naar beneden. En mogelijke oorzaak is het feit dat we momenteel in een negatieve fase van de NAO index zitten. Dat betekent dat de luchtdrukverschillen tussen IJsland en de Azoren lager zijn dan normaal. Gevalg hiervan is niet alleen dat de gemiddelde windsnelheid bij westcirculatie lager is, maar dat er ook vaker dan gemiddeld luchtsoorten ons land binnenkomen vanaf het continent. En dat gaat gepaard met lagere windsnelheden.

Maar die afname van de windsnelheid is echter geen Nederlands of Noordwest Europees verschijnsel. Het doet zich op alle continenten op het noordelijk halfrond voor. In een publicatie van een groep Franse onderzoekers onder leiding van Robert Vautard in oktober 2010 in Nature vergelijken de onderzoekers windmeting sinds 1979 van 822 weerstations. Deze site heeft al eerder over deze publicatie geschreven. De groep concludeert dat tussen 1979 en 2008 de gemiddelde windsnelheid op het noordelijk halfrond met 5 tot 15 % afgenomen is. Dat is de belangrijkste conclusie uit de analyse van een lange reeks windmetingen bij 822 weerstations in Europa, Azië en Noord-Amerika. In bijna 75% van die weerstations daalde in de genoemde periode de windsnelheid.

Er waren al langer vermoedens dat de windsnelheid op veel plaatsen aan het afnemen is. De Franse onderzoekers hebben nu statistisch vastgesteld dat dit werkelijkheid is. En de geconstateerde afname tot 15% is erg fors. Over de oorzaken van dit fenomeen zijn de Fransen voorlopig nog wat voorzichtig. Toch denken ze dat die afname verklaard kan worden uit een tweetal factoren .

In de eerste plaats is het totaal oppervlak van bos op het noordelijk halfrond flink toegenomen. In China en Europa groeide het bos zelf met 1,5% per jaar. Door bosaanplant wordt de wrijving die de wind aan het aardoppervlak ondervindt groter, waardoor de snelheid afneemt. Dit zou voor 20 tot 60% de afname verklaren. Een tweede verklaring is een verandering in luchtdruk, waardoor het luchtcirculatiesysteem wordt beïnvloed. Dit zou voor 10 tot 50% verantwoordelijk zijn voor de afnemende windsnelheden.

Met name deze laatste factor is wel pikant, omdat door klimaatalarmisten vaak de suggestie is gewekt dat vanwege de opwarming van de aarde de windsnelheden zouden oplopen en onze planeet in toenemende mate geteisterd zou worden door hevige stormen. Enkele jaren geleden deed Trenberth , kopstuk van het IPCC, nog een dergelijke suggestie tijdens een persbijeenkomst. In het hoofdstuk “Dogma’s” hebben we in de paragraaf “Meer natuurrampen” al aangetoond dat recente studies wijzen op een afname van de stormenergie in plaats van toename op het noordelijk halfrond. De afname van de gemiddelde windsnelheid past goed in het beeld dat die studies al opriepen.



 

Op bovenstaande grafieken van windsnelheidanomalieën (afwijkingen) is goed te zien dat de windsnelheid aan het aardoppervlak (zwarte lijn) in alle vier de regios, Europa, Centraal Azie, Oost Azie en Noord Amerika sinds 1979 flink afgenomen is. Voor de windmolensector is dit geen goed nieuws. Weliswaar betreft het hier de windsnelheden op 10m hoogte, maar met name de factor veranderend luchtcirculatiepatroon kan ook op windmolenhoogte effecten hebben. Als de trend van windsnelheidsafname doorzet zouden de verwachte opbrengsten van deze schone energiebron wel eens fors kunnen gaan teruglopen.

Voorlopig echter is de belangrijkste factor op de windenergiemarkt niet de windsnelheid maar de overheidsubsidie. Zolang die rijkelijk blijft vloeien zal het voor sommige lieden aantrekkelijk blijven om windmolens te bouwen. De handelingsruimte voor de rijksoverheid in deze subsidieregeling is beperkt. Europese regelgeving zorgt er voor dat nationale overheden niet zomaar hun riante subsidieregelingen kunnen intrekken.


19-2-2011

Stijging van temperatuur in 20e eeuw verre van uniek

Volgens HadCRUT/KNMI is de globale temperatuur tussen 1901 en 2000 met 0,6 °C gestegen. Het IPCC spreekt in haar laatste rapport uit 2007 over een stijging van de wereldtemperatuur in deze periode van 0,4 tot 0,8 °C, gemiddeld 0,6 °C.
Graag wordt door klimaatalarmisten beweerd dat de temperatuur op aarde nog nooit in zo’n korte tijd zo snel is gestegen. Dan moet er wel wat bijzonders aan de hand zijn, en de link met antropogene opwarming als gevolg van uitstoot van CO2 ligt dan voor de hand.

Maar is dat wel waar, is de temperatuurstijging van de afgelopen eeuw uniek? Het lijkt van niet. Het bekendste voorbeeld van een snelle temperatuurstijging in het recente geologische verleden is het einde van het stadiaal dat Younger Dryas heet. Een stadiaal is een relatief korte periode aan het eind van een glaciaal, waarin de temperatuur nog even (flink) daalt, voordat uiteindelijk het warme interglaciaal zijn intrede doet.

Bron: Richard B. Alley

Het Younger Dryas markeert de overgang van het laatste glaciaal, Weichselien, naar het Holoceen waarin we nu leven. Op bovenstaande figuur is duidelijk het Younger Dryas waar te nemen als een ferme duikeling van de temperatuur. Het betreft data van de bekende GRID2 ijskern uit Groenland. Het stadiaal begint 12.993 jaar BP en eindigt 11.496 jaar BP na een wonderbaarlijk snelle stijging van meer dan 10 °C in nog geen 260 jaar. Dat is dus wel even wat anders dan 0,6 °C in 100 jaar.

Voor dergelijke temperatuurreconstructies zijn we afhankelijk van zogenaamde proxies, waarbij de temperatuur afgeleid wordt van andere data. In dit geval is de temperatuurreeks verkregen met behulp van een ijsboring, GRID2 op Groenland. Deze ijskern komt uit centraal Groenland en is midden jaren ’90 aangeboord tot een diepte van 3040 meter vanaf het oppervlak.

Daarmee beslaat de boring een periode van ruim 114.000 jaar. Van de laatste ruim 49.00 jaar is de temperatuur gereconstrueerd. Men maakt daarbij gebruik van de aanwezigheid van stabiele isotopen van waterstof (δD , Deuterium) en zuurstof (δ18O) die als proxies dienen voor de reconstructie van de temperatuur. De temperatuurreconstructie op deze wijze is tamelijk nauwkeurig: voor het Younger Dryas zijn de afwijkingen maximaal 1% (Richard B. Alley 2004).

Dit koude stadiaal (Younger Dryas) is een fenomeen dat zich op dat moment alleen op het noordelijk halfrond voordoet. Het zuidelijk halfrond kent dan een tegengestelde temperatuurbeweging. Deze koppeling tussen noordelijk en zuidelijk halfrond is een bekend fenomeen, en wordt algemeen gezien als de resultante van een vertragende AMOC. AMOC staat voor ‘Atlantic meridional overturning circulation’ , de zuid-noord gerichte zeestroom in de Atlantische Oceaan.

De Golfstroom en de Noord-Atlantische Driftstroom zijn daar een onderdeel van. Afzwakken van de AMOC betekent afkoeling op het noordelijk halfrond en opwarming van het zuidelijk halfrond, de zogenaamde ‘bipolar seesaw’ (Clark e.a. 2002).

 

Bron: Tarasov & Peltier 2005

Over de vraag wat die afzwakking van de AMOC veroorzaakt is nog veel gesteggel onder wetenschappers. Een van de mogelijk oorzaken is het ‘leeglopen’ in de Atlantische Oceaan van een reusachtig zoetwatermeer, Lake Agassiz, dat zich in Canada onder de Keewatin ijskap bevond ( Lowell e.a. 2009 ). Maar andere studies spreken dat weer tegen, of zien een leeglopen in de Arctische Zee in plaats van Atlantische Oceaan. Ook komeetinslagen worden in verband gebracht met de plotselinge afkoeling in het Younger Dryas. Zo vonden Melott e.a. in 2010 aanwijzingen voor een dergelijke komeetinslag. Op onderstaande figuur uit de studie van Melott e.a. is te zien dat het Younger Dryas gepaard gaat met een verhoging van het nitraat- en ammoniumgehalte. Volgens de schrijvers kunnen deze verhogingen het gevolg zijn van een komeetinslag.

Bron: Melott e.a.

Bovenstaande sterke afkoeling en opwarming aan het begin en einde van het Younger Dryas kunnen afgedaan worden als een eenmalige gebeurtenis, maar we weten dat tijdens het Weichsel-glaciaal dergelijke plotselinge opwarmingen en afkoelingen veel vaker voorkwamen. Op basis van de data van de GRID2-boring van Richard B. Alley heb ik een Excelbestandje gemaakt en een grafiekje geproduceerd. De data van de ijskern zijn vrij toegankelijk op de site van NOAA.

 

Het Younger Dryas is weergegeven met behulp van de grijze balk. Alle delen van de temperatuurreeks vanaf het begin van de reeks t/m Younger Dryas die een temperatuurstijging vertonen groter dan 0,6 °C/100 jaar en langer duren dan 100 jaar zijn rood gekleurd. Wat opvalt is dat er niet alleen erg veel periodes zijn met een sterke temperatuurstijging ( in totaal 29 tussen 50,000 jaar BP en 10.000 jaar BP), maar dat er ook een zekere regelmaat in de pieken valt waar te nemen. Dat laatste is een mooi onderwerp voor een andere keer.

Het temperatuurverloop tijdens het Holoceen is veel rustiger dan tijdens de glaciale periode. Maar als we inzoomen op het Holoceen dan zien we het volgende:



Ook het Holoceen kent een aantal momenten met sterke temperatuurstijging. Er zijn zelfs 7 periodes langer dan een eeuw die een sterkere temperatuurstijging kenden dan 0,6 °C/100 jaar. Zelfs tijdens de opmaat tot het Middeleeuws maximum, de periode van 1180 BP tot 956 BP, was de stijging sneller dan die van de 20e eeuw.

Natuurlijk zijn temperatuurreeksen van een enkele ijskern niet helemaal vergelijkbaar met de globale temperatuurreeksen zoals die door bijvoorbeeld HadCRUT en NOAA berekend worden met behulp van een netwerk van thermometers. Maar de conclusie lijkt gerechtvaardigd dat een temperatuurstijging van 0,6 °C per eeuw niet bijzonder is. Alarmisten zullen tegenwerpen dat die opwarming van de 20e eeuw anders is dan alle andere , omdat die veroorzaakt wordt door antropogene emissies van CO2. Dat laatste is echter nog steeds een hypothese, geen feit.
 
11-2-2011

De stralingsbalans onder vuur, deel 1

Er is het een en ander aan te merken op de ‘klassieke’ stralingsbalans en daarmee op de broeikastheorie die ik de afgelopen weken op deze site uit de doeken heb gedaan. Die stralingsbalans van de wetenschapper Trenberth staat hieronder nogmaals afgebeeld. Deze stralingsbalans vormt de basis voor een stroom van artikelen over het broeikaseffect, en ook voor de laatste twee rapporten van het IPCC, het derde en het vierde rapport. Ik ga de komende tijd proberen gefundeerde kritiek op een rijtje te zetten. In dit eerste deel staat de input van de stralingsbalans van Trenberth centraal, namelijk de inkomende zonnestraling.

Bron: Trenberth

De klassiek opvatting is als volgt: De zonneconstante is 1366 W/m^2. Hieraan hoeft niet getwijfeld te worden. Dat betekent dat op een vlak dat loodrecht staat op de zonnestraling en zich op dezelfde afstand van de zon bevindt als de aarde, per vierkante meter 1366 Watt aan stralingsenergie valt. Die 1366 W/m^2 is overigens niet zo constant als de naam doet vermoeden: lichte schommelingen met een periodiciteit van 10 a 11 jaar zijn normaal, zoals onderstaande figuur toont.

Bron: Wikipedia

Vanwege de excentriciteit van de baan van de aarde rond de zon met een periodiciteit van 100. 000 jaar (zie Milanković in het hoofdstuk onder De Feiten) schommelt de zonneconstante op enig moment, namelijk van 1412 W/m² in januari tot 1312 W/m² in juli. Voor ons doel, de stralingsbalans op dit moment, kunnen we uitgaan van 1366 W/m^2 zonder grote fouten te maken.

Deze zonneconstante is, zoals ik al schreef, de hoeveelheid energie op een plat vlak. In werkelijkheid is de aarde geen plat vlak , maar een bol. Wat voor consequenties dat heeft is duidelijk: een bol heeft een 4x zo grote oppervlakte als een schijf met dezelfde straal. De oppervlakte van een ronde schijf met straal r is immers ᴫr^2, die van een bol is 4 ᴫr^2.

 

Bron: Slaying the Sky Dragon

Rekenkundig bezien valt er daarom gemiddeld op elke m^2 op de bol die aarde heet dus 1366/4 = 341,5 W. Herkent u dat laatste getal? Juist het is de (afgeronde) 341 W/m^2 die in de stralingsbalans van Trenberth de input vormt aan de buitenzijde van de atmosfeer.

Wil men nu uit deze 341 W/m^2 de gemiddelde temperatuur op aarde berekenen, dan is het wel nodig om rekening te houden met het deel van het zonlicht dat reflecteert en dus de aarde niet kan verwarmen. De albedo is ongeveer 0,3. Dus 0,7 x 341 = 239 W/m^2. Men gaat bij deze berekeningen er altijd van uit dat de aarde een zwart lichaam is. Met behulp van de Stefan-Bolzmannvergelijking is nu de gemiddeld maximale temperatuur te berekenen: K^4= 239/ 5,67 x 10 ^-8, en dat wordt 255 K. Dat is dus die -18 °C zonder broeikasgassen.

Tot zo ver niets aan de hand, lijkt het. Maar zo simpel is het in werkelijkheid niet. Want aan het berekeningentje hierboven is al te zien dat tussen de temperatuur in K en de toegevoerde energie geen lineair verband bestaat maar een verband met een vierde macht. Met andere woorden: als er Y hoeveelheid stralingsenergie nodig is om een object een temperatuur K te geven, dan is 16 maal Y nodig om datzelfde object een temperatuur 2K te geven! En dat heeft gevolgen voor de opwarming van de aarde.

In het intrigerende e-book “Slaying the Sky Dragon” dat onlangs is verschenen en dat al veel stof heeft doen opwaaien, wordt deze kwestie van de inkomende straling uitgebreid behandeld.

Om in te kunnen zien wat het verschil is tussen de theoretisch-wiskundige berekening van de inkomende energie en de werkelijkheid doen we een gedachte-experiment. Stel dat de warmtecapaciteit van de aarde 0 is, en de warmtegeleidbaarheid ook. En dat de aarde heel langzaam rond zijn as draait. Dan zou de temperatuur aan het aardoppervlak gedurende 2 omwentelingen het volgende verloop kennen:

Bron: A Greenhouse Effect on the Moon?

De verklaring hiervoor is de volgende: slechts de halve bol vangt het zonlicht op, de andere helft is in duisternis gehuld. Indien de aarde een schijf zou zijn , dan valt er op de gehele schijf 1366 W/m^2. Met behulp van de Stefan-Bolzmannvergelijking, kan men de geabsorbeerde stralingsenergie van een zwart lichaam omrekenen naar temperatuur. Dat levert een maximale temperatuur op van (1366 /5,67)^0,25 x 100 = 394 K . Die 394 K zal overal op de schijf aanwezig zijn, dus de maximale temperatuur is meteen de gemiddelde temperatuur.

Maar bij een bol werkt dit anders. De verlichte helft heeft een oppervlak van 2 ᴫr^2, dus er valt aan de buitenzijde van de atmosfeer op 1 m^2 gemiddeld 1366/2 = 683 W/m^2. Omgerekend naar de gemiddelde maximale temperatuur levert dat op: (683/ 5,67)^0,25 x 100 , een temperatuur van 331 K. Dat is de gemiddelde temperatuur van de verlichte helft. Omdat de halve bol sferisch is, is er maar 1 plek waar het zonlicht loodrecht invalt. Daar vangt de halve bol dus de maximale hoeveelheid stralingsenergie en wordt de temperatuur maximaal ( 394 K) op alle andere plekken op de verlichte helft is dat minder en loopt dat terug tot 3 K op de grens van licht en donker. Dit komt exact overeen met de cijfers uit een rapport van de NASA, “An Analysis and Procedure for Determining Space Environmental Sink Temperatures With Selected Computational Results”.

De achterzijde van de bol ontvangt 0 W/m^2, en heeft dus een temperatuur van 0 K. In werkelijkheid kan de temperatuur aan de schaduwzijde niet verder dalen dan de zogenaamde achtergrondstraling van het helaal, die is ongeveer 3 K. Gemiddeld voor de hele bol is dat dus 331 + 3 = 334/2 = 167 K. Vergelijk dat eens met de 255 K van de stralingsbalans.

NASA heeft theoretische berekeningen gemaakt van de temperaturen op de maan, en ze ook kunnen vergelijken met de meetgegevens door de satelliet Diviner. Nu wijken de voorspelde temperaturen op de maan behoorlijk af van de theoretisch berekende, zoals hierboven beschreven. Zo zorgt de opslag van warmte in de maan er voor dat een deel van de stralingsenergie die op het verlichte deel valt niet direct wordt omgezet in een (hoge) oppervlaktetemperatuur, maar gebruikt wordt om de maan op te warmen. Er ontstaat dus een buffer van warmte. Dat bufferen van warmte zorgt er voor dat de maximale temperatuur lager zal zijn dan 394 K, en ook de gemiddelde temperatuur lager zal zijn dan 331 K.

Bron: A Greenhouse Effect on the Moon?

Aan de andere kant zorgt de gebufferde warmte er voor dat aan de schaduwkant de afkoeling langzaam plaats vindt, en de theoretische 3 K bij lange na niet bereikt wordt. Voordat de donkere zijde kan afkoelen tot 3 K is de maannacht (ongeveer 2 weken) al weer voorbij en warmt het oppervlak op. Op boventaande figuur is het berekende verloop weergegeven met de blauwe lijn. De rode lijn is de gemeten temperatuur aan het maanoppervlak.

Er valt op dat het warmste punt van de (maan-)dag zich niet bevind als de zon het hoogst aan de maanhemel staat , maar later in de maanmiddag. Zo is dat op aarde ook. Zoals te zien is wijkt de gemeten temperatuur af van de berekende, onder andere vanwege de afwijkende warmtegeleidbaarheid van de maan. Op het verlichte deel is de gemeten temperatuur wat lager dan de berekende. Overigens is de maximaal berekende temperatuur iets lager dan de hiervoor al berekende 394 K, omdat rekening gehouden is met de albedo van de maan van 0,11. De laagste gemeten temperaturen op de maan vallen opmerkelijk hoger uit dan de berekende. Oorzaak is de warmtestraling van de aarde. De gemeten temperatuur op de maan valt in het verlichte deel 20 K lager uit dan berekend, en in het donkere deel zelfs 40 K hoger!

De metingen aan de maantemperatuur worden verricht door de Diviner Lunar Radiometer, een van de 7 meetinstrumenten aan boord van NASA’s Lunar Reconnaissance Orbiter. Hieronder zijn impressies afgebeeld van de gemeten temperatuur aan de verlichte en donkere zijde van de maan.

Bron: UCLA

We zagen hiervoor al wat de theoretische maximum en gemiddelde temperaturen van de aarde zijn. Rekening houdend met de aardse albedo van 0,3 levert dat een maximale temperatuur op van ((1366 X 0,7)/5,67)^0,25 x 100 = 360 K . Voor de aarde als bol wordt de gemiddelde temperatuur van het verlichte deel: ((1366/2)/ 5.67x0,7))^0,25 x 100 = 303 K. De achterzijde wordt 3 K . De gemiddelde temperatuur van de gehele bol is dus 303 + 3= 306/2= 153 K.

De werkelijke aarde slaat energie op in water en land, en staat dat ook weer langzaam af. Warmtecapaciteit, warmtegeleiding en oceaanstroming bepalen dan samen met de omloopsnelheid van de aarde hoe het temperatuurverloop er uit gaat zien. De aarde draait met een pittige snelheid (in 24 uur) een keer rond zijn as, waardoor de opwarming niet maximaal wordt en de afkoeling bij een relatief hoge temperatuur blijft steken. Bovendien bestaat het aardoppervlak voor 70% uit water, dat een enorme buffercapaciteit heeft voor warmte. De buffercapaciteit van de aarde is vele malen groter dan die van de maan met zijn stenige oppervlak.

Onderstaande figuur geeft een impressie wat dit voor gevolgen kan hebben voor het verloop van de temperatuur op aarde. Vanwege de enorme buffercapaciteit van met name de oceanen zal de blauwe lijn in werkelijkheid een veel vlakker verloop hebben dan weergegeven.


 

Bron: Slaying the Sky Dragon

Conclusies: de berekening van de gemiddelde temperatuur op aarde is op basis van de eenvoudige berekening zonneconstante/4 : 1366/4= 341,5 W/m^2 . Rekening houdend met de albedo van 0,3 krijgt men dan: 341,5 x 0,7 = 239 W/m^2. Dit is het getal dat aan de basis staat van de stralingsbalans van Trenberth, die al meer dan 10 jaar als uitgangspunt genomen wordt als het om de energiestromen van de aarde gaat.

Op basis van hetgeen hiervoor is beschreven mag geconcludeerd worden dat deze berekening onjuist is. Belangrijkste oorzaak daarvan is dat de aarde altijd een verlichte en een donkere zijde heeft, en dat het verband tussen energie en temperatuur niet lineair is maar met een vierde macht verloopt. Bovendien wijzen metingen aan de maan erop , dat er nog meer complicerende factoren zijn waardoor het uiteindelijke temperatuurverloop anders is dan de theoretisch berekende.

Het wordt nog merkwaardiger als men bedenkt dat de output van Trenberth's stralingsbalans "kloppend" gemaakt is op basis van de verkeerde input. En dat de hiervoor uitgebreid beschreven broeikastheorie er van uitgaat dat een eventuele onbalans tussen de inkomende zonnestraling (input) en de uitgaande warmtestraling (output) als gevolg van een toenemend CO2-gehalte gecorrigeerd wordt door een stijging van de oppervlaktetemperatuur. Met recht mag men hier vragen: over welke input en output gaat het hier?

Een volgende keer meer.
 

 

22-1-2011

Hoe heeft de  gemiddelde temperatuur op aarde zich het afgelopen decennium ontwikkeld?

Een interessante vraag, zeker gezien de alarmerende voorspellingen van het IPCC enkele jaren geleden. Op 28 december j.l. heb ik het volgende statement uit een persbericht van MeteoVista/weeronline.nl  aan de orde gesteld: “Nederland warmt ongeveer twee keer zo snel op als het mondiale gemiddelde. Het is in 10 jaar tijd gemiddeld 0,42 graden warmer geworden.” 

Trouwe lezers hebben toen met eigen ogen kunnen aanschouwen dat van die vermeende 0,42 °C opwarming van ons land in het afgelopen decennium helemaal niets overbleef. De Bilt vertoont zelfs al 14 jaar lang geen opwarming meer. Een schokkend amateuristische interpretatie van klimaatgegevens door 2 medewerkers van MeteoVista was de oorzaak. Maar hoe zit het nu met de opwarming van de aarde als geheel? Volgens diezelfde onderzoekers is de aarde  tussen 1 januari 2001 en 31 december 2010 ongeveer 0,2 °C o


 pgewarmd.  Klopt dat? Nu alle grote klimaatorganisaties die zich bezighouden met het berekenen van de globale temperatuur hun rekenwerk gedaan hebben kunnen we de resultaten bekijken:


                                            Bron: GISS NASA         base period: 1951-1980      temp.tendens:  + 0,152 °C

 

                                Bron: NCDC NOAA         base period:  1901-2000         temp.tendens:     + 0,013 °C 


 

                                   Bron: HadCRUT3v           base period:  1961-1990       temp.tendens:   - 0,052 °C 

 

                                    Bron: RSS MSU         base period:  1979-1998        temp.tendens:    + 0,032 °C


 

                                         Bron: UAH           base period:  1981-2010         temp.tendens:    + 0,089 °C 

In alle grafieken gaat het niet om absolute temperaturen, maar om anomalieën, afwijkingen in °C  ten opzichte van een bepaalde referentieperiode. Die betreffende periode is onder elke grafiek aangegeven als “base period”.  De blauwe lijn geeft het verloop van de maandgemiddelden weer in de periode 1 januari 2001 t/m 31 december 2010.   De zwarte lijn is de zogenaamde lineaire trendlijn, de lijn die aangeeft in welke mate de temperatuur in de aangegeven periode van 10 jaar is veranderd, dus wat de temperatuurtendens is in dit decennium.

Wat direct opvalt is dat er geen enkele grafiek de 0,2 °C stijging haalt die MeteoVista gebruikt in haar persbericht. Zelfs GISS NASA, die van de betrokken organisaties veruit de sterkste opwarming vertoont, haalt net een stijging van 0,15 °C. De andere organisaties halen waarden die net boven 0 zitten, HadCRUT berekent zelfs een hele lichte afkoeling het afgelopen decennium. Kortom: de afwezigheid van enige opwarming in Nederland wijkt nauwelijks af van wat de meeste van de organisaties voor de wereldtemperatuur hebben berekend.

De eerste 3 grafieken zijn gebaseerd op thermometermetingen, de laatste 2 op satellietgegevens. Hoe zijn nu de verschillen tussen de diverse grafieken te verklaren? Allereerst omdat de referentieperiodes van de orgasnisaties onderling verschillen. Maar er zijn nog meer factoren. Om met de satellietgegevens te beginnen: Zowel RSS als UAH maken gebruik van dezelfde data van dezelfde satelliet. Een gemiddelde wereldtemperatuur per tijdseenheid levert zo’n satelliet echter niet, die moet berekend worden uit een enorme hoeveelheid cijfers. En die wijze van berekenen verschilt tussen beide organisaties, en daarmee ook de uitkomsten van de temperatuurreeksen.

Voor wat betreft de eerste 3 grafieken, die gebaseerd zijn op thermometermetingen, ontstaan merkwaardigerwijs ook  verschillen. Hoe kan dat? In de eerste plaats zijn de meetnetten niet helemaal gelijk. Er zijn veel meer meetstations dan die gebruikt worden voor het berekenen van de globale temperatuur. De keuze welke meetstations wel gebruikt worden en welke niet heeft invloed op de uitkomst. Daar is al veel over geschreven de afgelopen jaren.

Bovendien dekken de meetstations slechts een deel van de aarde. Zo zijn de meeste stations te vinden in de rijkere landen, in gebieden met een hoge bevolkingsdichtheid. Andere gebieden leveren daarentegen nauwelijks data. Oceanen zijn daar een goed voorbeeld van , maar ook de poolgebieden, berggebieden en woestijnen leveren zeer spaarzaam data. Elke organisatie heeft zijn eigen methode om de “gaten”  in het meetnet te vullen met geschatte temperaturen. Met name GISS NASA gebruikt daarvoor een methode die niet onomstreden is.

Tenslotte is er de homogenisatie van de ruwe meetgegevens, die tot doel heeft meetfouten als gevolg van bijvoorbeeld meetpuntverplaatsing en UHI-effect te neutraliseren. Niet elke organisatie doet dat op even doorzichtige wijze.  Al diverse malen heb ik over de bizarre homogenisatiemethode van GISS NASA geschreven. Zie  hiervoor het hoofdstuk “De Feiten”, en dan de paragraaf “Meten is Weten” over de merkwaardige wijze waarop GISS bijvoorbeeld de temperatuurreeks van De Bilt homogeniseert. 

Op de gegevens van GISS NASA na liggen alle trendlijnen nagenoeg op 0, dus geen verdere opwarming van de aarde de afgelopen 10 jaar. Dat is voor de ontwikkelingen van de temperatuur in de nabije toekomst veel interessanter dan de veel gelezen constatering dat het afgelopen decennium “het warmste sinds 1880”  was. 
 


16-1-2011

Overpeinzingen over de stralingsbalans en het broeikaseffect  deel 4

Als u "rauw"  in dit onderwerp valt, dan raad ik aan om eerst de delen 1 t/m 3 van deze overpeinzingen te lezen. Alle delen zijn aan elkaar "geplakt"  in het hoofdstuk  "Broeikaseffect"  onder "De Feiten"  (zie menu).

Alle langgolvige straling verlaat uiteindelijk de aarde en atmosfeer, met een energieniveau van 239 W/m^2, gelijk aan de gemiddelde geabsorbeerde kortgolvige straling.  Dat komt, zoals we al zagen,  overeen met een temperatuur van de aarde van 255 K ( -18 °C). Maar de atmosfeer is niet transparant voor langgolvige straling zoals we al zagen. Wat dat voor gevolgen heeft gaan we nu bezien.

Stel dat de atmosfeer wel het atmosferisch venster heeft , maar dat het voor de banden daarbuiten 100% opaak (ondoorzichtig) is.   Hoe zou het spectrum er dan uit zien? Dat zou betekenen dat de aarde haar warmte alleen door het relatief smalle venster van 8 tot 14 μm kwijt kan raken. Om dat mogelijk te maken zal de temperatuur van het aardoppervlak flink omhoog moeten, wel tot zo’n 50  °C. Waarom is dat logisch?


Let eens op de verticale as van bovenstaande grafiek, de laatste grafiek uit deel 3 van 4 januari j.l. .  De eenheid is W/^2/ μm. Dat betekent dat voor elke band van 1 μm breed in de grafiek afgelezen kan worden hoeveel W/m^2 uitgestraald wordt op TOA niveau, voor een lichaam met een temperatuur van -18 °C.  De totale oppervlakte van de kromme geeft dus de totale hoeveelheid  uitgestraalde  energie weer over alle banden. Maak ik de breedte van die oppervlakte smaller, dan moet, om dezelfde hoeveelheid energie uit te kunnen stralen, de energie-inhoud per 1 μm-bandje omhoog, en daarmee de grafiek. En bij een hogere grafiek hoort een hogere temperatuur van het uitstralende object. De buitenzijde van de aarde wordt om dit mogelijk te maken, “vanzelf” meer dan  50 °C.  Zie de grafiek hieronder.


Vanzelfsprekend wijkt de werkelijkheid af van bovenstaand gedachte-experiment. Immers, voor de banden buiten het atmosferisch venster is de atmosfeer niet volledig ondoorzichtig. En die transparantie neemt toe met de hoogte: immers, de dichtheid van de atmosfeer neemt sterk af naarmate men hoger komt. Op  ruim 5 km hoogte is de luchtdruk nog maar de helft van die aan het aardoppervlak,  op 10 km hoogte  is de luchtdruk nog maar 1/5 van die aan het aardoppervlak. Voor langgolvige straling die buiten het atmosferisch venster wil ontsnappen betekent dat de transparantie op 5 km hoogte 2x zo groot is als aan het aardoppervlak. Op 15 km hoogte zijn er nog weinig broeikasgasmoleculen die een ongehinderde uitstraling naar de ruimte belemmeren.

Voor het uitstralen van warmte naar de ruimte, de enige manier voor de aarde om uiteindelijk warmte kwijt te raken, zijn dus grofweg de onderste  15 km van de atmosfeer van belang. Elke “laag” in de troposfeer heeft  dus zijn “eigen”  transparantie voor wat betreft uitstraling  naar boven. Hoe hoger je komt des te makkelijker dat gaat.  Let wel:  de temperatuur neemt met de hoogte af  met gemiddeld -6,5  °C, de lapse rate. De gevolgen daarvan zullen we verderop nog zien.

                                                            Bron: John M.Wallace, Atmospheric Science

Om te begrijpen wat broeikasgassen doen is het dus noodzakelijk om de atmosfeer niet als 1 laag te beschouwen, maar uit een (schier oneindig) aantal laagjes.  Maar om te begrijpen wat er gebeurt in die vele laagjes is een beetje lastig, dus is het verstandig om net te doen alsof de atmosfeer maar uit enkele lagen bestaat, zeg 4 lagen. Wat gebeurt er nu in die 4 lagen met de langgolvige warmtestraling die van de aarde komt?

In onderstaande tekening is dat modelmatig weergegeven. Het betreft de naar buiten gerichte stroom langgolvige straling buiten het atmosferisch venster.  Let op: dit is een sterk vereenvoudigde weergave van de werkelijkheid. De gebruikte waarden zijn fictief. Alleen opwaartse langgolvige straling is weergegeven. Zoals te zien is, is de transparantie voor langgolvige straling beter hoger naarmate de uitstralende laag zich hoger in de atmosfeer bevindt. Anders gezegd: de opaciteit van de atmosfeer is het grootst nabij het aardoppervlak. Dat is het gevolg van het feit dat de atmosfeer dunner wordt naarmate je hoger komt, en ook omdat er relatief minder broeikasgassen zijn op grotere hoogte.

In ons voorbeeld bereikt 7 + 12 + 25 + 48 = 92 W/m^2 via de atmosfeer (buiten het atmosferisch venster) de TOA, waar het vrij de ruimte in straalt. In werkelijkheid is dit getal hoger. Immers, bij de TOA is de gemiddelde uitstraling 239 W/m^2. Als je daar de 40 W/m^ (stralingsbalans Trenberth) van aftrekt, straalt de atmosfeer dus 199 W/m^2 uit.  Zoals ik al zei, de gebruikte getallen zijn fictief, en die 4 lagen zijn er in werkelijkheid schier oneindig veel. In ons model is te zien dat de emissie van langgolvige straling naar de ruimte dus op allerlei niveaus plaats vindt. Relatief weinig (maar met een hoge temperatuur) vanaf de lagen direct boven het aardoppervlak, en veel maar bij lagere temperaturen hoger in de troposfeer. Het “gemiddeld”  emissieniveau ligt op 5km hoogte, waar de temperatuur -18  °C is.

Volgens de Wet van Stefan-Boltzmann komt dat overeen met 239 W/m^2. Die Wet (of vergelijking) luidt  E = σT4 . In deze vergelijking is E de uitgestraalde energie, σ een constante (5.67 x 10^-8) en T is de temperatuur in Kelvin. Hier moet wel bij aangetekend worden dat het feitelijk onmogelijk is om het “gemiddeld emissieniveau ”  te bepalen. Je kunt dus stellen dat men, terug rekenend van 239 W/m^2 en gebruik makend van Stefan-Boltzmann, men uitkomt op -18 °C en de bij deze temperatuur horende  hoogte, 5 km,  het “gemiddeld emissieniveau” noemt. Doordat de temperatuur in de troposfeer afneemt met de hoogte zullen hogere (=koudere) lagen vanwege hun lagere temperatuur minder makkelijk energie uitstralen naar boven dan van onderen absorberen.

Wat gebeurt er nu als er bijvoorbeeld meer langgolvige straling absorberende stoffen in de atmosfeer komen, zoals bijvoorbeeld CO2 ? Dan neemt de transparantie af ( dus de opaciteit toe) , en dat geldt voor elke laag in het model.  Alleen het atmosferisch venter heeft nergens last van. Maar buiten het atmosferisch venster zal de uitstraling uiteindelijk minder worden. Stel dat de transparantie met 10% afneemt, dan daalt in bovenstaande model van 92 W/m^2 naar ongeveer 82 W/m^2.

Wat betekent dit nu voor de diverse lagen in de atmosfeer? Alle lagen worden door een toename van broeikasgassen minder transparant. Voor de lagen direct boven het aardoppervlak betekent dit dat de transparantie tot bijna 0 wordt teruggebracht. De lagen daarboven krijgen ook ‘last’  van verminderde transparantie. Alleen de TOA aan de bovenzijde kan nog steeds vrijelijk uitstralen. Uiteindelijk bereikt de langgolvige straling die vanaf het aardoppervlak uitgestraald wordt wel de TOA, maar er zijn onderweg meer broeikasgasmoleculen die de straling kunnen absorberen en naar alle kanten emitteren. Het gevolg hiervan is dat de onderste laag van de troposfeer nauwelijks nog in staat is om straling direct de ruimte in te zenden.

 

Hoe werkt dat?  Laten we nog eens terug gaan naar het model. In het model is de transparantie van de laag op 5 km hoogte (fictief) gesteld op 3%. Dat betekent dat slechts 3% van de langgolvige straling die deze laag naar boven emitteert, zonder onderweg geabsorbeerd te worden de TOA bereikt en uitstraalt naar de ruimte. Dus 97% van de straling uit die laag wordt op een of andere hoogte bovenin geabsorbeerd en geëmitteerd. Neemt nu de transparantie van de atmosfeer met 10% af als gevolg van een toename van broeikasgassen, dan kan nog slechts 2,7% ongehinderd de TOA bereiken.  De rest, 97,3% bereikt via de bovenliggende lagen (absorptie en emissie) de TOA. De laag op 5 km straalt dus minder langgolvige straling direct uit. Let op: dit is de laag met een relatief hoge temperatuur die relatief veel energie emitteert. De rest van de langgolvige straling uit die onderste laag wordt geabsorbeerd en geëmitteerd door hoger liggende lagen, die elk vanwege de toename van het broeikaseffect ook 10% minder direct naar de TOA kunnen uitstralen.  Alleen de allerhoogste laag, de TOA, heeft geen last van toegenomen broeikasgassen en emitteert alle resterende langgolvige straling de ruimte in.

Wat zijn de gevolgen? Dat de lagen onderin de troposfeer (de warmere lagen) minder uitstralen, en bijgevolg de hogere (koudere) relatief meer. Als je aan die langgolvige straling  meet die vanaf de TOA de ruimte ingaat, en je meet de zogenaamde “brightness temperature”, dan zul je dus een gemiddeld lagere temperatuur meten. Maar belangrijker is dat bij een lagere temperatuur een lagere energiestroom hoort. De energiestroom die de aarde verlaat wordt minder dan 239 W/m^2: de stralingsbalans is uit balans. En bij een lagere temperatuur hoort volgens Stefan-Boltzmann een energiestroom die dus ook kleiner is dan 239 W/m^2. Gevolg: het “gemiddeld emissieniveau”  schuift wat naar boven , naar een koudere laag.   

                                                               Bron: John M.Wallace, Atmospheric Science 

Het model hierboven is echter een sterk vereenvoudigde weergave van de werkelijkheid. In werkelijkheid neemt de transparantie alleen af bij die golflengten waarin het broeikasgas actief is. Kijken we nog eens naar bovenstaande figuur die we al eerder tegenkwamen. In de band tussen 5 en 8 μm wordt in de onderste laag de langgolvige straling voor 100% geabsorbeerd door H2O. Op 11 km hoogte is die absorptieband geslonken tot het gebied tussen ongeveer 6 en 7 μm, en de absorptie is tot ongeveer 50% geslonken.  Op deze hoogte zijn nog maar 2 smalle bandjes waar de absorptie 100% is, namelijk nabij 4 μm en 15 μm.

Bij een verhoging van het CO2-gehalte zal het volgende gebeuren: de banden die nog niet opaak zijn zullen minder transparant worden. Dat geldt voor elke laag op elke hoogte in de atmosfeer. De onderste lagen hebben relatief veel banden die 100% opaak zijn. Een verhoging daarvan is niet mogelijk. Maar wat wel gebeurt is dat de banden direct grenzend aan een dergelijke “verzadigde band” nog wel hun opaciteit zien toenemen, zoals op bovenstaand figuur geschetst is. In de hogere lagen komen meer banden voor die slechts gedeeltelijk opaak zijn. Daar zal bij een verhoging van het CO2-gehalte dit gebeuren:

Op onderstaande figuur is te zien binnen welke banden elk van de broeikasgassen actief is:

                                                                                                 Bron:  Wikipedia 

De gangbare hypothese is nu dat het aardse systeem de stralingsbalans zal herstellen door de temperatuur in het onderste deel van de atmosfeer wat te verhogen: het versterkt broeikaseffect. Er is immers sprake van een input (netto inkomende kortgolvige straling) die iets groter is dan de output (netto uitgaande langgolvige straling). Door die toename van de temperatuur zal de temperatuur aan het aardoppervlak iets hoger worden.  Bij een verdubbeling van het CO2-gehalte zal dat een temperatuurstijging betekenen van iets meer dan 1 °C . Dat wil zeggen: ALS ALLE ANDERE ZAKEN IN HET KLIMAATSYSTEEM GELIJK BLIJVEN.

In de stratosfeer gebeurt het tegenovergestelde:  als het broeikaseffect toeneemt, dan neemt de temperatuur af. Hoe is dat verklaarbaar?  We zagen hiervoor al dat CO2 in de stratosfeer een sterk afkoelend effect heeft.  In onderstaande grafiek is te zien dat de temperatuur – anders dan in de troposfeer - in de stratosfeer toeneemt met de hoogte. Dat is het gevolg van het feit dat de in de stratosfeer aanwezige O3 vrijwel alle uv-straling uit het zonlicht absorbeert. Volgens de Wet van Stefan-Boltzmann betekent dit dat hogerliggende lagen in de stratosfeer vanwege hun hogere temperatuur makkelijker ( lees: meer) energie naar de ruimte stralen dan aan de onderzijde absorberen.

                                                             Bron: C. Donald Ahrens, Essentials in Meteorology

In deze bijdrage is er 1 zin die deels in hoofdletters is geschreven: “bij een verdubbeling van het CO2-gehalte zal dat een temperatuurstijging betekenen van iets meer dan 1 °C . Dat wil zeggen: ALS ALLE ANDERE ZAKEN IN HET KLIMAATSYSTEEM GELIJK BLIJVEN. “. In een volgende bijdrage wil ik verder gaan bij deze uiterst belangrijke laatste constatering.
 


7-1-2011

Ook Maastricht en Eindhoven kouder

Ook de KNMI-meetstations Maastricht en Eindhoven vertonen het afgelopen decennium voor wat betreft de temperatuur een licht dalende tendens.

 

                                                                                              Bron:  KNMI

In de bijdrage van 28 december beschreef ik al de licht dalende tendens in De Bilt. Dat was opmerkelijk, omdat in november het weerbureau MeteoVista nog een persbericht had rondgestuurd waarin stond dat de temperatuur in Nederland het afgelopen decennium met +0.42 °C  zou zijn gestegen.

Zoals in de bijdrage van 28 december al is uitgelegd, heeft MeteoVista de verkeerde conclusies getrokken uit de data van het KNMI.  Desondanks namen veel kranten het persbericht klakkeloos over.

Omdat ik nieuwsgierig was naar het verloop van de temperatuur in Maastricht en Eindhoven heb ik de KNMI-gegevens van beide meetstations bekeken en er een grafiekje van gemaakt. Resultaat: op beide stations geen stijging te zien, maar zelfs een lichte daling.  


4-1-2011 

Overpeinzingen over de stralingsbalans en het broeikaseffect  deel 3

Lezers die "rauw"  deze bijdrage binnenvallen, raad ik aan eerst deel 1 en deel 2 van dit onderwerp te lezen. Deze zijn te vinden op respectievelijk 20-12-2010 en 22-12-2010.

In deel 2 van de Overpeinzingen  sloot ik af met onderstaande figuur:

                                                                  Bron: John M.Wallace, Atmospheric Science

Onderstaande figuur is hiervan afgeleid, met dien verstande dat nu goed te zien is in welk deel van het spectrum de langgolvige straling van de aarde vrijwel ongehinderd de ruimte in kan stralen. Het is het gebied met golflengten tussen 8 en 14 μm, het atmosferische venster genaamd.  In de gebieden direct links en rechts van het atmosferisch venster is de atmosfeer ondoorzichtig voor langgolvige straling als gevolg van absorptie door broeikasgassen. 

                                                                      Naar: http://www.theresilientearth.com

Als de atmosfeer geen broeikasgassen zou bevatten dan kon langgolvige straling dus ongehinderd de aardse atmosfeer verlaten, en zou de gemiddelde temperatuur aan het aardoppervlak -18 °C zijn. De  broeikasgassen zijn overigens niet gelijkmatig verdeeld in de atmosfeer. Alleen CO2  is tamelijk gelijkmatig verdeeld over de atmosfeer. Het belangrijkste broeikasgas, H2O, bevindt zich vooral in de troposfeer, daarboven neemt de hoeveelheid sterk af.

                                                          Bron: K.N.Liou, An Introduction to Atmospheric Radiation

Wat doen broeikasgassen met die langgolvige straling die van het aardoppervlak naar buiten wil? Die absorberen de langgolvige straling en emitteren die weer vrijwel onmiddellijk naar alle kanten. De langgolvige straling die naar de aarde gericht is vormt een deel van de Ed (back radiation) in de stralingsbalans van Trenberth. Het deel dat naar boven gericht is bereikt uiteindelijk de buitenzijde van de atmosfeer (TOA) waar het vrijelijk de ruimte in gaat  (OLR in de stralingsbalans).

Als er op weg naar “boven” nog broeikasgasmoleculen aanwezig zijn zal de langgolvige straling nog een aantal malen geabsorbeerd en geëmitteerd worden. Voor langgolvige straling op pakweg 15 km hoogte is de atmosfeer daarboven vrijwel geheel doorzichtig. Voor langgolvige straling onder in de troposfeer is de weg naar buiten dus grotendeels opaak, ondoorzichtig.

Als uiteindelijk alle langgolvige straling de TOA bereikt, dus zowel de straling die ongehinderd de atmosfeer verlaat via het atmosferisch venster, als de langgolvige straling die moeizaam via absorptie en emissie de TOA bereikt, dan straalt daar gemiddeld 239 W/m^2 de ruimte in. En dat is exact gelijk aan wat er aan zonnestraling door de aarde geabsorbeerd wordt. Maar pas op: die 239 W/m^2 is een gemiddelde: vrijwel overal aan de buitenzijde van de atmosfeer is dat getal hoger of lager. Kijk alleen maar eens naar de onbalans als gevolg van de breedteligging die we in deel 1 al zagen:

                                                             Bron: C. Donald Ahrens, Essentials in Meteorology

Maar ook het dag/nachtritme, de seizoenen en allerlei andere regionale en lokale effecten zorgen er voor dat er vrijwel nergens een stralingsbalans is tussen inkomende en uitgaande straling. Overigens is de inkomende zonnestraling  ook vrijwel overal anders als gevolg van veelal dezelfde oorzaken als die voor langgolvige straling gelden. Die 239 W/m  is dus een gemiddelde voor de gehele aarde op langere termijn bezien.

Op onderstaande figuur is de totale langgolvige straling afgebeeld in februari 2010, zoals die door de CERES satelliet is gemeten. Duidelijk is te zien dat er van globale uitstraling van 239 W/m^2 geen sprake is. De stralingsintensiteit is overal anders. Zou je de plaatjes van andere maanden ernaast leggen, dan zou je zien dat het niet alleen ruimtelijk bezien maar ook in de tijd voortdurend anders is.

                                                                                              Bron: NASA

Bezien we nu onderstaande grafiek, dan zien we bovenin de weergave van 2 zogenaamde zwartlichaam spectra volgens de Wet van Planck. De linker is van de zon, maar we zijn hier meer geïnteresseerd in de rechter kromme, die van de langgolvige straling van een zwart lichaam bij 255 K ( = -18 °C). De aarde is niet volledig een zwart lichaam, maar benadert die toch sterk.

                                                                       Bron: John M.Wallace, Atmospheric Science

Bovenstaande grafiek is het theoretisch spectrum van de langgolvige straling van de aarde. Hoe het er in werkelijkheid uitziet weten we onder andere dank zij  de Nimbus 4 satelliet die uitgerust is met een  zogenaamde infrared interferometer spectrometer. Het energiespectrum wijkt qua vorm af van de figuur hierboven, maar dat is het gevolg van het feit dat  de horizontale as van de bovenste figuur logaritmisch verloopt, terwijl dezelfde as op de figuur hieronder een lineaire schaal heeft.

                                                        Naar: K.N.Liou, An Introduction to Atmospheric Radiation

In de figuur zijn afgebeeld de spectra bij diverse temperaturen. Met rood is het spectrum aangegeven van een lichaam met een temperatuur van 255 K, -18 °C, de aarde dus. De grillige lijn is de gemeten langgolvige straling die vanaf de aarde ruimte in gaat.
Tussen de 8 en 14 μm heeft het uitgezonden spectrum een profiel dat in de buurt ligt van 290 K.  Dit is de langgolvige straling die rechtstreeks via het atmosferisch venster de ruimte in gaat. Die 290 K komt globaal overeen met de gemiddelde temperatuur aan het aardoppervlak, namelijk 15 °C  ( 288 K). Het kleine dipje bij 10  μm is het gevolg van absorptie door O3.

Tussen de 14 en 18 μm is het energieniveau zo laag dat het past bij het profiel van 220 K , -53  °C.  Dat is de temperatuur aan de bovenzijde van de troposfeer op ongeveer 11 km hoogte. Oorzaak hier is de sterke absorptie in deze band door CO2, waardoor pas op grote hoogte , waar het koud is, uitstraling naar de ruimte plaats kan vinden.

Tussen 5 en 8 μm vindt uitstraling ook op een kouder niveau plaats, namelijk tussen ongeveer 0 °C en -50 °C, als gevolg van de absorptie van H2O in deze band. Op onderstaande figuur is een en ander duidelijk te zien:

                                                      Bron: K.N.Liou, An Introduction to Atmospheric Radiation

Vereenvoudigd kunnen we dus het volgende stellen: de atmosfeer raakt op 2 manieren haar warmtestraling kwijt, namelijk voor de golflengtes tussen 8 en 14 μm door directe uitstraling via het atmosferisch venster, en voor de andere golflengtes  via absorptie en emissie van broeikasgassen en tenslotte via uitstraling aan de TOA.

Stel nu eens dat de atmosfeer voor 100% transparant zou zijn voor langgolvige straling, dan zou het energiespectrum er zo uit zien:


Alle langgolvige straling verlaat uiteindelijk de atmosfeer, met een energieniveau van 239 W/m^2, gelijk aan de gemiddelde geabsorbeerde kortgolvige straling.  Dat komt, zoals we al zagen,  overeen met een temperatuur van de aarde van 255 K ( -18 °C). Maar de atmosfeer is in werkelijkheid niet transparant voor langgolvige straling zoals we al zagen. Wat dat voor gevolgen heeft zien we een volgende keer.
 
 
1-1-2011

Temperatuur De Bilt al 14 jaar lang niet gestegen.

Een lezer van mijn site maakte me erop attent dat de temperatuur van De Bilt al langer dan een decennium geen stijging meer vertoont. En inderdaad, na een duik in de KNMI databank ziet dat er zo uit:
                                                                                              Bron: KNMI

Al 14 jaar geen stijging meer van de temperatuur in De Bilt!