KNMI-reactie op het selectief gebruik van meetstations
Bijlage
Nummer: 2010D16274, datum: 2010-04-01, bijgewerkt: 2024-02-19 10:56, versie: 1
Directe link naar document (.doc), link naar pagina op de Tweede Kamer site.
Bijlage bij: Antwoord vragen De Mos over het bericht dat in de VS met temperatuurdata is gefraudeerd (2010D12050)
Preview document (š origineel)
Bijlage: KNMI-reactie op het selectief gebruik van meetstations In diverse kranten is het bericht verschenen dat een wereldwijde grote afname van het aantal meetstations voor een belangrijk deel de gemeten mondiaal gemiddelde opwarming over de afgelopen decennia kan verklaren. De redenatie is dat weerstations selectief zijn weggelaten, waardoor er een trendbreuk opwaarts zou zijn ontstaan. De referentie van deze claim komt uit een studie van Joseph D'Aleo, een meteoroloog, en E. Michael Smith, a computer programmeur, gepubliceerd op de website van de Science and Public Policy Institute. Het rapport van DāAleo en Smith is niet gepubliceerd en dus ook niet extern gecontroleerd en gereviewd en staat alleen op de door DāAleo opgezette website. Een samenvatting van de claims uit het rapport: Instrumentele oppervlaktetemperatuurdata uit de pre-satellietperiode (1850 ā 1980) zijn systematisch gesaboteerd zodat ze onbetrouwbaar zijn. Bovendien worden inmiddels 2/3 van de ooit 6000 stations niet meer gebruikt. De verwijdering van data is te selectief uitgevoerd en de meetstations worden beĆÆnvloed door verstedelijking. Verder zijn er teveel instrumentele problemen. Het rapport constateert tevens dat satellietmetingen van de troposferische temperatuur in toenemende mate afwijken van de grondstations. De aanwezige gronddata worden gecompileerd in het Global Historical Climatology Network (GHCN). Operationalisatie hiervan gebeurt door het nationale klimaatdata centrum in de VS (NCDC). Reactie op het rapport: De aandacht richt zich op het GHCN. Echter, GHCN is niet het enige instituut dat een database van stationsdata heeft. Er zijn onafhankelijke databases met data die niet op het GHCN zijn geweest, zoals de ECA&D database voor Europa. Deze andere databases laten dezelfde trends zien als GHCN, waarmee Europa een controle functie vervult. De claims, dat door selectieve verwijdering de mondiaal gemiddelde temperatuurtrend zou zijn beĆÆnvloed wordt hiermee ontkracht. De auteurs van het rapport geven hiermee aan niet de essentie en filosofie van het GHCN data beheer te snappen. Peterson en Vose (1997) bediscussiĆ«ren dit punt zeer uitvoerig. Wereldwijde meetstationdata worden vanuit weerdiensten over de hele wereld via de World Meteorological Organisation (WMO) gerapporteerd en gecontroleerd. Deze informatie is publiekelijk beschikbaar. Daarna komen ze pas in GHCN. De GHCN dataset stamt in de eerste vorm uit begin jaren 1990 en bestaat dus uit twee gedeelten. Voor de periode voor 1990 zijn er reeksen uit allerlei bronnen samengebracht. De 6000 stations waarvan gewag wordt gemaakt zijn een overschatting, het aantal heeft gewisseld, met als maximum 3522 stations in 1969. Vanaf begin jaren ā90 wordt de database maandelijks bijgewerkt met gegevens van een kleiner aantal stations, voor de periode tot 2006 zijn ruim 1500 stations beschikbaar. Er zijn vooral stations weggevallen in de voormalige Sovjetrepublieken die in 1991 onafhankelijk werden, China, Canada en AustraliĆ«. Dit heeft een aantal redenen: commercialisering van weerdiensten, budgettaire redenen, wegvallen van contracten. In deze gebieden zijn genoeg stations overgebleven om een goede schatting van de temperatuur te maken. Er is een studie uitgevoerd naar het effect van de geringe hoeveelheid stations in de poolgebieden op de schatting van de mondiaal gemiddelde jaartemperatuur aan het oppervlak. Er is een vergelijking gemaakt tussen het extrapoleren van de gemeten data voor een groter polair gebied (NASA), en het weglaten van die data (Hadley Centre/CRU) blijkt uitberekeningen van het KNMI (mondelinge mededeling). Beide methoden geven een vergelijkbare temperatuurstijging (en beide methoden worden in publicaties gebruikt). Dit ontkracht de claim dat een ongebalanceerde verspreiding van meetstations de mondiaal gemiddelde temperatuurstijging substantieel zou vertekenen. Tevens laat het zien dat de GHCN van alle kanten wordt gecontroleerd. Nog een voorbeeld van controle is het vergelijken van de temperatuurmetingen vanuit satellieten met die van de meetstations. Hoewel de vergelijking niet 1 op 1 kan worden gemaakt door de manier van meten vanuit satellieten, correleren de twee onafhankelijke meetdata sets zeer goed en laten ze vergelijkbare trends zien. Hiermee is ook de claim ontkracht dat de satellietmetingen zouden divergeren van de grondmetingen. Stationsverplaatsingen zijn altijd een groot probleem. Hiervoor wordt zo goed mogelijk gecorrigeerd, maar met duizenden meetreeksen en beperkte mankracht is dit niet altijd mogelijk. De CRU-reeksen zijn gebaseerd op een kleiner aantal gecontroleerde stations, de NASA reeks op alle beschikbare data om dit soort effecten uit te middelen. De overeenkomst tussen deze reeksen en de satellietwaarnemingen geeft aan dat gemiddeld over grote gebieden er geen grote afwijkingen zijn door stationsverplaatsingen. Regionaal (bv. in China) kan dit wel het geval zijn en moeten aanvullende controles worden uitgevoerd. Voor Europa is dit in het ECA&D project reeds gedaan. De claim dat door het wegvallen van de meetstations een trendbreuk is ontstaan in het verloop van de wereldgemiddelde temperatuur in 1990 is onjuist. Er zit in de NASA/GISS reeks die gebaseerd is op de GHCN data geen breuk in 1990. Figuur 1: Verloop van de wereldgemiddelde temperatuur reeks van NASA/GISS 1979-2009, de groene lijn geeft het 10-jaars lopende gemiddelde. De afkoeling in 1992-1993 werd veroorzaakt door de uitbarsting van de vulkaan Pinatuba in 1991, de opwarming in 1998 en de afkoeling in 2008 door El NiƱo en La NiƱa.