Die deviatie is er inderdaad. De grafiek bevat de data van één model die gevoed is met de 5 belangrijkste forceringe: broeikasgassen, menselijke aerosol emissies, zonnevariatie, ozon emissies en natuurlijke aerosol emissies (vulkanen). In werkelijkheid zijn er meer forceringen waaronder oceaanstromingen. Maar ondanks dat slechts 5 parameters gevoed worden met gemeten waarden over de periode van de grafiek is de overeenkomst groot, vooral de trend. Kortdurende afwijkingen van de trend kun je als ruis beschouwen.
No offense, maar ik krijg steeds meer het gevoel dat er gemodelleerd wordt naar een gewenste werkelijkheid.
Ik kan dat 'gevoel' niet voor je wegnemen, daarvoor moet je toch echt dieper in de wijze waarop modellen gebouwd worden duiken. Je zou kunnen denken dat klimaatmodellen geparametreerd worden zodat ze een kort stukje geschiedenis reproduceren in de vorm van “Give me four parameters, and I can fit an elephant. Give me five, and I can wiggle its trunk" (John von Neumann) maar zo werkt het niet, klimaat modellen reproduceren niet alleen temperatuur maar ook wind, wolken, neerslag, orkanen etc. Dat lukt je niet als je voor alle parameters alleen maar reeele waarden mag gebruiken.
In werkelijkheid werkt het dus andersom: de diverse bekende natuurkundige/scheikundige/biologische aspecten (formules) die met het weer/klimaat van doen hebben worden allemaal in code omgezet (en mogelijk geparametreerd als de schaal te groot of te klein is, maar wel met reeele waarden) en gevoed met gemeten waarden voor bijv. broeikasgassen en zonneinstraling waarna alle andere zaken 'emergent' zijn, het gevolg van de interactie van bekende fysica/chemie in het model. En dit alles wordt uitgevoerd als talloze wetenschappelijke experimenten, dus probleem detectie/formulering -> theoretische oplossing -> experiment -> publicatie -> peer-review (herhaal).
Het is het wetenschappelijke proces wat er voor zorgt dat er niet willekeurig aan parameter knoppen gedraaid wordt totdat het gewenste resultaat eruit komt maar dat het verleden correct gesimuleerd wordt op basis van bekende fysica en realistische parameters.
Waar komt de 'waarheid' van die natural grafiek vandaan? Dat is toch niet te meten?
Nee, helaas niet en dat is meteen de reden waarom klimaat modellen nodig zijn: er zijn geen 1000den parallelle aardes waar we experimenten kunnen uitvoeren met verschillende combinaties van forceringen. De natural grafiek is dus eenvoudigweg het model resultaat waarbij de trend van de menselijke forceringen op 0 gesteld zijn.
Overigens liggen klimaatmodellen bijna altijd centraal in het publieke debat maar voor wetenschappers zijn klimaatmodellen alleen maar een tool om hun theorien te testen. De bekende James Hansen zegt altijd dat klimaat modellen slechts op de derde plek staan als het gaat om bewijsvoering, na bestudering van het paleo-klimaat en bestudering van directe observaties waarbij modellen alleen een tool zijn voor het begrip van eerste twee.
Om daarvan een voorbeeld te geven: ook zonder klimaatmodellen weten we redelijk goed hoe warm het deze eeuw gaat worden op basis van verwachte uitstoot en andere bewijslijnen zoals de genoemde paleo-klimatologie en directe observaties. Zie bijvoorbeeld een overzicht van de klimaagevoeligheid uit de zeer uitgebreide en gezaghebbende
Paleosense 2012 studie:
of via het IPCC een overzicht diverse onafhankelijke methoden om de klimaatgevoeligheid te bepalen:
Een paar linkjes die ik nuttig vindt om nut en kwaliteit van klimaatmodellen te begrijpen in oplopende complexiteit:
Klimaat modelleur Gavin Schmidt op TED over de betrouwbaarheid van modellen:
YouTube: Gavin Schmidt: The emergent patterns of climate change
Een geintresseerd blogger legt modellen uit:
http://scienceofdoom.com/...off-the-catwalk-part-one/
Systems engineering prof. Steve Easterbrook over model ontwikkeling:
http://www.cs.toronto.edu...asterbrook-Johns-2008.pdf
MOOC prof. David Archer over Global Warming, understanding the forecast:
http://forecast.uchicago.edu/lectures.html