Vanskelig å teste klimamodeller

Datasimuleringer brukes for å forutsi framtidens klima. Men modellene må brukes forsiktig, for de tegner et forenklet bilde av virkeligheten, advarer vitenskapsteoretiker.

Published
"Klimamodellene har problemer med skyer."
"Klimamodellene har problemer med skyer."

Klimamodeller håndterer ikke skyer

Et av de stedene hvor databaserte klimamodeller blir nødt til å gå på kompromiss med detaljene, er i beskrivelsen av skyer.

Skydekket har stor betydning for klimaet fordi det virker avkjølende på atmosfæren.

Forklaringen på at modellene har problemer med å håndtere skyene, er at de for å forenkle og redusere beregningstiden beskriver atmosfæren som et gitter av små felt.

Uansett hvor finmasket gitteret er, vil det alltid ha en begrenset oppløsning, det vil si at det vil være klimafenomener som faller gjennom maskene.

Ett av disse fenomenene er nettopp skyene, som normalt er mye mindre enn et typisk gitterelement.

Dette prøver forskerne å takle ved å lage såkalte parametriseringer, hvor man forsøker å beskrive fenomenene generelt i stedet for spesifikt.

Men den fremgangsmåten øker usikkerheten til modellene, noe som er en konstant kilde til debatt.
 

Visste du

Matthias Heymann har skrevet flere kapitler i undervisningsboken Jorden brænder, som handler om klimaforskningen og den politiske debatten på området.
 

Konsekvensene av den globale oppvarmingen er uoverskuelige – i hvert fall hvis man skal tro avanserte datasimuleringer av hvordan det globale klimaet vil utvikle seg i fremtiden.

Klimasimuleringer basert på datamodeller er det bankende hjertet i den moderne klimaforskningen, og nyere sosiologiske studier viser at forskerne generelt stoler på at utsagnene fra modellene er riktige.

Men spørsmålet er i hvilken grad datamodellene faktisk beskriver virkeligheten.

For når det kommer til stykket, er det faktisk temmelig vanskelig å vurdere modellenes troverdighet, sier historiker og matematiker Matthias Heymann fra Institutt for Videnskabsstudier ved Aarhus universitet.

De siste årene har han fordypet seg i klimaforskningens historie, og han har særlig lagt vekt på å undersøke hvordan de databaserte klimamodellene helt konkret blir bygget opp og brukt.

– Datasimulering er et ganske nytt verktøy innen klimaforskningen og det gir en enestående mulighet for å utforske forskjellige prosessers innflytelse på klimaet på lang sikt, sier han.

Heymann peker på at modellene selvfølgelig også er kommet til å spille en stor rolle innen mange andre vitenskapelige grener.

– Men det er også mange problemer knyttet til å bruke disse verktøyene. Det er blant annet vanskelig å finne ut hva resultatene betyr, og hvor sikre de er, sier han.

Ser inn i fremtiden

Utviklingen av de databaserte klimamodellene begynte for alvor etter andre verdenskrig, hvor særlig meteorologene fikk øynene opp for simuleringenes styrker.

På slutten av 1950-tallet lyktes det å lage virkelighetstro simuleringer av karakteristiske værfenomener, som for eksempel sykloner (store, spiralformede vindsystemer omkring lavtrykksområder).

Syklonen Catarina på vei inn over Brasil i 2004, fotografert av mannskapet på den internasjonale romstasjonen. (Foto: NASA/International Space Station crew, se NASAs egen beskrivelse her)
Syklonen Catarina på vei inn over Brasil i 2004, fotografert av mannskapet på den internasjonale romstasjonen. (Foto: NASA/International Space Station crew, se NASAs egen beskrivelse her)

Allerede få år senere kunne de databaserte værvarslene presentere sikrere værvarsler enn de tradisjonelle beregningsmetodene. Det fikk andre klimaforskere til også å ta verktøyet i bruk til å simulere klimaet både lokalt og globalt.

Med tiden er det blitt klart at simuleringene gir klimaforskere en helt ny mulighet til å gjennomføre eksperimenter med atmosfæren som ikke er mulige i virkeligheten.

Forskerne kan blant annet undersøke hvordan klimaet reagerer hvis man fordobler eller halverer CO2-konsentrasjonen i atmosfæren, hvis man fjerner den tropiske regnskogen helt, eller hvis man fyller atmosfæren med «kunstige» skyer som kjøler ned atmosfæren.

De mange bruksområdene har gjort at klimaforskningen i dag er helt avhengig av datasimuleringene. Modellene gjør det mulig å kaste lys over hvilke prosesser som faktisk påvirker klimaet, forteller han.

En forenkling av virkeligheten

Med tiden er det imidlertid blitt klart at bruken av databaserte klimamodeller også har en bakside, nemlig at de aldri vil kunne simulere klimaet nøyaktig.

Uansett hva man gjør, vil datamodellene alltid være en tilnærming til virkeligheten, og det skyldes ifølge Heymann tre ting: begrenset kunnskap, begrenset datakapasitet og utilstrekkelige matematiske teknikker.

Klimaet påvirkes av så mange fysiske, biologiske, astronomiske og kjemiske mekanismer at selv ikke de største superdatamaskinene klarer å forholde seg til alt sammen på en gang.

Datamaskinen har simpelthen ikke nok regnekraft til å kunne sjonglere med de enorme mengdene av ligninger og data. I tillegg har man ikke fullt ut forstått en del av klimamekanismene.

Det oppdages stadig nye prosesser som ser ut til å ha en direkte eller indirekte innflytelse.

Rent matematisk er det heller ikke mulig å beskrive de klimatiske prosessene ned til minste detalj.

Man må bruke såkalte numeriske løsninger for å få tilnærmede verdier, noe som gjør at man ikke beskriver fenomenene presist, og som dessuten har en tendens til å gi ustabile simuleringsforløp.

Omfattende tester er nødvendig

Behovet for å forenkle datamodellene tvinger klimaforskere til å gjøre noen beinharde prioriteringer.

Skyer og sol over Det indiske havet, sett fra romferga Discovery i 1999. (Foto: NASA, se nasas egen beskrivelse her)
Skyer og sol over Det indiske havet, sett fra romferga Discovery i 1999. (Foto: NASA, se nasas egen beskrivelse her)

De må velge hvilke mekanismer modellen alltid skal ta med, og hvilke den kan tillate seg ta lettere på eller helt ignorere.

Men nøyaktig hvordan det skal prioriteres, er noe forskerne ikke er enige om, og det smitter over på klimamodellene.

– Det finnes ingen klare svar på hvilke prosesser som skal tas med i modellen. I den forstand er modellene plastiske og fleksible. Det er opp til hver enkelt modellbygger å forme og designe modellen, forteller Heymann.

Den store friheten i designprosessen betyr at det ikke finnes én klimamodell, men mange forskjellige klimamodeller som beskriver et bestemt fenomen på hver sin måte.

Det store spørsmålet er hvilken modell som beskriver virkeligheten best. For å avgjøre det, gjennomfører man typisk forskjellige tester.

Den beste testmetoden består i å la datamodellene beregne hvordan for eksempel hav- og lufttemperaturer har utviklet seg gjennom tiden.

Disse verdiene kan man deretter sammenligne med direkte målinger. Er det en god overensstemmelse mellom de beregnede og de målte verdiene, øker det forskernes tillit til datamodellen.

Er det dårlig overensstemmelse, må man enten droppe eller tilpasse modellen, slik at man får en bedre match.

Men den fremgangsmåten har noen fallgruver, advarer Heymann.

– Hvis de observerte dataene ligger tett opp til modellens resultater, kan man fristes til å tro at modellen virkelig representerer verden.

- Men i prinsippet kan det være andre modeller som har en like god overensstemmelse, og da er det vanskelig å vite hvilken av dem som simulerer virkeligheten best, sier han.

Modellene er ikke uavhengige

Det største problemet ved denne måten å teste på er at man typisk har få data å arbeide med.

Det gjelder for eksempel i de tilfellene hvor man vil bruke datamodeller til å forutsi hvordan klimaet utvikler seg i fremtiden.

Her er det ikke mulig å teste spådommene med direkte målinger, siden man ikke bare kan hoppe fra nåtiden og inn i framtiden.

I stedet gjennomfører man såkalte ensemble-simuleringer, hvor man lar flere svært forskjellige modeller simulere klimaet i framtiden.

Oppnår de ellers svært forskjellige datamodellene den samme konklusjonen, får forskerne mer tillit til resultatet.

Men heller ikke ensemble-simuleringene er uproblematiske, påpeker Heymann. Slike simuleringer gir nemlig bare mening hvis modellene virkelig er grunnleggende forskjellige, og det er langt fra alltid tilfellet.

Årsaken er at man i dag ikke konstruerer databaserte klimamodeller helt fra bunnen, men typisk bygger dem opp fra mindre, avgrensede moduler.

Siden de små modulene beskriver hver sin lille del av klimaet, er de betydelig lettere å holde oversikt over og teste for feil og mangler.

I mange tilfeller vil de samme modulene gå igjen i forskjellige datamodeller. Så selv om datamodellene kanskje umiddelbart ser ut til å beskrive klimaet på hver sin måte, så ligner de hverandre ganske mye.

– Problemet er at det er uhyre vanskelig å vurdere om ensemble-simuleringer virkelig kan forminske usikkerhetene, forklarer Heymann.

Usikkerheten er både usynlig og ukjent

I et forsøk på å gjøre modellene gradvis bedre, velger mange modellbyggerne hele tiden å øke graden av detaljer, ved å ta med flere og flere aspekter av klimaet.

Målet er å gjøre modellene så virkelighetstro som mulig, slik at man kan stole mer på simuleringene deres.

Men faktisk kan man risikere å oppnå det stikk motsatte, fordi taktikken kan øke usikkerheten til resultatene.

Normalt er naturvitenskapsfolk nøye med å angi hvor stor usikkerhet det er knyttet til målingene, altså hvor langt vekk fra målingen den riktige verdien kan ligge. Størrelsen på usikkerhetsintervallet avhenger i høy grad av forskerens målemetode og utstyr.

Datamodellene er imidlertid så avanserte at man ikke har mulighet til å vurdere hvor stor usikkerhet det er ved hver modul.

Det hele kompliseres av at man ikke kan vite om de forskjellige modulene forsterker hverandre – og i så fall hvor store usikkerhetene er.

Øker man antallet moduler, kan den samlede usikkerheten på det endelige resultatet bli større og større. Men den forsterkningen er ikke synlig på det endelige resultatet, siden datasimuleringene alltid produserer eksakte tall. Usikkerheten er altså usynlig.

– Man kan simpelthen ikke si hvor stor usikkerhet det er knyttet til datamodellene, altså om det er en sannsynlighet på for eksempel 30 prosent eller 90 prosent for at resultatene er riktige, forteller Heymann.

I et forsøk på å begrense usikkerheten så mye som mulig, lager man såkalte sensitivitetsanalyser, som undersøker hvor følsom en klimamodell er i forhold til en bestemt parameter.

Ved å justere en parameter, for eksempel mengden CO2 i atmosfæren, kan man se hvor mye det påvirker resultatet. Er det en stor effekt, er det et tegn på at parameteren skal tas med i modellen.

Er simuleringen derimot upåvirket, kan man utelate parameteren fra modellen. På den måten kan modellbyggeren holde kompleksiteten og usikkerheten nede.

En ny type vitenskap

Selv om det altså er mange farer ved å bruke databaserte klimamodeller, har man etter hvert fått ulike verktøy til å teste dem. Og siden forskerne generelt er svært bevisste på usikkerhetene, arbeides det mye med å teste modellene.

Den omfattende testingen foregår på store forskningssentre som har spesialisert seg på å teste og forbedre modellene.

Det er antagelig årsaken til at klimaforskere, ifølge flere sosiologiske studier, generelt føler seg trygge på å bruke klimamodeller i forskningen sin, forteller Heymann.

Forskerne mener at simuleringene har forbedret den forskningsbaserte kunnskapen om klimaet markant, og det har ført til at datasimulering i dag er akseptert som en forskningsmetode på linje med teoretisk og eksperimentell forskning.

– Datasimuleringene er en annen type vitenskap enn for eksempel eksperimentell fysikk. Men det er ikke dårlig vitenskap. Det viktige er at man er forsiktig når man bruker klimamodellene, og det er også noe forskere innen klimaområdet generelt tar alvorlig og er oppmerksomme på, sier han.

Peker på global oppvarming

Gjennom det siste tiåret er det gjennomført tusenvis av datasimuleringer som skal kaste lys over hvordan framtidens klima blir, og de aller fleste klimamodellene konkluderer med at atmosfæren og verdenshavene blir varmere, og at denne globale oppvarmingen hovedsakelig er menneskeskapt.

Hvor mye temperaturene faktisk vil stige det kommende århundret, er noe forskerne fremdeles diskuterer. Men det er bare noen få forskere som etter hvert setter spørsmålstegn ved at det vil skje en temperaturstigning.

Likevel advarer Heymann mot å oppfatte den som en endelig fasit med to streker under:

– Selv om det er stor enighet om at vi har en menneskeskapt global oppvarming, så er det, som vitenskapen sier, aldri 100 prosent sikkert.

– Det er basert på forventninger, en slags «state of knowledge». Om 20 år har man kanskje oppdaget at det er andre faktorer som spiller en like stor eller enda større rolle for klimaet enn CO2. Slike skifter er alltid mulige, avslutter han.

______________________________

© videnskab.dk. Oversatt av Lars Nygaard for forskning.no.

Referanse og lenker

Kontaktopplysninger for Matthias Heymann

Om klimamodeller (undervisningsmateriell fra Experimentarium)

Om klimamodeller (DMI)

IPCC: AR4 - Climate models and their evaluation (PDF)