– Ved hjelp av mer effektive statistiske metoder kan vi klemme ut litt mer nyttig informasjon av de store datamengdene vi får fra klimamodellene, sier Benestad. (Foto: cornfield, Shutterstock, NTB scanpix)

Statistikk skal gi bedre resultater fra klimamodellene

Nordiske forskere har fått til mer realistiske prognoser av hvordan klimaet på jorden vil bli i framtiden. Det har de gjort gjennom samarbeid med statistikere. Nå anbefaler de andre klimaforskere å gjøre det samme.

Klimamodeller skal forutsi fremtidig utvikling. Modellene er egentlig dataprogrammer som inneholder instruksjoner om hvordan jord, luft og andre væsker som karbondioksyd og vanndamp i atmosfæren beveger seg ved å bruke matematiske formler.

Disse dataprogrammene blir matet med informasjon om vind, temperatur og andre målinger som for eksempel karbondioksidnivå, havis og skydannelse. Målet er at programmet skal være en modell av kloden og at den kan fortelle oss hvordan kloden kommer til å oppføre seg i fremtiden. Disse fremtidsbildene, som kalles projeksjoner, blir brukt som beslutningsgrunnlag for politikere.

Modellene har imidlertid vært utsatt for mye kritikk fordi de ikke har gitt pålitelige resultater. Det nordiske forskernettverket, som kalles Nordic eScience Globalisation Initiative (NeGI), kan ha funnet løsningen for å få mer pålitelige resultater. De vil nå ta med statistikere i arbeidet med å tolke resultatene som modellene har kommet frem til.

Kompleksitet mangedobler usikkerheten

Klimamodellene har gradvis blitt mer komplekse i takt med at datamaskinene har blitt kraftigere og raskere. De første klimamodellene inneholdt matematiske beskrivelser av atmosfære, sjø, land og sjøis. Deretter la forskerne til informasjon om hvordan flere typer væsker beveger seg i atmosfæren, som for eksempel CO2 og vanndamp.

De siste utgavene av modellene inkluderer informasjon om isdekke, havnivå og lokal værutvikling over lang tid, i tillegg har oppløsningen på modellene gått opp.

Rasmus Benestad på Meteorologisk institutt er en av forskerne bak artikkelen som forskernettverket publiserte i tidsskriftet Nature Climate Science i september. Der sammenligner de oppløsningen i klimamodellene med oppløsningen på et digitalt bilde.

– Forestill deg at jorden er dekket av et nett av små ruter, sier Benestad. – Hver rute er som en piksel i et bilde. Modellene regner ut hvordan klimaet fungerer i hver rute. Modellene som brukes til å lage værmeldinger ble bedre av å ha flere ruter som var mindre i størrelse. Vi økte oppløsningen på bildet.

Klimaforskerne bruker historiske data til å teste hvor gode modellene deres er til å forutsi hva temperaturen vil bli på jordens overflate i framtida. Modellene har data som er flere hundre år gamle. Så langt har modellene kommet med framtidsbilder som stemmer overens med hvordan klimaet faktisk var i det forrige århundre.

Men klimamodellene for hvordan det kommer til å bli i dette århundre har ikke stemt overens med det vi vet har skjedd.

Mye varmere, mye fortere?

Spådommen var at det skulle bli mye varmere, mye fortere de siste 20 årene. Det ser ut til at oppvarmingen har vært mye mindre og har gått mye saktere enn det modellene forutsa.  I tillegg er det vanskelig å lage matematiske formler som beskriver hvordan ekstremvær og vanndamp i form av skyer og regn påvirker temperaturen.

Denne upåliteligheten blir problematisk når klimaforskere skal gi politikere og byråkrater underlag for beslutninger om veivalg for fremtiden.

– Det er viktig at det rådene vi gir om hvilke lokale klimaendringer vi kan forvente fremover er så riktige som mulig, sier Benestad. – Vi må kunne gi realistiske forventninger om nedbørsutviklingen for flere tiår fremover når vi blir konsultert om hvilke avlinger bøndene bør velge eller om temperaturutviklingen gjør det fornuftig å investere i et skianlegg.

Forskerne kjører vanligvis simuleringer mange ganger med litt forskjellige innstillinger slik at de får mange forskjellige framtidsbilder. Forskerne vet ikke hvordan utviklingen faktisk kommer til å bli, men de kan finne ut hvilket framtidsbilde som dataprogrammet kommer frem til oftest gjennom å få mange resultater som er nesten like. Siden datamaskiner har blitt raskere og sterkere de siste årene, så har de begynt å sammenligne resultatene fra mange forskjellige klimamodeller. Klimaforskerne håper at dette vil gi mer pålitelige framtidsbilder.

Kjell Stordahl, som lager statistiske modeller for Telenor, sammenligner denne metoden med et orkester, hvor hver musiker konsentrerer seg om å spille sitt instrument. Sammen skaper de et mer komplett lydbilde hvor svakhetene til hver musiker ikke synes så godt

Utfordringen er at usikkerheten i resultatene fra klimamodellen øker når forskerne ber programmet om å simulere flere prosesser, som for eksempel hvordan vanndamp eller isdekket oppfører seg. Usikkerheten øker ytterligere når de sammenligner resultatet fra flere modeller. Benestad sier at de statistiske metodene som klimaforskerne har brukt frem til nå har vært ganske enkle. Framtidsbildene som dataprogrammet kom med stemte bedre overens med det vi vet har skjedd, når de tok i bruk mer avanserte statistiske metoder.

FNs Klimapanel har blitt kritisert for at usikkerheten i klimamodellene ikke kan etterprøves matematisk.

De bruker begreper som «så godt som sikkert» og «usedvanlig usannsynlig». Klimaforskningen har så langt vært dominert av meteorologer og fysikere. Benestad og resten av nettverket fra NeGI mener at resultatene blir mer troverdige og pålitelige dersom klimaforskerne får hjelp av statistikere til å oppgi hvor sikre de er på forskningsresultatene sine i tall som andre kan sjekke i etterkant.

Historisk tilfeldighet

Den amerikanske statistikeren Peter Bloomfield mener at årsakene til at så få statistikere har involvert i forskningen på klimamodellene både er historiske og har med hvordan forskningen er organisert. Han er professor emeritus fra North Carolina State University og er medlem av rådgivningskomiteen for klimaforskning i den amerikanske foreningen for statistikere (ASA).

– ASA forsøkte å finne ut hvor mange statistikere som hadde vært involvert i rapporten til FNs Klimapanel for ti år siden, da de fikk Nobels Fredspris, sier han.

– De fant rundt et dusin statistikere blant de flere tusen forskere som på en eller annen måte var involvert i å lage den endelige rapporten.

Bloomfield tror at det er mange flere statistikere involvert nå, sammenlignet med for ti år siden. Samtidig er samarbeidet mellom statikere og klimaforskere fortsatt tilfeldig og kortvarig. Det er først de siste fem årene at det har blitt tydelig fokus på at modellene er som et puslespill av hvordan klodens klima fungerer, som mangler mange puslespillbiter. Bildet har store piksler og bildet er ikke fullstendig.

– Innrømmelsen av at resultatene er usikre fordi modellene gir en ufullstendig etterligning har blitt feid under teppet i mange år, sier han.

Men det er ikke bare det at modellene i utgangspunktet kommer fra fysikkens verden, og ikke statistikkens, som har vært årsaken til at så få statistikere som forsker på klima. Det er også andre årsaker, slik som forskningspolitiske føringer og finansiering.

Bloomfield sier de fleste statistikere har jobbet innenfor legemiddelindustrien, hvor de lager modeller som forutsier hvordan medisiner kommer til å oppføre seg i kroppen. Det er primært i denne næringen at statistikerne har fått finansiert arbeidet sitt. De som har brukt tid på klimaforskning har gjort det ved å bruke privat tid fordi de er personlig interessert.

Han setter stor pris på innspillet fra det nordiske forskningsnettverket. Det sammenfaller med ASAs initiativ for å få flere statistikere involvert i FNs klimapanel. Rådgivningskomiteen for klimaforskning i ASA planlegger spesialmøter for dette på neste års Joint Statistical Meetings i Vancouver, som er den største statistikkonferansen i Amerika.

– Det er viktig at vi lager viser usikkerheten som ligger i datamodellene med tall som kan etterprøves, sier Bloomfield. – Klimamodellene er en hovedkandidat. Det har blitt publisert flere artikler om å kvantifisere usikkerheten de siste årene og Benestads artikkel er helt på linje med dette arbeidet.

Turbulent vei videre

Veien videre blir turbulent, på tross av optimismen fra både Benestad og Bloomfield. Det nordiske forskningsnettverket skal avsluttes neste år. Det er ingen klare planer for hvordan erfaringen skal videreføres på internasjonalt nivå.

I september satte FNs Klimapanel satte i gang den sjette runden med å gå igjennom hva klimaforskerne har funnet siden sist. Tallfesting av usikkerheten ved modellen er ikke inkludert i arbeidsplanene.

Verdensorganisasjonen for meteorologer (WMO) har en arbeidsgruppe for klimaforskning. De jobber systematisk med å forbedre forskningsmetodene ved å sammenligne resultatet fra ulike modeller. WMO har begynt på en ny gjennomgang, kalt CMIP6, men de bruker de gamle metodene som ikke inkluderer statistikere.

– CMIP6 har forsøkt å få mer enhetlige metoder, sier Benestad. – Arbeidsgruppen omfatter 21 forskjellige prosjekter som alle jobber med hver sine metoder. Vi tok i bruk avanserte statistiske metoder som ikke er like vanlige blant forskere som ikke har spesialisert seg i statistikk.

En annen utfordrende faktor er Trump-administrasjonens nedprioritering av geofysisk grunnforskning. National Center for Atmospheric Research er et føderalt forskningssenter som sørger for at amerikanske universiteter får tilgang til dyre forskningsressurser som tungregneanlegg, modellsimuleringer og et fly som samler informasjon om hva som foregår oppe i himmelen. De har blitt utsatt for drastiske budsjettkutt og har blant annet nedprioritert støtten til statistiske og matematiske metoder. Benestad er likevel optimistisk.

– Ved hjelp av mer effektive statistiske metoder kan vi klemme ut litt mer nyttig informasjon av de store datamengdene vi får fra klimamodellene, sier Benestad. Dermed får et klarere bilde av hva vi kan forvente i fremtiden.

Referanse:

R. Benestad mfl: «New vigour involving statisticians to overcome ensemble fatigue», Nature Climate Change 7, 9 September 2017, doi:10.1038/nclimate3393 Sammendrag

Gregory Flato og Jochem Marotzke mfl: «Evaluation of Climate Models. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change», Cambridge University Press, Cambridge,United Kingdom and New York, NY, USA.

Powered by Labrador CMS