Når vi bruker ChatGPT, krever det energi. Men det er særlig når vi trener modellene dette blir tydelig.(Foto: Giulio Benzin / Shutterstock / NTB)
KI kan bruke like mye energi som hele Sverige. Nå har danske forskere en løsning
Fremtidens kunstige intelligens (KI) vil kreve store mengder energi. Det krever et mer klimavennlig alternativ, påpeker forskere i en ny studie.
Tanya Maria MøllerKnudsenREDAKSJONSASSISTENT, VIDENSKAB.DK
Publisert
Når du ber ChatGPT om en kakeoppskrift
eller forslag til reisemål for sommeren, krever det like mye strøm som å lade
mobiltelefonen 40 ganger.
KI fører også til utslipp av store mengder CO2.
Forskere anslår at det
globale energiforbruket for KI i 2027 vil tilsvare det årlige forbruket i
Argentina, Nederland eller Sverige.
Det er altså en stor klimasynder. Men
danske forskere har kanskje en løsning.
I en ny studie fra Københavns Universitet
har tre forskere funnet en måte å gjøre KI-modeller mer energieffektive.
Slik beregnet Raghavendra Selvan energiforbruk
Selskapet OpenAI, som eier ChatGPT,
publiserer ikke informasjon om energiforbruket til språkmodellene sine.
Raghavendra Selvan har regnet ut at å
bruke ChatGPT én gang bruker 0,19 kWh, noe som tilsvarer å lade telefonen
opptil 40 ganger.
Han gjorde dette ved å bruke en
språkmodell som ligner ChatGPT, men som er 30 ganger mindre. Han trente den opp
på en enkelt GPU-maskin.
Deretter målte han energiforbruk og
CO2-utslipp ved hjelp av verktøyet Carbontracker, som han har vært med på å
utvikle.
På denne måten kunne han beregne
energiforbruket for den lille modellen og skalere det opp til ChatGPT – derfor
er det et grovt estimat.
En annen studie viser at det å bruke KI
til å generere ett bilde krever like mye energi som en å lade telefonen én
gang.
Hvorfor KI bruker så mye energi
Når vi bruker ChatGPT, krever det energi, men det er særlig når vi trener modellene dette blir tydelig.
– Det er to grunner til at KI-modeller
fører til store utslipp, sier Raghavendra Selvan, som har gitt et estimat for
energiforbruket til ChatGPT. Han er forsker ved Datalogisk Institut ved
Københavns Universitet og en av forskerne bak den nye studien.
Årsakene er:
Krevende bruk av datakraft
Enorme datasett
I løpet av det siste tiåret har
KI-modeller blitt større og kraftigere, noe som betyr at de har flere
parametere, det vil si variablene modellen trenes på når den skal komme med
spådommer eller beslutninger, forklarer Selvan.
Vi vet imidlertid ikke nøyaktig hvilke
parametere de bruker og derfor kalles de «black-box»-modeller.
I stedet for å jobbe med noen hundre
parametere, trenes modellene nå opp med over hundre milliarder parametere.
– Det er ikke mulig å få plass til alle
disse parameterne på én grafikk-brikke. Derfor deler vi opp oppgaven og
fordeler den på flere datamaskiner, for eksempel i et datasenter, forklarer
forskeren.
Det kreves mye strøm for å holde alle
disse datamaskinene i gang og – ikke minst – for å kjøle dem ned.
Den andre grunnen er dataene som modellene
mates med:
I dag trenes store språkmodeller som
ChatGPT opp på svært store datasett som modellen må jobbe med i lang tid.
Annonse
– De trenes i utgangspunktet på tekster
fra hele internett. Det blir derfor ganske krevende med tanke på antall
datamaskiner, bruken og omfanget av maskinvare og tiden som trengs for å trene
opp modellene, sier Selvan.
Et stort klimafotavtrykk
Det finnes flere eksempler på bruk av
KI-modeller i hverdagen, for eksempel når vi bruker kameraet på telefonen til å
skanne QR-koder eller gjenkjenne objekter.
Men det er generativ KI, som for eksempel
ChatGPT, som er «ekstremt energikrevende», forklarer Raghavendra Selvan.
Når hundrevis av millioner spørsmål sendes
til chatboten hver dag, tilsvarer det ifølge en forsker ved University of
Washington det daglige energiforbruket til omtrent 33.000 husholdninger i USA.
I tillegg kreves det vann for å kjøle ned
datasentrene. I en såkalt preprint anslås det at ChatGPT bruker en halv liter
vann hver gang den sender ut en serie på 10-50 forespørsler.
Hva er en «preprint»?
En preprint er en artikkel som ikke er
fagfellevurdert, og som lastes opp til en åpen nettplattform.
På denne måten blir resultatene raskt
tilgjengelige for offentligheten, forskerne har større eierskap til teorien og
kan få tilbakemeldinger fra kolleger.
Det betyr også at studien ikke har blitt
kritisk gjennomgått av andre forskere, så studien bør leses med forsiktighet.
Preprinter skal gjøre resultater raskt
tilgjengelige for offentligheten og fagfeller. Og for at forskere skal kunne gi
hverandre tilbakemeldinger på studier før de sender dem inn til vitenskapelige
tidsskrifter i håp om å få dem publisert.
Ulempen er at de upubliserte studiene er
fritt tilgjengelige og kan misbrukes eller misforstås av folk som ikke er klar
over at forskningsresultater må gjennom en fagfellevurderingsprosess før de kan
tas for god fisk.
Så bruken av generativ KI har unektelig et
stort klimafotavtrykk.
Derfor må vi gjøre en avveining, sier
Raghavendra Selvan. Selv om generativ KI kan være nyttig i flere sammenhenger,
bør vi beregne hvor mye energi som skal brukes til det.
– Vi befinner oss fortsatt i en
klimakrise, og vi må se på hvor vi kan bruke ressursene våre, sier Selvan:
– Konsekvensen er at vi bruker energi som
kunne vært brukt til andre viktige ting.
Hvor mye energi sier ChatGPT at den bruker?
Her er svaret:
«Hvis vi antar at serveren kjører døgnet
rundt (24 timer i døgnet) og genererer meldinger kontinuerlig, kan vi beregne
det omtrentlige energiforbruket per melding.
Dette gir oss et omtrentlig energiforbruk
per melding på rundt 0,171 kWh.
Det er viktig å merke seg at dette er et
svært grovt estimat, og at det faktiske energiforbruket kan variere betydelig
avhengig av mange faktorer, blant annet maskinvarekonfigurasjon,
programvareoptimalisering og kjøretidsmønstre.»
ChatGPTs egen beregning tilsvarer 15
ganger mer energi enn et Google-søk.
KI trenger ikke å bruke så mye strøm
Annonse
Men den nye studien gir håp om bedring.
I den fagfellevurderte studien som ble
presentert på en vitenskapelig konferanse, har Raghavendra Selvan og to andre
forskere utforsket mulighetene for mer klimabevisst KI ved å se på såkalte
Convolutional Neural Networks (CNN).
Dette er den typen AI-modeller som brukes
til å kjenne igjen objekter når vi tar bilder med mobilen. De brukes også av for
eksempel radiologer til å analysere medisinske bilder.
Typer KI: CNN og LLM
Convolutional Neural Networks (CNN):
Nettverk som spesialiserer seg på å
behandle data som bilder.
Eksempler på bruksområder: Bilde- og
videogjenkjenning, ansiktsgjenkjenning
Store språkmodeller (LLM):
Store språkmodeller: En modell som er
trent på store samlinger og tekster, og som kan forstå og selv generere tekst
basert på disse dataene.
Eksempler på bruk: ChatGPT og Googles
BERT.
I studien brukte forskerne en annen
AI-modell til å estimere energiforbruket ved å trene opp 423.000 AI-modeller og fant mer energieffektive modeller.
Og resultatene er interessante, sier Luís
Cruz-Filipe, som ikke har vært involvert i forskningen, men som har gjennomgått
den for Videnskab.dk.
Han er forsker ved Institut for Matematik
og Datalogi ved Syddansk Universitet, der han forsker på kunstig intelligens.
– De argumenterer for at det bør være en
balanse mellom hvor godt modellene presterer og hvor mye energi de trenger. Det
synes jeg er veldig fornuftig, sier Cruz-Filipe.
Forskerne viser en måte å spare mye energi
på uten at kvaliteten på resultatene blir vesentlig dårligere. Dette er
lovende, mener Cruz-Filipe.
Ut fra beregningene deres viser det seg at
det finnes en rekke modeller som presterer nesten like bra, men som bruker
mindre energi.
Beregningene kan derfor brukes til å bygge
en modell som vil være mer energieffektiv fra starten av, noe som reduserer
energiforbruket og karbonavtrykket når KI-modellen designes og trenes opp.
– Både i industrien og i forskningen har
det vært større fokus på å optimalisere modeller uten å ta hensyn til
energiforbruket, forklarer Raghavendra Selvan.
I tillegg trenes mange modeller før man
finner den riktige modellen for å løse en gitt oppgave, noe som krever mye
energi og tar lang tid.
Annonse
Selvan håper at folk som
jobber med KI, kan bruke studien som en slags guide for energieffektivitet.
Dermed kan de designe energieffektive
modeller uten at det må gå ut over ytelsen.
– Vi sløser med ressursene. Hvis vi
begynner å ta hensyn til ressursforbruket, kan vi få gode modeller som
reduserer energiforbruket, sier forskeren.
Det finnes noen forbehold
Selv om intensjonen er god, kan det være
farlig å trekke for mange konklusjoner fra studien, understreker Luís
Cruz-Filipe:
– De lovende resultatene gjør at vi i det
minste bør undersøke dette som et alternativ. Men min følelse er at det er en
noe begrenset studie. De fokuserer på ett spesifikt område av kunstig
intelligens.
Studien har potensial til å bli et
vendepunkt, men bare hvis andre klarer å bygge videre på resultatene, mener
Cruz-Filipe. Det kan for eksempel være å undersøke muligheten for å redusere
energiforbruket til ChatGPT.
Raghavendra Selvan peker også på noen
svakheter ved studien.
Den har bare testet på en rekke såkalte
CNN-modeller og ikke de store
språkmodellene (LLM) som ligger bak ChatGPT. Dette ville kreve «overdrevent»
energiforbruk, sier han.
Samtidig er det ikke alltid mulig å gå på
kompromiss med ytelsen. Hvis du for eksempel kjører en selvkjørende bil med
kamera, er det viktig at ytelsen er så god som mulig for å unngå ulykker.
– Men i noen tilfeller har vi også sett
energieffektive modeller som ikke har dårligere ytelse, sier Selvan.
Fremtiden for kunstig intelligens
Så kan bransjen begynne å implementere mer
energieffektive modeller nå?
Annonse
Ifølge Raghavendra Selvan er det fortsatt
langt frem:
For det første er det dyrt å gjøre lignende studier på andre modeller, selv om forskere har vist en effektiv måte
å gjøre det på.
For det andre finnes det ikke mange
verktøy for å måle energiforbruket til KI-modeller, forklarer forskeren.
– Selv om forskerne har vist noen verktøy
i studien, er det ikke så enkelt at andre vil kunne implementere dem i sine
egne modeller, ettersom det krever et nytt lag med måleverktøy, sier han.
For det tredje er det mangel på bevissthet
om problemet. Selvan håper studien vil endre på det.
– Når vi begynner å sette tall og data på
problemet, vil forhåpentligvis resten av samfunnet også begynne å vurdere
energiforbruket til modellene, og ikke bare ytelsen, sier han.
Luís Cruz-Filipe mener at det begynner å
bli mer oppmerksomhet rundt energiforbruket til kunstig intelligens.
– Jeg tror flere vil begynne å komme opp
med mer effektive løsninger, sier han.
Dette er et problem som ikke har gått helt
upåaktet hen hos KI-selskapene selv:
I januar uttalte Sam Altman,
administrerende direktør i OpenAI, selskapet bak ChatGPT, at det er behov for
nye energikilder for å drive fremtidens kunstige intelligens.
Referanser:
Pedram Bakhtiarifard, Raghavendra Selvan mfl.: EC-NAS:
Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search. International Conference on Acoustics, Speech and Signal Processing (ICASSP), Seoul, Korea, Republic of, 2024. (Sammendrag) DOI: 10.1109/ICASSP48485.2024.10448303