Annonse
Når vi bruker ChatGPT, krever det energi. Men det er særlig når vi trener modellene dette blir tydelig.

KI kan bruke like mye energi som hele Sverige. Nå har danske forskere en løsning

Fremtidens kunstige intelligens (KI) vil kreve store mengder energi. Det krever et mer klimavennlig alternativ, påpeker forskere i en ny studie.

Publisert

Når du ber ChatGPT om en kakeoppskrift eller forslag til reisemål for sommeren, krever det like mye strøm som å lade mobiltelefonen 40 ganger.

KI fører også til utslipp av store mengder CO2.

Forskere anslår at det globale energiforbruket for KI i 2027 vil tilsvare det årlige forbruket i Argentina, Nederland eller Sverige.

Det er altså en stor klimasynder. Men danske forskere har kanskje en løsning.

I en ny studie fra Københavns Universitet har tre forskere funnet en måte å gjøre KI-modeller mer energieffektive.

Slik beregnet Raghavendra Selvan energiforbruk

Selskapet OpenAI, som eier ChatGPT, publiserer ikke informasjon om energiforbruket til språkmodellene sine.

Raghavendra Selvan har regnet ut at å bruke ChatGPT én gang bruker 0,19 kWh, noe som tilsvarer å lade telefonen opptil 40 ganger.

Han gjorde dette ved å bruke en språkmodell som ligner ChatGPT, men som er 30 ganger mindre. Han trente den opp på en enkelt GPU-maskin.

Deretter målte han energiforbruk og CO2-utslipp ved hjelp av verktøyet Carbontracker, som han har vært med på å utvikle.

På denne måten kunne han beregne energiforbruket for den lille modellen og skalere det opp til ChatGPT – derfor er det et grovt estimat.

En annen studie viser at det å bruke KI til å generere ett bilde krever like mye energi som en å lade telefonen én gang.

Hvorfor KI bruker så mye energi

Når vi bruker ChatGPT, krever det energi, men det er særlig når vi trener modellene dette blir tydelig.

– Det er to grunner til at KI-modeller fører til store utslipp, sier Raghavendra Selvan, som har gitt et estimat for energiforbruket til ChatGPT. Han er forsker ved Datalogisk Institut ved Københavns Universitet og en av forskerne bak den nye studien.

Årsakene er:

  1. Krevende bruk av datakraft
  2. Enorme datasett

I løpet av det siste tiåret har KI-modeller blitt større og kraftigere, noe som betyr at de har flere parametere, det vil si variablene modellen trenes på når den skal komme med spådommer eller beslutninger, forklarer Selvan.

Vi vet imidlertid ikke nøyaktig hvilke parametere de bruker og derfor kalles de «black-box»-modeller.

I stedet for å jobbe med noen hundre parametere, trenes modellene nå opp med over hundre milliarder parametere.

– Det er ikke mulig å få plass til alle disse parameterne på én grafikk-brikke. Derfor deler vi opp oppgaven og fordeler den på flere datamaskiner, for eksempel i et datasenter, forklarer forskeren.

Metas nyeste storskala språkmodell er for eksempel trent opp på to såkalte klyngedatamaskiner med 24.000 GPU-er hver.

Det kreves mye strøm for å holde alle disse datamaskinene i gang og – ikke minst – for å kjøle dem ned.

Den andre grunnen er dataene som modellene mates med:

I dag trenes store språkmodeller som ChatGPT opp på svært store datasett som modellen må jobbe med i lang tid.

– De trenes i utgangspunktet på tekster fra hele internett. Det blir derfor ganske krevende med tanke på antall datamaskiner, bruken og omfanget av maskinvare og tiden som trengs for å trene opp modellene, sier Selvan.

Et stort klimafotavtrykk

Det finnes flere eksempler på bruk av KI-modeller i hverdagen, for eksempel når vi bruker kameraet på telefonen til å skanne QR-koder eller gjenkjenne objekter.

Men det er generativ KI, som for eksempel ChatGPT, som er «ekstremt energikrevende», forklarer Raghavendra Selvan.

Et svar fra ChatGPT bruker for eksempel 15 ganger så mye energi som et Google-søk.

Hva er generativ KI?

Generative KI-modeller er en type kunstig intelligensmodell som kan generere nytt innhold basert på det den blir matet med.

Dette kan være tekst, som ChatGPT, eller bilder, som DALL-E.

Kilde: Medium

Når hundrevis av millioner spørsmål sendes til chatboten hver dag, tilsvarer det ifølge en forsker ved University of Washington det daglige energiforbruket til omtrent 33.000 husholdninger i USA.

I tillegg kreves det vann for å kjøle ned datasentrene. I en såkalt preprint anslås det at ChatGPT bruker en halv liter vann hver gang den sender ut en serie på 10-50 forespørsler.

Hva er en «preprint»?

En preprint er en artikkel som ikke er fagfellevurdert, og som lastes opp til en åpen nettplattform.

På denne måten blir resultatene raskt tilgjengelige for offentligheten, forskerne har større eierskap til teorien og kan få tilbakemeldinger fra kolleger.

Det betyr også at studien ikke har blitt kritisk gjennomgått av andre forskere, så studien bør leses med forsiktighet.

Preprinter skal gjøre resultater raskt tilgjengelige for offentligheten og fagfeller. Og for at forskere skal kunne gi hverandre tilbakemeldinger på studier før de sender dem inn til vitenskapelige tidsskrifter i håp om å få dem publisert.

Ulempen er at de upubliserte studiene er fritt tilgjengelige og kan misbrukes eller misforstås av folk som ikke er klar over at forskningsresultater må gjennom en fagfellevurderingsprosess før de kan tas for god fisk.

Så bruken av generativ KI har unektelig et stort klimafotavtrykk.

Derfor må vi gjøre en avveining, sier Raghavendra Selvan. Selv om generativ KI kan være nyttig i flere sammenhenger, bør vi beregne hvor mye energi som skal brukes til det.

– Vi befinner oss fortsatt i en klimakrise, og vi må se på hvor vi kan bruke ressursene våre, sier Selvan:

– Konsekvensen er at vi bruker energi som kunne vært brukt til andre viktige ting.

Hvor mye energi sier ChatGPT at den bruker?

Her er svaret:

«Hvis vi antar at serveren kjører døgnet rundt (24 timer i døgnet) og genererer meldinger kontinuerlig, kan vi beregne det omtrentlige energiforbruket per melding.

Dette gir oss et omtrentlig energiforbruk per melding på rundt 0,171 kWh.

Det er viktig å merke seg at dette er et svært grovt estimat, og at det faktiske energiforbruket kan variere betydelig avhengig av mange faktorer, blant annet maskinvarekonfigurasjon, programvareoptimalisering og kjøretidsmønstre.»

ChatGPTs egen beregning tilsvarer 15 ganger mer energi enn et Google-søk.

KI trenger ikke å bruke så mye strøm

Men den nye studien gir håp om bedring.

I den fagfellevurderte studien som ble presentert på en vitenskapelig konferanse, har Raghavendra Selvan og to andre forskere utforsket mulighetene for mer klimabevisst KI ved å se på såkalte Convolutional Neural Networks (CNN).

Dette er den typen AI-modeller som brukes til å kjenne igjen objekter når vi tar bilder med mobilen. De brukes også av for eksempel radiologer til å analysere medisinske bilder.

Typer KI: CNN og LLM

Convolutional Neural Networks (CNN):

  • Nettverk som spesialiserer seg på å behandle data som bilder.
  • Eksempler på bruksområder: Bilde- og videogjenkjenning, ansiktsgjenkjenning

Store språkmodeller (LLM):

  • Store språkmodeller: En modell som er trent på store samlinger og tekster, og som kan forstå og selv generere tekst basert på disse dataene.
  • Eksempler på bruk: ChatGPT og Googles BERT.

I studien brukte forskerne en annen AI-modell til å estimere energiforbruket ved å trene opp 423.000 AI-modeller og fant mer energieffektive modeller.

Og resultatene er interessante, sier Luís Cruz-Filipe, som ikke har vært involvert i forskningen, men som har gjennomgått den for Videnskab.dk.

Han er forsker ved Institut for Matematik og Datalogi ved Syddansk Universitet, der han forsker på kunstig intelligens.

– De argumenterer for at det bør være en balanse mellom hvor godt modellene presterer og hvor mye energi de trenger. Det synes jeg er veldig fornuftig, sier Cruz-Filipe.

Forskerne viser en måte å spare mye energi på uten at kvaliteten på resultatene blir vesentlig dårligere. Dette er lovende, mener Cruz-Filipe.

Ut fra beregningene deres viser det seg at det finnes en rekke modeller som presterer nesten like bra, men som bruker mindre energi.

Beregningene kan derfor brukes til å bygge en modell som vil være mer energieffektiv fra starten av, noe som reduserer energiforbruket og karbonavtrykket når KI-modellen designes og trenes opp.

På den vertikale aksen måles ytelse, mens den horisontale aksen måler energiforbruk. Hvert punkt tilsvarer en modell. I den røde ringen er modeller med høy ytelse, men også høyt energiforbruk. Den grønne ringen viser mer energieffektive modeller, der det er 1 prosent reduksjon i ytelse, men 70–80 prosent reduksjon i energiforbruk

– Både i industrien og i forskningen har det vært større fokus på å optimalisere modeller uten å ta hensyn til energiforbruket, forklarer Raghavendra Selvan.

I tillegg trenes mange modeller før man finner den riktige modellen for å løse en gitt oppgave, noe som krever mye energi og tar lang tid.

Selvan håper at folk som jobber med KI, kan bruke studien som en slags guide for energieffektivitet.

Dermed kan de designe energieffektive modeller uten at det må gå ut over ytelsen.

– Vi sløser med ressursene. Hvis vi begynner å ta hensyn til ressursforbruket, kan vi få gode modeller som reduserer energiforbruket, sier forskeren.

Det finnes noen forbehold

Selv om intensjonen er god, kan det være farlig å trekke for mange konklusjoner fra studien, understreker Luís Cruz-Filipe:

– De lovende resultatene gjør at vi i det minste bør undersøke dette som et alternativ. Men min følelse er at det er en noe begrenset studie. De fokuserer på ett spesifikt område av kunstig intelligens.

Studien har potensial til å bli et vendepunkt, men bare hvis andre klarer å bygge videre på resultatene, mener Cruz-Filipe. Det kan for eksempel være å undersøke muligheten for å redusere energiforbruket til ChatGPT.

Raghavendra Selvan peker også på noen svakheter ved studien.

Den har bare testet på en rekke såkalte CNN-modeller og ikke de store språkmodellene (LLM) som ligger bak ChatGPT. Dette ville kreve «overdrevent» energiforbruk, sier han.

Samtidig er det ikke alltid mulig å gå på kompromiss med ytelsen. Hvis du for eksempel kjører en selvkjørende bil med kamera, er det viktig at ytelsen er så god som mulig for å unngå ulykker.

– Men i noen tilfeller har vi også sett energieffektive modeller som ikke har dårligere ytelse, sier Selvan.

I midten er en modell fra datasettet som viser ulike grader av avveining mellom ytelse og energiforbruk. Den oransje «knekken» på kurven viser den beste avveiningen

Fremtiden for kunstig intelligens

Så kan bransjen begynne å implementere mer energieffektive modeller nå?

Ifølge Raghavendra Selvan er det fortsatt langt frem:

For det første er det dyrt å gjøre lignende studier på andre modeller, selv om forskere har vist en effektiv måte å gjøre det på.

For det andre finnes det ikke mange verktøy for å måle energiforbruket til KI-modeller, forklarer forskeren.

– Selv om forskerne har vist noen verktøy i studien, er det ikke så enkelt at andre vil kunne implementere dem i sine egne modeller, ettersom det krever et nytt lag med måleverktøy, sier han.

For det tredje er det mangel på bevissthet om problemet. Selvan håper studien vil endre på det.

– Når vi begynner å sette tall og data på problemet, vil forhåpentligvis resten av samfunnet også begynne å vurdere energiforbruket til modellene, og ikke bare ytelsen, sier han.

Luís Cruz-Filipe mener at det begynner å bli mer oppmerksomhet rundt energiforbruket til kunstig intelligens.

– Jeg tror flere vil begynne å komme opp med mer effektive løsninger, sier han.

Dette er et problem som ikke har gått helt upåaktet hen hos KI-selskapene selv:

I januar uttalte Sam Altman, administrerende direktør i OpenAI, selskapet bak ChatGPT, at det er behov for nye energikilder for å drive fremtidens kunstige intelligens.

Referanser:

Pedram Bakhtiarifard, Raghavendra Selvan mfl.: EC-NAS: Energy Consumption Aware Tabular Benchmarks for Neural Architecture Search. International Conference on Acoustics, Speech and Signal Processing (ICASSP), Seoul, Korea, Republic of, 2024. (Sammendrag) DOI: 10.1109/ICASSP48485.2024.10448303

Alexandra Sasha Luccioni mfl.: Power Hungry Processing: Watts Driving the Cost of AI Deployment. arXiv, 2023. DOI: 10.48550/arXiv.2311.16863

Pengfei Li mfl.: Making AI Less «Thirsty»: Uncovering and Addressing the Secret Water Footprint of AI Models. arXiv, 2023. DOI: 10.48550/arXiv.2304.03271

© Videnskab.dk. Oversatt av Lars Nygaard for forskning.no. Les originalsaken på videnskab.dk her.

LES OGSÅ

Få med deg ny forskning

MELD DEG PÅ NYHETSBREV

Du kan velge mellom daglig eller ukentlig oppdatering.

Powered by Labrador CMS