Vi må finne ut hvordan vi skal regulere KI, oppfordrer flere eksperter som samles på et toppmøte om dette i dag. Forsker Inga Strümke er enig i at det absolutt trengs globale samarbeid for å sikre at KI utvikler seg på en trygg måte.(Foto: Stig B. Fiksdal/DNB Nyheter)
Farene ved kunstig intelligens sammenlignes med klimaendringene – Inga Strümke mener frykt distraherer
Hva kan vi tro på i en verden der kunstig intelligens lager bilder som ser virkelige ut og skriver like godt som et menneske? Og hva skjer den dagen noen bruker teknologien til å lage biologiske våpen?
– Vi må ta risikoene som kunstig intelligens
innebærer på like stort alvor som andre store globale utfordringer, som klimaendringer,
sa
Demis Hassabis til avisa the Guardian i forrige uke.
Forsker og entreprenør Hassabis er en av grunnleggerne av og sjef for DeepMind, et forskningslaboratorium for kunstig intelligens eid av
Google.
Vi lever i dag med konsekvensene av at en global respons på
klimaendringene kom for sent, mener Hassabis og advarer mot å la dette skje
også med kunstig intelligens.
Elon Musk og USAs visepresident, Kamala Harris, er blant dem som samles til et toppmøte i Storbritannia de neste to dagene for å diskutere nettopp kunstig intelligens (KI) og sikkerhet.
Diskusjonene om kunstig intelligens nådde for alvor det brede lag av befolkningen da OpenAI i november 2022 lanserte chatboten ChatGPT, som etter sigende skriver og forstår tekst nesten like godt som et menneske.
Bildet av paven iført trendy boblejakke tidligere i år, som altså viste seg å være generert av kunstig intelligens, førte også til debatt verden over. Hvis vi ikke skjønner at dette bildet er fake, hva annet blir vi lurt av? Og hva kan det gjøre med samfunnet vårt, nå og på sikt?
Hassabis foreslår at det etableres et omfattende globalt system for
regulering av kunstig intelligens, etter inspirasjon fra flere kjente institusjoner:
IPCC, også kalt FNs klimapanel, gir jevnlig ut rapporter der de
setter sammen den nyeste kunnskapen om klimaendringer. Dette må vi også ha for
KI, mener Hassabis.
Så vil han gjerne ha noe à la CERN. CERN er en internasjonal
organisasjon for forskning på partikkelfysikk, som blant annet omfatter verdens
største forskningssenter innen faget. En sånn type institusjon som forsker på
kunstig intelligens og sikkerhet, bør vi ha, foreslår DeepMind-sjefen.
Og til slutt noe som ligner på IAEA, som overvåker
utviklingen på feltet. IAEA, eller Det internasjonale atomenergibyrået, jobber
for å hindre spredning av atomvåpen.
Kanskje kunne det også vært en form for kvalitetsmerking av AI-teknologi, som blant annet handler om sikkerhet.
Toppmøte om KI og sikkerhet
Hassabis er ikke den første til å foreslå et IPCC for
kunstig intelligens. Forslaget
ble lansert i Financial Times av Eric Schmidt, tidligere administrerende direktør i google, og
Mustafa Suleyman som grunnla DeepMind sammen med Hassabis og nå er sjef i KI-firmaet
Inflection AI.
Schmidt og Suleyman har til og med et navn klart:
International Panel on AI Safety (IPAIS).
IPAIS skal, som IPCC, sammenstille kunnskap på en nøytral måte,
skriver de to. Det skal ikke drive egen forskning, eller politikk. Dermed
skal det bli et sted der private bedrifter og ledende firmaer – som gjerne driver
frem det nyeste innen kunstig intelligens – stoler på at det er trygt å rapportere.
Storbritannias statsminister, Rishi Sunak, er en sterk pådriver for disse perspektivene og for ukas toppmøte. Torsdag forrige uke annonserte han at Storbritannia kommer til å etablere verdens første sikkerhetsinstitutt for KI.
Kritikere advarer imidlertid mot at overdrevet fokus på fremtidige farer gjør at firmaer og teknologi som det burde gjøres noe med nå, for eksempel overvåkning av marginaliserte grupper og utbredt misinformasjon, slipper unna.
Faren for altfor intelligent KI
Annonse
I mai var Hassabis en av mange forskere og industriledere
som skrev under på et opprop om at
det å «redusere risikoen for utryddelse fra KI bør være en global prioritet på
linje med andre samfunnsmessige trusler som pandemier og atomkrig».
Frykten er for eksempel at noen kan bruke kunstig
intelligens til å lage biologiske våpen. Eller at superintelligent kunstig
intelligens utrydder menneskeheten.
Såkalt artificial general intelligence, AGI, er
kunstig intelligens som er like smart som eller smartere enn menneskene. Det
eksisterer foreløpig bare som en idé, og det er uenighet om hvorvidt det bør
ses som en eksistensiell trussel eller ei.
– Vi må begynne å tenke på dette og forske på
dette nå. Eller, vi burde begynt i går, sier Hassabis til The Guardian.
– Det var derfor jeg og mange andre skrev under på
dette oppropet. Det er fordi vi ville gi kredibilitet til at dette er rimelig å
diskutere, sier han.
Hun mener at det
absolutt trengs globale samarbeid for å sikre at KI utvikler seg på en trygg
måte.
– For eksempel manipulativt design, falsk
informasjon og persontilpasset innhold tror jeg vil utgjøre store utfordringer
for demokratiet, og demokrati er et globalt anliggende, sier Strümke.
Hele verden sliter
med å regulere kunstig intelligens, fordi ingen av de juridiske metodene klarer
å holde tritt med den raske utviklingen, ifølge forskeren.
– Veien fra forskningsfronten til direkte
samfunnspåvirkning er for kort. Kanskje må vi innse at reguleringer ikke vil
berge oss i den nåværende utviklingen og må tenkte nytt - for eksempel
internasjonale kompetansemiljøer som et slags AI-sikkerhets-CERN, sier Strümke.
– Enkelte, primært amerikanske, selskaper har
blitt så store at de blir premissleverandører. Disse baserer deler av
forretningsmodellen sin på å balansere akkurat på grensen til hva som er lov,
eller det effektivt lovtomme rommet som oppstår der reguleringer ikke er tolket
i relevant kontekst ennå, for eksempel å trene store språkmodeller på åndsverk.
Annonse
Det de store
aktørene gjør når de trenerer forsøkene på å regulere, er å etablere en slags
gjeldende praksis, ifølge Strümke.
Meta fortsetter for
eksempel med atferdsbasert markedsføring – altså markedsføring der de bruker
personopplysninger om deg for å rette tilpasset reklame mot deg – også etter
forbud fra det norske Datatilsynet. Argumentet deres er at de har en pågående
prosess med det irske datatilsynet og at de venter på utfallet derfra før de
endrer praksis, forklarer Strümke.
Men Strümke er ikke
noen fan av dommedagsprofetier. Hun er usikker på om hun ville signert oppropet
fra mai i år som sammenligner trusselen fra KI med blant annet atomvåpen.
– Samfunnsdebatten om kunstig intelligens har
lenge vært fryktbasert, og representanter fra de store selskapene har skapt mye
oppmerksomhet rundt utsagn om at teknologien kan bli en eksistensiell trussel
for menneskeheten, sier Strümke.
– Dette finnes det lite belegg for, og det
distraherer fra konkrete debatter rundt allerede utstrakt problematisk
teknologibruk, debatter som kan føre til innskrenkninger i handlingsrommet til
de kommersielle aktørene.
Andre mer prekære bekymringer
Lege og forsker Ishita
Barua er aktuell med sin nye bok Kunstig intelligens redder liv – AI er legenes
nye superkrefter.
Også hun er positiv
til forslaget om et overordnet organ à la FNs klimapanel for kunstig
intelligens.
– Denne teknologien utvikler seg og tas i bruk i såpass raskt tempo at det er vanskelig å holde seg oppdatert på alt det nye
på tvers av sektorer, sier Barua.
– Så ja, jeg tror det kan være lurt å etablere et
eget uavhengig, ekspertledet organ som har i oppgave å få oversikt over
forskningsresultater, evidens, kunnskapshull og etiske dilemmaer – slik at de
kan gi det beste beslutningsgrunnlaget til våre politikere.
Selv er hun imidlertid
ikke så veldig opptatt av hvorvidt KI skal overta verden eller
ikke.
Annonse
– Jeg opplever at det er andre bekymringer som er
mer prekære, sier Barua.
– Som lege frykter jeg at KI-verktøy kan bidra til
diskriminering og reproduksjon av fordommer som følge av manglende
representasjon av enkelte pasientgrupper i datasettene.
– Det er også grunn
til å frykte at det kan oppstå en ansvarspulverisering når helsepersonell
fatter beslutninger på bakgrunn av anbefalinger fra AI-systemer som i ettertid
viser seg å være feilaktige. Så jeg er mer bekymret for disse problemene
som kan oppstå i nær fremtid enn for dommedagsscenarier.
Det positive
potensialet
I sin egen
doktorgrad fant Barua ingen forskjell mellom legene som brukte kunstig
intelligens i sine undersøkelser av tarmen og de som ikke brukte det, de var i snitt like flinke. Likevel
har hun trua.
– Vi kan være mer
bevisste på hvilke positive effekter og verdifulle bidrag vi får med kunstig
intelligens, sier hun og viser blant annet til KI-verktøyet AlphaFold, et av
produktene som er utviklet av nevnte Google DeepMind.
AlphaFold kan
forutsi proteiners tredimensjonale struktur og dermed avsløre hvilken funksjon
et protein har.
– Dette har vi forsøkt å løse de siste 50 årene,
sier Barua.
– AlphaFold gjør at forskere vil være i stand til bedre å forstå sykdommer på et molekylært nivå og dermed potensielt kunne utvikle
mer målrettede legemidler på en raskere og mer effektiv måte enn vi gjør i dag.
Også Hassabis, hvis firma altså utviklet AlhpaFold, mener at KI kan være en av de viktigste teknologiene mennesket noensinne har oppfunnet, med potensiale til å revolusjonere medisinen og forskningen.
Han tror verden er langt unna å utvikle såkalt AGI, superintelligent KI.
– Men vi kan se veien som leder dit, så da bør vi begynne å diskutere det nå, sier han.