Det er bare et snaut halvår siden språkmodellen ChatGPT ble lansert av Microsoft. På kort tid satte den verdensrekord i antall brukere, og populariteten står seg fortsatt.
Men mange er bekymret for hva den kan brukes til.
22. mars 2023 skrev mange i tech-miljøet under på et opprop fra organisasjonen Future of Life om å sette utviklingen av slike språkmodeller på vent til det har kommet bedre reguleringer.
Siden oppropet ble lansert, har over 27.000 personer skrevet under. Blant de som har undertegnet, finner du tech-gründer Elon Musk og en av medskaperne av Apple, Steve Wozniak, for å nevne noen.
Pierre Lison er blant dem som har skrevet under. Han er forsker ved Norsk Regnesentral og såkalt førsteamanuensis II ved Institutt for informatikk på Universitetet i Oslo.
– Hvorfor skrev du under?
– Bekymringen min er at dette er teknologi som nå rulles ut i all hast av tech-giganter, uten å ta seg tid til å vurdere hvilke problemer som kan oppstå når den tas i bruk. For eksempel kan denne typen språkmodeller dikte opp fakta i stor skala og bidra til økt sikkerhetsrisiko, sier Lison.
Han forteller at dette er et kappløp mellom to–tre store aktører, og det ser ut som at deres hovedfokus er å være først ute med noe nytt.
– Vi bør ha en bredere offentlig samtale om hvordan denne teknologien kan brukes til det beste for samfunnet. Oppropet er et ønske om økt fokus på regulering av disse teknologiene.
– ChatGPT er en lystløgner
Et av problemene som nevnes i oppropet, er desinformasjon og propaganda. Med språkmodeller er det enklere å lage falsk informasjon i store mengder.
– ChatGPT er en lystløgner som kan dikte opp fakta i stor skala. Den skriver tekster som blir tatt for god fisk. Systemet har ikke mulighet til å si «jeg vet ikke», så da dikter den opp ting. Uten kritisk sans vil dette kunne føre til desinformasjon. Trenger verden enda mer tekster som ikke inneholder riktig informasjon? spør Lison retorisk.
Han legger også til at han er bekymret for at utviklingen av avanserte språkmodeller har ført til en maktkonsentrasjon.
– Det er noen få tech-giganter som får enda større innflytelse og monopol på teknologien fordi det å utvikle språkmodeller krever vanvittig store ressurser og data. De sitter på nøkkelteknologi som gjør at de kan utvikle dette videre, uten at forskere får tilgang til data og regnekraft på samme vilkår, forklarer Lison.
Han mener også at det er for liten gjennomsiktighet i utviklingen av språkmodeller:
– Et krav vi bør stille til tech-selskap som utvikler store språkmodeller, er å offentliggjøre og dokumentere hva slags datakilder språkmodellen blir trent på. Det vil gi oss en bedre oversikt over kunnskapsgrunnlaget som ligger bak hver modell og å avdekke mulige skjevheter og mangler. Det vil også gjøre det lettere å identifisere brudd på opphavsrett, sier Lison.
Han mener også at det bør være en eller annen form for merkeordning. Slik kan det komme frem hvilke tekster som er produsert av ChatGPT.
– Det finnes allerede i dag vannmerkingstekniker. De kan brukes til å gjenkjenne hvorvidt en tekst er redigert av en AI-modell eller ikke. Men det blir nok vanskelig å få på plass en ordning hvor alle aktører går med på å legge inn slike vannmerker i tekstene de produserer, mener han.
Internett er et lovløst sted
En av dem som ikke har skrevet under, er professor i informatikk, Jan Tore Lønning. Han er Pierre Lisons kollega og forklarer at de som har laget kampanjen først og fremst er en rekke enkeltpersoner, ikke tech-selskapene selv.
Han mener de som har skrevet under først og fremst er bekymret for utviklingen:
– Det de er redde for, er at utviklingen går for fort og at man mister kontroll. Derfor har de foreslått å stoppe utviklingen av store språkmodeller som er større enn den største som er laget nå. De vil stoppe det i seks måneder slik at man kan prøve å lage noen reguleringer. Men det er veldig uklart hva de vil, sier Lønning.
En av grunnene til at han selv ikke har skrevet under, er at han mener at det kan være vanskelig å pause utviklingen mens reguleringene lages.
– Internett er et litt lovløst sted. EU lager reguleringer, men det tar mange år. På hvilket nivå de ønsker disse reguleringene, er uklart. Skal det være frivillig å sette utviklingen på pause? Hva med selskapene som ikke slutter seg til, undrer han.
Akkurat som med våpenavtaler vil det også være de som ikke vil undertegne.
Lønning sier at det også er uklart i oppropet hva som menes med å sette utviklingen på pause. Det er nemlig flere «lag» i en praterobot som ChatGPT, enn bare språkmodellen.
I tillegg mener han at en pause vil være et enormt konkurransefortrinn for de som er ledende på feltet i dag.
– Hvis vi skulle stoppe utviklingen nå, vil det gi et enormt konkurransefortrinn for Microsoft, som har ChatGPT i dag. Skal de andre, som ligger litt etter, ikke få lov til å konkurrere med dem? Jeg synes oppropet er veldig uklart, og jeg er ikke sikker på hva man kan regulere, sier Lønning.
I motsetning til Lønning mener Lison at vi ikke bør gi opp å regulere tech-industrien, selv om det er vanskelig:
– Akkurat nå er det veldig lite regulering, men EU jobber med nye reguleringer, selv om det ikke omfatter alt. At det er vanskelig å regulere IT-verdenen generelt, betyr ikke at vi kan gi opp. Å ikke engang prøve vil være veldig pessimistisk. Noen reguleringer har vi tross alt fått til. Og helt uten går det ikke, mener Lison.
Frykten for maskinene
Lønning mener noen grupperinger blant de som har skrevet under, er generelt tech-skeptiske.
– Det er to ytterpunkter som er skeptiske: Det ene er de som er litt redde for maskinene og at de skal bli for kraftige og i siste omgang at de skal ta over og gjøre menneskene til slaver, sier Lønning.
Den andre siden som er skeptiske, mener at ChatGPT egentlig ikke kan noe. Den bare gjentar det som er blitt sagt. Den er altså alt annet enn intelligent. Det kan også pekes på som et problem.
Lønning forteller videre at maskin-frykt er noe vi har hatt siden maskinene kom. Selv den første «chat-boten», Elisa, som kom på midten av 1960-tallet, fikk skaperen selv til å bli skremt:
– Han som laget Elisa, ble veldig redd for det han hadde utviklet og skrev en bok om det. Det er femti år siden. Hvis vi ser på Elisa i dag, så ville vi ikke bli veldig bekymret, sier Lønning.
Teknologiskepsis er med andre ord ikke noe nytt. Likevel legger Lønning til at ChatGPT kan helt andre ting enn maskiner kunne for kort tid siden.
ChatGPT kan hjelpe å programmere
Noe av grunnen til at ChatGPT har blitt så populært, er at det har mange nyttige bruksområder. Lønning forteller at det blant annet går an å gi den kodesnutter hvorpå ChatGPT forteller hva som er feil eller peker på forbedringer.
– Du kan også forklare den hva du vil og så skriver den koden, sier han.
ChatGPT er en språkmodell. For språkmodellen er det å programmere egentlig bare en form for språk. Utover programmering kan den lage tekster, oversette og svare på spørsmål.
– Litt enkelt kan man si at det er et avansert statistikkprogram for hvilke ord som følger etter hverandre. På toppen av dette er den trent for å virke godt i en dialog og svare på spørsmål, sier Lønning.
– Hva slags begrensninger ligger inne i en slik språkmodell?
– En begrensning ligger i måten den er trent på. Den blander sammen opplysninger fra flere kilder og kan blande sammen forskjellige ting. Dessuten er det ikke alt den vet, men den vet ikke at den ikke vet. Da foreslår den et eller annet. Vi sier at den hallusinerer. Det vil si at den bare finner på ting, forklarer Lønning.
Hvis det er feilinformasjon på nettet som gjentas tilstrekkelig ofte, så vil den også kunne snappe opp det.
Et annet problem er at den ikke har noe klart skille mellom fakta og holdninger. I vanskelige spørsmål, som kjernekraft og vindkraft, kan den fremstille et syn som det riktige.
Lønning forklarer at ChatGPT har vært gjennom en form for renseprosess, så den i utgangspunktet for eksempel ikke kunne være rasist. Kanskje har den fått litt mer i denne prosessen. Det har vært målt at den har holdninger som samsvarer med det som er gjengs i Silikon Valley.
– Den er nok mer liberal enn flertallet i Amerika i kultur- og moralspørsmål, sier Lønning.
Utdrag fra oppropet på engelsk
- «Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable.»
- «AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.»
Les også disse sakene fra Universitetet i Oslo:
forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER