Kinas sosiale kredittsystem straffer eller belønner innbyggerne ut ifra oppførsel. Nå vil EU forby den typen bruk av kunstig intelligens. Selv om EU har vist evne til å regulere personvern tidligere er det sikkert at det lykkes i denne omgang?

EU vil forby innføring av Kinas sosiale kredittsystem

KRONIKK: Nå skal bruk av kunstig intelligens tøyles i Europa. Men klarer vi å stappe ånden tilbake i flasken når den først er sluppet ut?

Kunstig intelligens har en lang rekke fordeler, og har ført til innovasjon og vekst innen forskning, næringsliv og offentlig forvaltning. Uansett hva du måtte finne på er sjansene svært store for at du gjentatte ganger i løpet av en vanlig dag bruker tjenester og produkter der kunstig intelligens inngår. Fordelene til tross: svært mange har også uttrykt bekymring for at kunstig intelligens har en rekke negative konsekvenser. Europakommisjonen lanserte nylig sitt forslag til regulering av kunstig intelligens. Forslaget er svært ambisiøst, og vil kunne får store konsekvenser for svært mange aktører som utvikler og bruker kunstig intelligens i sine produkter og tjenester. Spørsmålet er bare om det er mulig å stappe ånden tilbake i flasken.

Vil tøyle høyrisiko-systemer

Reguleringene tar sikte på å tøyle bruk av kunstig intelligens som kan klassifiseres som høyrisiko. Dette innebærer systemer som potensielt har negative konsekvenser for helse, sikkerhet eller grunnleggende rettigheter. Her omfattes for eksempel bruk som er relevante for identifisering og klassifisering av personer, sikkerhet knyttet til sentral infrastruktur, utdanning og arbeid, ansettelser, tilgang til offentlige tjenester, juss og rettssystemet, samt migrasjon og grensekontroll.

Bruk av ansiktsgjenkjenning og annen biometri utfordres, og kommisjonen vektlegger spesielt behovet for å kontrollere bruken av kunstig intelligens for å håndheve lov og orden og bruk av kunstig intelligens innenfor rettsvesenet. Samtidig nevnes utdanning, arbeid og rekruttering spesielt. Dette er områder der vi har sett en rivende utvikling i bruk av kunstig intelligens i for eksempel læringsdataanalyse og i skole og høyere utdanning, i rekrutteringsprosesser, og i overvåkning og påvirkning av arbeidstakere. Denne type anvendelser vil ikke automatisk forbys, men vil underlegges nye og strenge krav.

Dette skal bli forbudt

Samtidig vil noen aktiviteter forbys direkte, fordi de innebærer en «uakseptabel risiko». Regjeringen vil for eksempel ikke kunne innføre systemer à la det vi har sett vokse frem i Kina, der innbyggerne rangeres i såkalte «social score»-systemer. (Blant annet omtalt av NRK.) Samtidig vil ikke politiet kunne bruke systemer som muliggjør fjernidentifisering, for eksempel systemer for ansiktsgjenkjenning. Slike systemer utgjør høy risiko i andre domener, men forbys altså i denne sammenheng.

Noe av det mest interessante er kommisjonens ønske om å forby manipulative systemer som utfordrer individers frie vilje. Dette kan for eksempel være bruk av persondata og kunstig intelligens-systemer for å «dulte» individer i ønsket retning, som jeg har omtalt tidligere i Dagens Næringsliv. Når slike systemer blir effektive nok kan de i teorien bli tvingende, og dette skal altså forbys. Kommisjonen nevner her spesielt faren for at utsatte og sårbare grupper utnyttes og usettes for påvirkning de ikke kan motstå.

EU har allerede vist at de våger

Kunstig intelligens og stordata er i og for seg ikke nye fenomener, men kombinasjonen av dem har i løpet av det siste tiåret ført til en revolusjon innen datadrevet innsikt, innovasjon og næringsutvikling. Data er i seg selv ikke spesielt farlig, og det er viktig å skille mellom data om personer og annen type data. GDPR-lovgivningen om personvern kom som en følge av et behov for å stagge den voksende og umettelige tørsten på data.

Her viste EU tydelig at de både våget og ville ta opp kampen med teknologigigantene og gå foran internasjonalt. De viste også at politikk og juss ikke er maktesløse mot teknologien, noe man ofte får inntrykk av når teknologievangelistene omtaler enhver teknologisk utvikling som fremskritt som ikke kan stoppes. Kontroll over persondata var et nødvendig første skritt.

Kan det bli et tannløst prosjekt?

Nå ser EU ut til å ta et nytt skritt, og sikter mer eksplisitt på hvordan data innhentes og anvendes for å påvirke menneskers liv og våre samfunn. Koblingen mellom regulering og kunstig intelligens og persondata er opplagt, og all forbudt bruk og høyrisikobruk er basert på en kobling mellom data og systemene for analyse og anvendelse.

Vi vet ennå ikke hvordan dette vil slå ut i praksis, men det er tydelig at EU nå tar truslene kunstig intelligens og stordata utgjør på stort alvor. Signaleffekten i seg selv er svært viktig, og det er et varsku for alle som baserer sin virksomhet på at tilgangen til mer og mer data – og friheten til å bruke denne relativt fritt. De kan krysse fingrene for at problemene forbundet med å definere manipulasjon og utnyttelse, for eksempel, sørger for at initiativet blir tannløst.

Det er imidlertid langt ifra et umulig prosjekt, og GDRP har allerede tydelig demonstrert hvor raskt og tydelig det regulatoriske landskapet kan endre seg.


LES OGSÅ:

Vi vil gjerne høre fra deg!

TA KONTAKT HER
Har du en tilbakemelding på denne kronikken. Eller spørsmål, ros eller kritikk til Forskersonen/forskning.no? Eller tips om en viktig debatt?

Powered by Labrador CMS