Home » Digitalisering » Sikkerhet i kunstig intelligens
Sponset

Med fjorårets nasjonale strategi for kunstig intelligens (KI) tar Norge et steg mot den rivende utviklingen KI bringer. Spesielt nisjeområder som Norge utmerker seg i digitalt –industri, næringsliv og offentlig sektor – står overfor en spennende fremtid. Men i tillegg til de tradisjonelle cybertruslene er det noen nye utfordringer med KI.

Tor Saltveit

CISO, Huawei Norge

Ansvar

En sentral utfordring for KI er eierskap. Eksempelvis kan et smart bygg ha en byggherre som eier en del data relatert til bygget og bruk av det. Så er det selskaper med deres ansatte som leier plass. Det vil være tjenesteleverandører som ønsker å forstå behov for det de leverer, fra parkeringsplasser til sitteplasser, kaffe, strøm, lys, barnepass med mer. Og alt forvaltes kanskje av en teknologileverandør som fanger, korrelerer og lærer basert på det totale settet av tilgjengelig data, kanskje sammenstilt med data fra andre dataleverandører.

I en slik sammenheng, hvem eier hvilke data og læringen gjort basert på de, hvem har et ansvar for å forvalte de, og hvem stilles til ansvar om de misbrukes? Roller, dilemmaer som kan oppstå samt mekanismene man velger for å løse de bør avklares tidlig i prosessen.

Etikk

Ikke minst er det en utfordring hvilke etiske valg som melder seg i bruken av kunstig intelligens. Det ofte brukte eksempelet er om en bil ikke kan unngå å kjøre på en fotgjenger, hvordan skal bilen prioritere? Er unge mennesker mer verdt enn gamle? Er det forskjell på kvinner og menn?

Vi er i dag litt skjermet fra å ta stilling til disse problemene, fordi mennesker ikke alltid har reaksjonsevne til å påvirke en akutt situasjon, eller oversikt til å se hvordan de kan påvirke komplekse situasjoner. Dette vil endre seg med maskiner, og selv om mange av disse spørsmålene er vanskelige å besvare, så er det også viktig å ikke overlate de til tilfeldighetene.

Utilsiktet eller endret funksjonalitet

Men kanskje den største nye utfordringen med KI er å sikre at algoritmen faktisk gjør det den skal, verken mer eller mindre. Trusselaktører har tradisjonelt kunnet angripe gjennom forsyningskjeden og endre algoritmer. I fremtiden vil de kunne oppnå det samme gjennom å mate en KI data som påvirker læringen, og dette kan de potensielt oppnå uten å angripe systemet direkte. Selv uten noen trusselaktør kan faktisk en kunstig intelligens lære å ta farlige beslutninger.

Teknologiske pionérer som Stephen Hawking, Elon Musk og Bill Gates har derfor uttrykt bekymring for hva KI kan bringe. Hawking har uttalt at KI vil være «enten det beste eller det verste som skjer menneskeheten – vi vet enda ikke hvilket det blir».

Selvstyrte våpensystemer, finansielle verktøy som forstyrrer verdensøkonomien med snevert eller kortsiktig profittfokus, maskiner som ser mennesker som trusler fremfor en særegen art – viktigheten av å skape felles, robuste og standardiserte sikkerhetsløsninger, inkludert en grundig kvalitetssikring av funksjonaliteten både fra starten og mens i drift, har aldri vært større.

Av: Tor Saltveit

Neste artikkel