Blogg | Knowit

Kort om is og AI på en varm sommerdag!

Skrevet av Frida Strøm Anthonisen | Jun 14, 2021 10:00:00 PM

Skrevet av Frida Strøm Anthonisen og Benita Haftorn Hildonen.

Er du vokst opp med søsken? Se for deg at du og din bror eller søster får kuleis en varm sommerdag. Dere står foran is-disken klare til å velge deres favorittsmaker (vi snakker italiensk is av beste kvalitet). Hvis søsteren eller broren din fikk flere kuler enn deg ville du vel likt å vite hvorfor?  

Meg: «hvorfor får han to kuler og jeg bare én?» 

Mamma: «fordi jeg bestemmer det» 

Meg: «men, det er urettferdig! Hvorfor får vi ikke like mange kuler?»  

Mamma: «fordi det bare er sånn!» 

Slike situasjoner kan oppleves som fryktelig urettferdig og uforståelig når man ikke forstår hvorfor «det bare er sånn». Tilsvarende gjelder ved bruk av AI. 

Forskjellige bruksområder for Artificial Intelligence 

AI er et generelt fagfelt med spesifikke teknologier til ulike bruksområder, f.eks. computer vision, maskinlæring, språkbehandling ved hjelp av e-post-, dokument-, og chatbot, profilering/prediksjon, automasjon og robotikk. 

AI er programmering og algoritmer som lar digitale enheter få tilgang til, kombinere og dele data for å lære, forklare og forutse hendelser, prosesser og trender (Knowits take on tomorrow). 

Ulike risikonivåer for AI 

EU-kommisjonen har laget forslag til en rettslig regulering av teknologien. I likhet med personvernforordningen, foreslår EU-kommisjonen en risikobasert tilnærming til bruk av AI. Det foreslås fire nivåer av risiko med ulik grad av reguleringer og krav: uakseptabel, høy, begrenset og minimal risiko.  

AI med uakseptabel risiko blir forbudt. Dette er systemer [...] som utgjør en klar trussel mot menneskers sikkerhet, eksistensgrunnlag og rettigheter. Utkastet til AI-forordningen forbyr sosiale poengsystem fordi det er for påtrengende og kan føre til at myndigheter tar kontroll over folks liv, slik som i Kina hvor innbyggere hindres i å reise hvis de begår sosiale ugjerninger.  

AI som benyttes i kritisk infrastruktur, ansettelsesprosesser, utdanning, demokratiske prosesser, kredittvurderinger og offentlige og private tjenester mm., er AI med høy risiko og foreslås underlagt strenge og klare forpliktelser. AI-systemer som er kategorisert som høyrisiko bør inspiseres dersom de skal produksjonssettes. Det må være sporbarhet og dokumentasjon som viser at systemet er blitt trent på upartiske datasett og med menneskelig tilsyn.  

Begrenset (f.eks. chatbots) og minimal risiko (f.eks. AI-støttede videospill og spamfiltre) vil i mindre grad bli regulert. 

«Fordi det er sånn» 

Eksisterende digitalisering av saksbehandlingen i offentlig sektor (også kjent som massesaksbehandling) bygger gjerne på «regelteknologi». I regelteknologien er beslutningslogikken basert på «hvis» (rettsbetingelse), «så» (rettsfølge)-logikk. Og selve regelanvendelsen (subsumsjonen), utføres av mennesker med rett kompetanse. 

AI baseres på testdata som utvikles og gjør teknologien smartere. Enn så lenge, finnes det ikke selvlærende AI som anvender juridisk metode, som subsumerer og sikrer at beslutningene som fattes er i henhold til de rettigheter og plikter enkeltindivider har.  

Ved bruk av AI og dyplæringsalgoritmer vet vi ikke hvorfor resultatet blir som det blir. Vi vet heller ikke hvilke regler som ligger til grunn for beslutningen. Utfordringen omfatter manglende transparens i systemer basert på dype algoritmer og (ukjent) læring. Noen dyplæringsalgoritmer sammenliknes gjerne med en svart boks som hverken kan forklare hva som gjøres eller gi innsikt i hvorfor en gitt input resulterer i en gitt output. Det blir det samme som å høre «fordi det er sånn» uten å få en forståelig forklaring eller innsikt i vurderingskriteriene som ligger til grunn for beslutningen. Det kan oppleves fryktelig urettferdig og i noen tilfeller helt feil, som i karakterskandalen i Storbritannia hvor algoritmemodellen ble satt sammen av historiske trender og antagelser om elevers karakternivåer (profilering).   

Informasjonskrav også ved bruk av AI 

Mange kan kanskje tro at transparens ved bruk av AI er helt uregulert? Ved bruk av AI fremgår det av AI-forordningen at utvikler skal gi informasjon til brukerenheten slik at de forstår innholdet i teknologien. I tillegg stiller personvernforordningen krav til informasjon til de berørte. Forvaltningen har også informasjonsplikt/ begrunnelsesplikt i henhold til forvaltningslovgivningen. Det betyr at det kan settes krav til hvilke typer systemer vi kan bruke eller til hvilke formål. Det vil være i strid med grunnleggende saksbehandlingsprinsipper hvis forvaltningen bruker AI som de overhodet ikke skjønner noe av selv. 

Rett verktøy til rett jobb 

AI er fremtiden og teknologien kan hjelpe oss til å jobbe smartere og mer effektivt ved f.eks. automasjon av repetitive rutineoppgaver. Men AI kan ikke alene og uten videre erstatte menneskelig intelligens når avgjørende beslutninger for enkeltindividers rettigheter eller plikter skal fattes. AI medfører åpenbare begrensninger med tanke på transparens, etterprøvbarhet, rettssikkerhet og rettsutvikling. Manglende åpenhet kan i tillegg utfordre tilliten og viljen til å dele personopplysninger. Allerede i forslaget til ny forordning for regulering av AI ser vi at det ikke er fritt frem og at grunnleggende rettigheter setter premisser for ansvarlig bruk av AI.