KI revolusjonen er her – 5 tips til CISO
Kunstig intelligens (KI) gir enorme muligheter for innovasjon og effektivisering, men medfører også sikkerhetsutfordringer knyttet til personvern og datasikkerhet. Hvordan kan virksomheter dra nytte av KI uten å risikere datalekkasjer eller kompromittere sensitive opplysninger? I dette innlegget ser vi på praktiske sikkerhetstiltak og strategier som hjelper deg med å balansere gevinstene ved KI med trygg håndtering av dataene dine.
KI-revolusjonen er over oss, og generativ kunstig intelligens (KI) blir brukt til et bredt spekter av oppgaver. Dette skaper enorme muligheter, men også behovet for økt bevissthet rundt teknologien og de valgene vi tar i bruken av den. Uten denne bevisstheten kan vi risikere å kompromittere sikkerheten og personvernet til organisasjonen.
Generativ KI endrer måten vi jobber på
Så godt som «alle» bruker KI til forskjellige oppgaver, HR-avdelingen kan bruke KI for å lese store mengder søknader raskt. Samtidig bruker blivende ansatte KI for å skrive søknader i høyere og høyere grad, og en ansatt kan bruke KI for å gjøre deler av jobben sin, for eksempel skrive rapporter eller generere kode og konfigurasjon.
Når vi bruker KI ukritisk, kan vi miste viktig innsikt og overse sikkerhetsrisikoer. Bevissthet om teknologien og kritisk tenkning rundt dens bruk er derfor avgjørende for resultatet.
Forskjellen mellom KI og alle andre teknologier ligger i kraften og brukervennligheten. KI er enkelt forklart en beregningsmodell med tilhørende data, et grunnlag som brukes for å tilpasse, eller trene beregningsmodellen. Svarene er det som modellen mener er statistisk riktige. Språkmodellene, LLM - Large Language Model, som nylig fått et oppsving er et subset av KI. I disse er beregningsmodellen tilgjengeliggjort ved at man enkelt «snakker» med modellen og får «svar» i tekst eller bilde. Aldri før har «alle» hatt full mulighet å jobbe i et delt datasett på den samme koden samtidig på denne måten.
5 råd til CISO
Jobben til en CISO er hovedsakelig å balansere risiko mot mulig gevinst i linje med selskapets mål. Ny teknologi innebærer ny risiko og nye tiltak.
1 – Ta ledelsen
Etabler klare policyer og kjøreregler. Ved å ha tydelige forventninger fra start etableres godt lederskap. Bruk av KI og hvilke løsninger som kan brukes til hva må kommuniseres og innarbeides.
Utdanne brukerne i hva, når og hvordan løsningene kan brukes. Alle løsninger egner seg ikke til alt, og som alle andre verktøy må KI brukes på riktig måte for å være effektiv og trygg.
Ansatte vil alltid gjøre sitt beste for å gjøre en god jobb, derfor kan brukere prøve å omgå begrensende sikkerhetstiltak. Kompetanse og bevissthet på egen adferd bidrar til å redusere risikoen ved bruk av nye verktøy.
KI forsterker behovet for en god kultur og god adferd. En sterk sikkerhetskultur gir langsiktige fordeler ved å gjøre sikkerhet til en naturlig del av arbeidsflyten og bidrar til varig reduksjon av den totale risikoen. Dette bygger man over tid, med tydelig lederskap, opplæring og involvering.
2 – Forstå brukeren
Generativ KI-modeller bygger på statistikk og svarene blir ofte repetisjoner på ting som allerede er kjent i modellen.
Svaret fra en Generativ KI-modell er en statistisk representasjon av opplæringsgrunnlaget. Hvis modellen har lite data, blir svaret deretter.
Hvis HR bruker KI til sine arbeidsoppgaver, fører det til flere risikoer. I vårt eksempel med å velge den riktige kandidaten vil kan innebygget bias i modellen føre til at feil kandidat velges fordi spørsmålene blir en del av opplæringsgrunnlaget. HR sparte seg for mye jobb, men på grunn av bruken klarte de ikke å finne den riktige kandidaten. Og hva med personlige data?
Det samme gjelder andre oppgaver. Når vi spør om et sett med kode kan det bli en kopi av noe fra GitHub, eller StackOverflow. Denne koden kan være full av feil, eller beskyttet av opphavsrett. Forskere fra MIT har funnet at KI fører til marginal effektivitetsøkning for senior-programmerere. Samtidig som en annen fant ut at KI generert kode kan inneholde så mye som 41% flere bugs, med både tapt arbeidstid og datalekkasje som konsekvenser.
Som ledere er det vår oppgave å veilede kollegaer og ansatte til å ta de riktige valgene. Vi vil alle bruke de verktøyene som passer oss best. Når vi føler oss hørt og får de ressursene vi trenger, blir vi mer engasjerte i å følge god sikkerhetspraksis. Det er altså viktig å tilgjengeliggjøre verktøy på en måte som gir mening for den enkelte bruker. Ved å være bevisst på brukernes behov kan verktøyene brukes uten å påføre unødvendig risiko.
3 – Risikobasert tilnærming
KI forordningen legger føringer for hvordan KI kan brukes. Samtidig stiller forordningen krav til hvilket bruk som faller under hvilken risiko. Forordningen innføres suksessivt fra 2. februar 2025 og har flere gode eksempler man kan bruke i støtten til risikovurderingene. For å forenkle innføringen er det en standard for risikostyring i forhold til KI: ISO/IEC 23894:2023, denne kan med fordel brukes i et ISMS.
"KI-forordningen er vedtatt: Vår sjekkliste til deg som leder" for mer info.
Evaluer risikoen i forhold til løsningens e.g. kvalitet, lokalitet, avtaleverk og bruk. Spørsmål som kan stilles, er om dette en løsning for å evaluere CV-er, generere Kubernetes oppsett, eller for å evaluere pasienters symptomer?
Publik KI, som ChatGPT free eller plus, deler data og beriker modellene basert på brukernes input. Bruken kan føre til datatap og lekkasje av forretningshemmeligheter, men kan være hensiktsmessig for noen oppgaver.
For noen oppgaver er et entrepriseabonnement en god løsning. Lisensavtalen til noen enterprise abonnement (ChatGPT) garanterer at brukernes data ikke deles med andre. Det stiller dog krav til at du som kunde stoler på at leverandørene ikke misbruker data eller endrer avtalen, og at brukerne har kunnskap om hvilke data som kan deles med modellen. Prisen er også ofte basert på bruk og kan bli dyr i lengden.
En lokalt oppsatt løsning kan være bedre. Privat KI er som å ha en privat sky eller on-prem løsning, løsningene etableres i eget datasenter eller privat sky. Det som kreves for privat KI er datakraft og strøm. Løsningene kan bli billigere å bruke i lengden, samtidig som man garanterer at data ikke kommer på avveie. I tillegg kan lokale løsninger være domene-spesifikke.
Hør vår podcast episode om KI forordningen ⬇️
4 – Etabler hensiktsmessige teknologiske kontroller
Zero trust tankeganger er til stor hjelp. Den grunnleggende antakelsen i Zero trust er at nettverket allerede er kompromittert. Ved å bruke en enkel trusselvurdering ser vi når og hvilke data som kan få lov til å sendes ut av systemet. Fokus flyttes fra perimetersikring til sikring av kritiske tjenester, segmentering og logging. KI er et fantastisk hjelpemiddel i logganalyse og automatiserte alarmer i våre SIEM-tjenester. Det er dog samme utfordringer med logganalyse som annen bruk av KI.
Zero Trust" er en sikkerhetsmodell og filosofi som utgår fra at ingen brukere eller systemer automatisk får tillit, uansett om de er innenfor eller utenfor organisasjonens nettverk. Modellen er radikalt forskjellig fra klassisk tre-lags modell da antakelsen er at infrastrukturen allerede er komprommitert fremfor at en ekstern inntrenger prøver å kommer seg inn. |
Tilgangsstyring vil bli mere relevant over tid. Så lenge brukeren har kontroll selv og legger inn data i LLMer er det opp til brukeren hva som sendes. Straks KI systemene blir integrert direkte på maskinen endrer dette seg. LLMen får da tilgang til alt brukeren selv har tilgang til.
5 – Etabler gode avtaler
Grunnlaget i god forretning er gode avtaler tydelig definert ansvar og forpliktelser bidrar til å ansvarliggjøre leverandører. Evaluere avtalen godt før signering, å signere en avtale bare fordi at andre gjør det er en farlig veg å gå. Eksempler fra blant annet sky-leverandører her i Norge, har vist leverandørens rutiner kan være vel så viktige som dine egne. Jo mer tillit vi legger hos leverandøren, desto viktigere blir avtalene. Dette gjelder også for KI. Med en entreprisemodell for leveranse av KI er det viktig å påse at avtalen er i henhold til selskapets behov i forhold til risiko. Som kunde er det viktig å huske at din bedrift alltid er juridisk ansvarlig for egne data.
Det jobbes for tiden med å ta frem modeller for bruk og anskaffelse av KI som skytjeneste eller del av skytjenester. Foreløpig kan man bruke de vanlige modellene for anskaffelse av skytjenester. Skribentens favoritt er CSA CAIQ og CAIQ Lite. Disse to rammeverkene brukes til sky, og gir en fin oversikt til flere relevante spørsmål og kan brukes i avvente på andre, bedre tilpassede standarder for kjøp av KI. CSA utarbeider for tiden en ny CAIQ for sky og det samme gjøres i helsesektoren.
CAIQ står for Consensus Assessments Initiative Questionnaire og er et spørreskjema utviklet av Cloud Security Alliance (CSA) for å hjelpe organisasjoner med å evaluere sikkerheten til skyleverandører. |
Sikkerhetsutfordringer og KI
For CISO-er er den raske adopsjonen av KI i virksomheten både en mulighet og en stor utfordring. Mens KI kan effektivisere oppgaver og gi økt innsikt, reiser det også komplekse sikkerhetsspørsmål.
CISO-er står overfor en skygge-IT-lignende situasjon der ansatte tar i bruk KI til ulike oppgaver uten kontroll eller nødvendig kompetanse. Samtidig kan det fort virke demotiverende å oppleve at man ikke får anledning til å benytte nye hjelpemidler, når man gjør sitt beste for å levere høy kvalitet på kort tid. Med dette innlegget ønsker jeg å hjelpe CISO med å balansere behovet for innovasjon med kravene om sikkerhet og personvern, samtidig som man sikrer at både teknologiske løsninger og menneskelige prosesser følger regelverk.
Alt dette krever en helhetlig tilnærming som involverer risikovurderinger, kultur og tydelige rammeverk.
Har du spørsmål eller lyst til å ta en prat?
Kontakt oss på post@knowit.no eller gunnar.soderman@knowit.no.
Referanser:
Gen AI for coding (krever tilgang)
Kravmatrise: Cloud Controls Matrix and CAIQ v4
Standard Norge NS-EN ISO 27269:2022 (krever tilgang)