Skip to content

Under panseret på ChatGPT: hvordan funker det egentlig?

Bruken av generativ kunstig intelligens(KI) har raskt blitt utbredt innen profesjonell og privat bruk, men det er få som kjenner til hvordan innholdet faktisk blir generert. Det er all grunn til å tro at generativ KI vil bli en fast følgesvenn fremover, og da gjør vi oss tjent med å etablere et nærmere bekjentskap med teknologien. Dette vil kunne gjøre oss i stand til å identifisere styrker og svakheter, og med det bruke den mer effektivt. ChatGPT - kjent for de fleste og selve manifesteringen av generativ KI - hvordan funker det egentlig?  

KI2

En Generative Pretrained transformer 

ChatGPT er en sammensetning av chat og GPT; chat fordi chat representerer den generelle ideen om en samtalebasert interaksjon mellom mennesker og AI, hvor den kan svare på spørsmål og utføre ulike oppgaver ved hjelp av naturlig språk, og GPT for generative pretrained transformer (som fortjener en litt lenger forklaring): 

Generative referer til at modellen er i stand til å produsere naturlig språk som ligner på det som et menneske ville ha skrevet eller sagt i en gitt situasjon. Gitt en tekstsekvens som input, så generes altså en ny original tekstsekvens som output. Det er denne evnen, det å skape noe nytt, som skiller generativ AI fra andre såkalte diskriminerende modeller, som i hovedsak klassifiserer og predikerer fra eksisterende data.  

Pretrained betyr at maskinlæringsmodellen chatGPT er eksponert for enorme mengder tekstdata som stammer fra et bredt spekter av kilder, som bøker, artikler, nettsteder og samtaler. At den er pretrained, eller forhåndstrent, er det som tillater at den kan gi oss raske svar.  

Etter at pre-treningen er fullført, gjennomgår modellen en fase som kalles "fin-tuning", hvor den blir trent på et mer spesifikt datasett. Dette datasettet kan inneholde eksempler på den type samtale modellen er designet for å håndtere, som for eksempel kundeassistanse-samtaler eller medisinske konsultasjoner. 

Pre-treningen gir ChatGPT en bred forståelse av språk, mens fin-tuning gir den spesifikk kunnskap og ferdigheter den trenger for å fullføre sine oppgaver. 

Transformer referer til en bestemt type nettverksarkitektur som er brukes for å håndtere sekvenstale, som tekst eller tale. I denne arkitekturen skjer det flere viktige prosesser, blant annet oppmerksomhets-mekanismen. Oppmerksomhets-mekanismen gir mulighet til å fokusere på de mest relevante delene av teksten mens den behandler og generer et passende svar. Oppmerksomhets-mekanismen forklares best igjennom et eksempel; ta setningen «Petter, som jobber med Jonas, ga boken til Marius.»

I denne setningen har vi flere relasjoner som kan være relevante for forskjellige deler av setningen. Når mekanismen ser på ordet "ga", er "Petter" og "boken" og "Marius" sannsynligvis de mest relevante ordene. "Petter" er subjektet som utfører handlingen, "boken" er objektet som blir gitt, og "Marius" er mottakeren av handlingen.

Men når oppmerksomhets-mekanismen ser på ordet "jobber", blir "Petter" og "Jonas" mer relevante, fordi de er de to personene som handlingen "jobber" refererer til. "Boken" og "Marius" har mindre relevans i denne sammenhengen. Oppmerksomhets-mekanismen gir forskjellige vekter til forskjellige ord avhengig av konteksten de blir brukt i. Dette hjelper den med å forstå hvilke ord som er mest relevante for å forstå meningen med hvert individuelt ord i setningen. Så, i stedet for å behandle hver setning som en enkel liste over ord, er den i stand til å forstå de mer komplekse relasjonene mellom ordene i setningen.

Hvorfor ChatGPT ikke nødvendigvis forteller sannheten 

GPT er en prediktiv modell som bruker maskinlæring og naturlig språkbehandling for å forutsi sannsynlige neste ord i en gitt tekst. Den har ikke mekanismer for verifisering av informasjonskilder. Dette impliserer at svarene ikke alltid er nøyaktige eller korrekte – de er et resultat av de mest sannsynlige svarene som algoritmen tror brukeren responderer positivt på. Av den grunn bør modellen betrakes som et verktøy for å generere ideer og svar, men den erstatter ikke menneskelig vurdering, kildekritikk og informasjonsverifisering.  

ChatGPT og sanntidsinformasjon 

I dag skjer den mest utbredte bruken av chatGPT med gratis-versjonen GPT-3 som har informasjon som strekker seg til september 2021. Hvorfor er det slik? Det handler i stor grad om kostnad og optimalisering. Å trene og drifte maskinlæringsmodeller som chatGPT er enormt ressurskrevende. Bak teknologien er det en virkelig stor og risikofylt utviklingskostnad knyttet til forskning og infrastruktur. Store datasentre har under trening, og nå drift, slukt strøm – tilsvarende små byer – når flere hundre millioner brukere utfører spørringer hver dag. Det er dyrt å trene.  

Nær fremtid 

Den siste versjonen av chatGPT – GPT4 – er hva som virkelig lar teknologien få øyne og ører. Med noen utvidelser har den hele internett som omfang, og begrensningen med sanntidsinformasjon blir mindre. Utviklingen går fort. I takt med den stadige utviklingen av generativ kunstig intelligens, som ChatGPT representerer, er det viktig å forstå teknologien og dens begrensninger. Mens generativ KI som ChatGPT kan generere imponerende og sammenhengende tekster, er det viktig å huske at det ikke er en fullstendig pålitelig kilde til sannheten. For å dra nytte av teknologien på en effektiv måte, bør vi fortsette å utvikle vår evne til kildekritikk, informasjonsverifisering, menneskelig vurdering – og i det hele tatt henge på. 

 

Phillip Høili - Beige 1-2

Ta gjerne kontakt med vår strategiske rådgiver, Phillip Høili, hvis du vil vite mer eller dele dine synspunkter rundt dette.