AI er et system hvor en eller flere maskinlæringsmodeller produserer datadrevne prediksjoner. Systemet benytter prediksjonene til å velge datadrevne handlinger basert på tidligere digitale registreringer eller transaksjoner.
Digitale registreringer eller transaksjoner kan danne grunnlaget for en datadrevet prediksjon, og kan for eksempel representere hvilken sannsynlighet du har for å kjøpe Nike treningstøy neste gang du handler på Zalando når du er på vei til å legge Nike Airforce i handlekurven. Dette er basert på tidligere digitale registeringer og transaksjoner, ofte sett i statistisk sammenheng med andre som har tilsvarende handlemønster som deg.
Hovedårsaken til å vi opplever en formidabel utvikling av AI-løsninger nå er at det er samspill mellom tre viktige faktorer på samme tid.
De tre faktorene er:
Datadrevne maskinlæringsalgoritmer
Sterke prosessorer
En digitalisert samfunnsorganisering som frembringer store datamengder
Hvilke steg er så viktige i utviklingen av en machine learning modell?
Oppsettet av machine learning-algoritmene er selve hjernen i AI-løsningen. Generelt sett er det åtte steg for å komme i mål.
1. Med utgangspunkt i problemstillingen blir et datasett definert. Problemstillingen må ofte modifiseres, fordi eksisterende datafangst ikke bestandig samsvarer med hvilken problemstilling oppdragsgiver har.
2. Data må tilrettelegges for å imøtekomme algoritmenes statistiske forutsetninger knyttet til standardisering, imputering av manglende verdier til 0 eller snitt, eller statistiske tilordnede verdier basert på ML-algoritmer (feks. når Ruter retter opp kjøreretningen til en tur som er blitt feil på grunn av omdirigering), imputering av outliers (som ut fra analyser og domenekunnskap er betraktet å være outliers) og variablenes målenivå. Sistnevnte kan generelt sett løses gjennom å utvikle dummy-variabler (gjensidig utelukkende verdier med verdiene 0 og 1).
3. Ideelt sett deles datasettet opp i tre deler med ett til modellbygging (treningssett), ett datasett til å teste modellens treffsikkerhet (testsett) og ett til datasett for å teste modellens generaliserbarhet (validerings-datasett). I en del markedsmodeller har det vist seg hensiktsmessig med en 60/20/20-fordeling for trenings-, test- og validerings-datasett.
4. Deretter velger man en algoritmehovedgruppe tilpasser problemstillingen, og flere modellprototyper bygges og trenes på data. Machine learning-algoritmene er delt inn i tre hovedgrupper:
Unsupervised learning som ikke er basert på en fasit, men søker å finne mønstre i data. Eksempler er kundesegmentering og deteksjon av svindel.
Reinforced learning er en type forsterkende læring basert på at agenter eller programvare søker å finne den gunstigste løsningen til et problem ved å definere problemet innenfor en kontekst, og gir belønninger eller straff for om oppførselen fører agenten nærmere eller lenger fra løsningen. Inspirasjonen er hentet fra behaviorisme innenfor psykologien. Det er den minst utforskede grenen innen maskinlæring, og er metodikken som lot forskere slå verdens beste spillere i sjakk, profesjonelle DOTA-team og Starcraft-spillere. Figur 1.1 nedenfor illustrerer i en forenklet modell hovedforskjellene mellom de ulike algoritmegruppene.
Kilde: Reinforcement Learning 101
5. For å vurdere om modellene har potensiale for å være stabile, kan en førstehånds sjekk være å foreta en vurdering av om modellene trekker i samme retning mht hvilke statistiske bidrag features eller kombinasjonen av features gir i ulike modeller.
6. Modelltrening gjentas til prediksjonsevnen tilfredsstiller gitte statistiske krav og/eller forretningsmessige akseptansekrav.
7. Steget der modellen(e) settes i produksjon.
8. Monitorering av modellens prediksjonsevne. Etter en tid i produksjon vil modellens prediksjonsevne bli svekket, og den må trenes på nytt med oppdaterte data eller pensjoneres og erstattes med en ny konkurrerende modell.