Maskinlæring

Mye av det som kalles kunstig intelligens er i praksis maskinlæring, som er en måte å utforme algoritmer på hvor du ikke tar stilling til hvordan algoritmen ser ut, men kun til resultatet. Ordet har fått en nesten like mystisk klang som kunstig intelligens, fordi vi vanligvis bruker ordet læring om å tilegne oss en dyp forståelse av tema. Her betyr læring noe langt enklere.

Cassie Kozyrkov, som jobber med kunstig intelligens i Google, forklarer det slik at maskinlæring bruker mønstre i data til å sette merkelapper på ting. Enkelt og greit.

Når man jobber med maskinlæring, starter man med et blankt og dumt system som oppfører seg mer eller mindre tilfeldig, men hvor vi er i stand til å vurdere om resultatet er riktig eller feil. Hver gang dette fører til et feil svar på spørsmålet man stiller, “straffer” man algoritmen slik at den gir færre slike resultater i fremtiden. Riktige resultater “belønnes”, slik at vurderingene som førte til resultatet videreføres.

For et bildegjenkjenningssystem betyr dette at vi mater systemet med millioner av bilder som vi allerede vet hva er. Bilde 1 er en katt, bilde 2 er en annen katt, bilde 3 er en hund, og så videre. Vi ønsker oss en algoritme som gjenkjenner katter. Derfor viser vi den alle bildene og spør om bildet er katt eller ikke katt. Så forteller vi algoritmen om svaret var riktig, slik at den kan justere seg selv. Etter å ha gjort dette veldig mange ganger, sitter vi igjen med et system som kan kjenne igjen katter.

Det vil si, systemet vil først og fremst kjenne igjen de kattene det har blitt trent opp til å kjenne igjen. Systemet er med andre ord ikke bedre enn datagrunnlaget sitt, noe som blant annet innebærer at eventuelle fordommer eller feilaktige forutsetninger som er bygget inn i datagrunnlaget vil bli videreført i systemet, slik for eksempel rasistiske og absurde personkarakteristikker inngår i det viktige datasettet ImageNet.

Et anet eksempel på tvilsom maskinlæring er den som lå bak den berømte påstanden om at 47% av dagens jobber kan automatiseres. For å komme fram til dette tallet, tok en gruppe eksperter i 2012 stilling til automatiseringsmulighetene i 70 yrker de kjente godt til. Så brukte de dette som treningsdata for en algoritme og matet den 600 andre yrker. Det er denne algoritmen som kom fram til 47%, uten altså å ha noen dypere forståelse av hva yrkene gikk ut. Påstanden gjenspeiler med andre ord en grov forenkling av hva en liten gruppe eksperter tok stilling til for ti år siden, og har lite verdi.

Generative adverserial networks

Noen av de mest imponerende maskinlæringsalgoritmene er de som brukes til å skape bilder og video som ser ekte ut. Du kan se slike bilder på This Person Does Not Exist, hvor du får opp et bilde av et tilfeldig generert ansikt hver gang du refresher siden. En tilsvarende metode brukes til å skape falske videoer basert på bilder av ekte mennesker, deep fakes. Slike algoritmer har tilsynelatende et kreativt og analytisk element i seg som man kan være fristet til å kalle kunstig intelligens.

Et fotografi generert av algoritmen StyleGAN2

Likevel er ikke disse algoritmene så forskjellige fra algoritmene som kjenner igjen katter i eksemplet over. En av metodene de gjør bruk av er Generative adverserial networks (GAN), hvor du setter opp to algoritmer, en som på forhånd er trent opp til å måle resultatet vi ønsker oss, og en som bruker tilbakemeldingene fra den andre algoritmen til å skape noe som oppfyller dette kravet.

Tenk på det som at du først skaper en algoritme som kjenner igjen kunstforfalskninger, og deretter en algoritme som forfalsker kunst. Disse konkurrerer med hverandre helt til resultatet er troverdig.

Ekte van Gogh-maleri til venstre, falsk til høyre

La oss si at vi tar algoritmen som kjenner igjen katter, og kobler den til en algoritme som i utgangspunktet genererer tilfeldige bilder. Hver gang den genererer et bilde, får den beskjed om i hvilken grad det ligner på en katt. Vurderingene som fører til kattelignende bilder videreføres, og etter å ha gjort dette veldig mange ganger har du en algoritme som er i stand til å “lure” kattegjenkjenningsalgoritmen.

Resultatet er imponerende, men ikke kreativt eller intelligent, og svakhetene som følger av dårlig datagrunnlag er de samme som for andre maskinlæringsystemer. Samtidig er resultatet uforståelig, fordi ingen mennesker forstår innmaten i algoritmene som er skapt på denne måten. Dette bygger opp under myten om kunstig intelligens som en mystisk autoritet vi må frykte, tilbe eller adlyde.

I artikkelen The Seven Deadly Sins of AI Prediction siterer Rodney Brooks Arthur C. Clarkes formulering om at enhver tilstrekkelig avansert teknologi til forveksling ligner magi, og påpeker at det vi ikke forstår, forstår vi heller ikke begrensningene til. Dermed blir det lett å fantasere om det fantastiske eller uhyggelige potensialet i kunstig intelligens og overvurder skaden eller nytten. Vi ser hvor flinke maskinlæringsystemer er på noen få snevre oppgaver, og generaliserer ut fra dette til at da må de også snart bli flinke til beslektete oppgaver. Mennesker som er flinke til å identifisere dyrearter, vet gjerne også en del om disse dyreartene. Den ene formen for kunnskap henger sammen med den andre. Men en slik generalisert kunstig intelligens finnes ikke, og det er uklart om den kommer til å eksistere og hvilke begrensninger den i så fall vil operere under.

Selv om maskinlæring ikke er intelligent, er det et effektivt verktøy til å løse bestemte oppgaver, og må ikke forveksles med bullshit-AI, som er en markedsføringsbløff som gjemmer tradisjonelle algoritmer og/eller manuelt menneskelig arbeide på innsiden.


Tilbake til algoritmer, teknologi og start.