Behind the Screen av Sarah T. Roberts
Behind the Screen: Content Moderation in the Shadows of Social Media av Sarah T. Roberts. Yale University Press, 2019
Som jeg har skrevet om tidligere ønsker jeg meg en desentralisering av sosiale medier og av nettet generelt. Tanken på en framtid hvor alt er stengt inne i hagene til Facebook og Twitter gjør meg trist. Nettet kan være så mye mer enn dette. Det var på noen måter mer enn dette bare for femten år siden.
Den største utfordringen ved en slik redesentralisering er ikke teknologisk, og heller ikke så mye juridisk. Det er fullt mulig å se for seg lover som tvinger store sosiale nettverk til å bruke åpne APIer, eller en form for offentlig støtte til prosjekter som utfordrer gigantene. Sånt har vi fått til før.
Men det er én utfordring jeg ikke har noen god løsning på: Hva i all verden gjør vi med modereringen? Hadde du spurt meg for tjue år siden, ville jeg svart: Så lite som mulig! Det ordner seg selv. Den gangen tenkte jeg veldig individualistisk på det meste. Da er det mange vanskelige spørsmål som fremstår veldig enkle å løse. Det er bare å vifte bort alle dilemmaene rundt ytringsnormer. Alt det der er bare en gordisk knute vi kan hogge rett gjennom med individualismesverdet vårt.
Jeg tror ikke på en slik individualisme lenger. Du kan ikke bare vifte bort normkonflikter. Det nytter heller ikke å løse problemet ved å si at du personlig ikke bryr deg om sånt. Neivel, men de fleste andre gjør det. Du kan selvfølgelig gå og henge sammen med de andre edgelordene på et forum totalt uten moderering, men når vi snakker om sosiale medier som et massefenomen, snakker vi også om moderering. Selv ønsker jeg for eksempel ikke å finne barnepornografi i feeden min. Det kan de fleste si seg enige i, men på andre områder er vi uenige, og mange av dilemmaene finnes det ingen enkel løsning på. Hvor trekker vi grensa med tanke på politikk? Hva med høflighet? Hva med sex og vold? Samme hva du mener svaret er, er det mange andre som mener det bør være noe annet.
I dag ser jeg derfor på moderering som kanskje det vanskeligste problemet vi har på nettet. Samtidig er det et problem vi snakker mindre om enn før, siden de store sosiale mediene har “løst” det for oss. I nettets barndom var moderering et kontroversielt spørsmål som alle måtte ha et forhold til. Forumene vi deltok i var så små at vi selv kunne påvirke modereringen. Mange meldte seg som frivillige moderatorer. Også i dag er moderering kontroversielt, men på en mye mer primitiv måte: I blant gjør Facebook noe åpenbart dumt som alle blir sinte av. Så kjefter vi på Facebook, og kanskje bøyer de seg, kanskje ikke.
Dette er noe helt annet enn å ta aktivt stilling til at det for eksempel har dukket opp en nynazist på forumet du og hundre andre personer bruker. Det er som forskjellen mellom å drive politikk i et allmektig kongedømme og i et demokrati. I kongedømmet engasjerer vanlige folk seg politisk på en av to måter: ved å knele for kongen og be ham aller nådigst om hjelp, eller ved å hytte med nevene for seg selv når han ikke gjør det. Det er uansett noe uverdig over det hele. I demokratier har du mange måter å engasjere deg på, og selv om det kan være en skitten og frustrerende prosess, gir den deg en også en følelse av medbestemmelse og medansvar.
Slik kunne det være i gamle nettforum. Alt dette ble borte da gigantene overtok. I dag ser du jevnlig innlegg på Facebook eller Twitter av typen “jeg er frustrert over at kontoen min ble sperret over en filleting” eller “det er en skandale at x er lov her”. De hytter med nevene, eller ber kongen aller nådigst om hjelp, og i blant får de det også. Men de har mistet all medbestemmelse i hva som skjer, og det samme har vi andre som ser på. Vi er undersåtter i et system vi ikke har makt over.
Hva skjedde så med modereringen? Noen tror at den ble erstattet av “algoritmer”, altså av smarte maskinlæringsystemer som ser forskjell på en blodig avkuttet penis og en grillpølse med ketsjup. Det stemmer bare delvis. Dette spiller en rolle, men virkeligheten er at de store sosiale mediene fremdeles blir moderert av mennesker. Men før var disse menneskene folk du kjente. Moderatoren i et tradisjonelt forum var gjerne blant de mektigste og mest respekterte (og/eller forhatte) brukerne av det forumet.
I dag utføres modereringen i skjul av løsarbeidere. Folk sitter i timesvis hver dag og ser gjennom innhold som mistenkes for å bryte med retningslinjene, og har noen få sekunder på seg til å trykke ja eller nei. Dette er disse folka Sarah Roberts har intervjuet i Behind the Screen, en bok som får frem all den vanskelige modereringen vi andre har sluttet å tenke på.
Det som gjør største inntrykk på meg i boka er intervjuene med moderatorene for en ikke navngitt IT-gigant i Silicon Valley. De forteller om hvor hardt det er å sitte dagen lang og se gjennomd et verste innholdet som lastes opp til tjenesten deres, og prøve å vurdere dette opp mot selskapets hemmelige retningslinjer. Arbeidet setter spor og sliter i relasjonene deres. De ser ting de ikke føler at de kan belaste venner og familie med, så da holder de det heller for seg selv. I blant bobler det likevel opp til overflaten. Én av dem forteller om hvordan han bryter sammen når kjæresten nevner noe helt uskyldig som minner ham på noe fælt han så den dagen.
Arbeidet er ekstra frustrerende fordi selskapet de jobber for, ikke respekterer dem. Lønna er ok, men de står lavest på rangstigen. Det legges opp til at de jobber der inntil et år, til de ikke orker mer, og så blir borte. Det finnes ingen karrierevei inn i selskapet. Dette er folk som har et nært forhold til grensene de håndhever og har mange tanker om hvordan grensene kunne vært trukket på en bedre måte, men de fast ansatte de jobber for, er ikke interessert i erfaringen deres. Grensene trekkes med andre ord av folk som ikke selv har et direkte forhold til innholdet som modereres.
Roberts snakker også med moderatorer i blant annet Filippinene, og tegner opp et godt bilde av en bransje som er mer omfattende og kompleks enn jeg var klar over. Kultur er for eksempel en faktor i hvem som modererer hvilket innhold. Noen former for moderering vil selskapene ha tett kontroll over. Andre outsourcer de på kjappest mulig måte via Amazon Mechanical Turk.
Hun unngår fristelsen til å grave i de mest groteske sidene av arbeidet, og prøver heller ikke å presentere dette yrket som et eneste stort overgrep. Hun tegner opp et nynasert bilde hvor det man sitter igjen med er at disse folka burde få mer igjen for det de utsetter seg for. Konklusjonen hennes er at dette langt på vei er en jobb som må gjøres, iallfall i den typen gigantiske sosiale medier vi har. Men hvorfor må man behandle de som gjør det så dårlig? De bør få anerkjennelse for dette.
Yrket som profesjonell moderator er enda et eksempel på at IT-bransjens speilblanke image forutsetter at man abstraherer og gjemmer bort elendigheten som må til for å holde hjulene i gang. iPhonen ser ut som om den har blitt bygd av roboter fra framtiden, mens den i virkeligheten har blitt satt sammen av helt vanlige arbeidere som behandles svært dårlig, med råmaterialer gravd opp delvis av slaver og barn. Facebook fremstår som en algoritmisk mesterhjerne, mens den i virkeligheten har overlatt drittarbeidet til noen løsarbeidere som spyttes ut når jobben blir for mye for dem.
Og etter Facebook, i en desentralisert verden, hva skjer da? Da må vi som bruker nettet begynne å tenke seriøst på moderering igjen. Det er ganske kjipt. Ingen av dilemmaene har egentlig blitt løst. De har snarere blitt større, fordi nettet har blitt større og mer mangfoldig. På mitt aller første diskusjonsforum kunne et titalls hvite norske tenåringsgutter velge å være rause og la en nynazist argumentere for seg. Det var jo ikke oss han var en trussel mot. I en verden hvor alle er på nett og sosiale medier har millioner og hundrevis av millioner med brukere, er ikke det lenger mulig. Nå må vi velge mellom å tolerere hat eller ha et ekte mangfold.
Selv de enkle modereringsdilemmaene er ikke lette å løse. Alle er enige om at vi ikke vil ha barnepornografi i feeden vår. Men hvis hvem som helst kan laste opp bilder og videoer, hvem skal se gjennom det som lastes opp for å filtrere det ut?
Facebooks vilkårlige makt er frustrerende, men jeg vet ikke om de som klager over den egentlig er forberedt på hvor vanskelig det vil være om vi selv måtte involvere oss i modereringsarbeidet. Det gjør meg pessimistisk. Kanskje vil det alltid være mer attraktivt å la løsarbeiderne i kjellerrommet i Silicon Valley ta seg av moderering.
På den andre siden er det ikke sunt for oss at oppgaver som er så viktige og berører nettlivene våre så direkte utføres på en slik skjult måte. Vi må ta modereringen tilbake, selv om det er noe dritt.