Analys om ,

Krönika: Hur mår de som rensar internet för oss?

Att granska inlägg i sociala medier är en krävande arbetsuppgift på så många plan. Brit Stakston reflekterar över framtiden för internet efter att ha läst boken "Sakerna vi såg" av Hanna Bervoets.

Genom åren har jag både mött och coachat de som arbetar med sociala medier i utsatta verksamheter. Deras tappade tro på mänskligheten och starka drag av post-traumatiskt stress har varit märkbar. Detta utan att ha arbetat i fronten för något av de största sociala mediebolagen.

De innehållsmoderatorer som rensar kloakerna för nätbolagen är ofta anställda hos olika underleverantörer och kan i sin vardag leva långt ifrån stöd till den galenskap de ser. De anställs för att rensa i flödet och för att de har värdefull lokal kunskap i språk och kontext men ställs inför att tvingas hantera hat, hot, rasism, konspirationsteorier och fruktansvärt våldsamma bilder som kan involvera allt: inklusive djur och barn. Ondskans kreativitet har inga gränser och distributionskraften är lockande.

Innehållsmoderatorer behövs för att bygga plattformar som erbjuder användarna en miljö de vill befinna sig i. Men vem ska orka rensa de här kloakerna när den mentala hälsan så uppenbar är i risk för de som får dessa nya fabriksjobb. Det är en fråga jag skrivit mycket om tidigare eftersom den har att göra med internets framtid.

Även om det idag finns hjälpmedel tack vare AI och andra automatiserade funktioner som raderar visst innehåll så är det till slut ofta människor som behöver komplettera den processen. Det är innehållsmoderatorer som får titta på stora delar av allt det stötande och skrämmande innehåll som flaggats som problematiskt.

Innehållsmoderering är en central del för nätets framtid, men så fort man lyfter dessa frågor placeras man gärna i hörnet av att vara yttrandefrihetsmotståndare.

I ljuset av detta tycker jag mycket om boken Sakerna vi såg av nederländska författaren Hanna Bervoets. En rak fiktiv berättelse om en innehållsmoderator som mitt i huvudrollsinnehavarens stökiga vardag synliggör effekten av den fruktansvärda uppgift som de gör och vi andra sociala medieanvändare så lätt glömmer bort.

Det är ett så undanskymt arbete och det systematiska dagliga omfånget av all automatisk och manuell moderering bara blir aktuell att diskutera när det gäller enstaka kontroversiella raderade inlägg. Men här får vi en inblick i vad som sker dygnet runt för att vi ska kunna surfa runt utan att i varje stund behöva drunkna i det allra värsta.

I en rättstvist som nådde en förlikning 2021 gällde en arbetsplats för innehållsmoderatorer på Facebook, i det så kallade Scola v. Facebook, Inc-fallet beskriver den amerikanska advokatfirman Joseph Saveri vilket innehåll deras klienter granskat för att skydda miljontals facebookanvändare:

– Vissa användare lägger upp innehåll som skildrar sexuella övergrepp mot barn, våldtäkt, tortyr, bestialitet, halshuggning, självmord och mord. För att upprätthålla en sanerad plattform, maximera sin vinst och förbättra sin offentliga image, förlitar sig Facebook på att innehållsmoderatorer går igenom dessa inlägg och tar bort de som bryter mot företagets användarvillkor.

De beskriver sedan hur målsägarna under sitt arbete fick bevittna extremt grafiskt våld och som ett resultat av denna exponering utvecklat och lider av betydande psykologiska trauman och posttraumatiskt stressyndrom, inklusive symtom på trötthet, sömnlöshet och social ångest.

Under rättsprocessen har Facebook hävdat att de allt sedan 2015 utarbetat säkerhetsstandarder på arbetsplatsen för att skydda innehållsmoderatorer från den här typen av trauman på arbetsplatsen. De säger att de infört skyddsåtgärder som djuplodande och obligatorisk rådgivning för de anställda. Ytterligare åtgärder som införts för att stärka den mentala hälsan hos de anställda är tekniska hjälpmedel som ändrar upplösningen, ljudet, storleken och färgen på traumainducerande bilder; samt att innehållsmoderatorer tränas för att tidigt känna igen post-traumatiska stressymptom för såväl fysiska som psykiska symtom.

De målsägande hävdade dock att Facebook ignorerar själva säkerhetsstandarderna hos de tredjepartsleverantörer som kontrakteras. Innehållsmoderatorerna anser att de snarare fick arbeta under än mer farliga förhållanden som orsakade psykisk skada på grund av att Facebook inte följde upp de införda säkerhetsreglerna.

– Det här rättsfallet handlar om att skydda de människor som skyddar allmänheten. Innehållsmoderatorer är människor. De kan inte användas som förbrukningsmaterial. De psykologiska trauman och kognitiva och sociala störningar som de anställda drabbats av är allvarliga. Men de ignoreras, och problemen kommer bara att bli värre – för företaget och för dessa individer, sa Steven Williams från Joseph Saveri Advokatbyrå.

Förlikningen med Facebook innebar bland annat att de målsägande fick igenom väsentliga förändringar på de berörda arbetsplatserna. Det inrättades också en fond på 52 miljoner dollar för pågående behandling och ersättning till de 14 000 som arbetar för Facebook hos underleverantörer i Kalifornien, Arizona, Texas och Florida.

Jag hade nyligen förmånen att få samtala med Hanna Bervoets om hennes succébok hos författarscenen Stora Nygatan 7, SN7, tillsammans med kulturjournalisten Essy Klingberg. Det blev en liten pärla till poddsamtal för mig, så förmånligt att få samtala om denna ödesfråga med dem båda – ett typexempel på de samtal om internet vi behöver ha för att förstå vad som händer, och välja vägar framåt.

Avsnittet Sakerna vi såg – vem bestämmer vår världsbild av SN7 Play finns där poddar finns.

Foto: The Cosmonaut, William Collector Sewer, CC-BY-SA-2.5-CA