
Analys om Digitalisering, Facebook
Vem ska orka rensa i nätjättarnas kloaker?
Innehållsmoderatorer behövs för att bygga plattformar som erbjuder användarna en miljö de vill befinna sig i. Men vem ska orka göra när det när den mentala hälsan är i risk för de som får jobbet.
Av Brit Stakston 20 februari, 2022
De stora nätplattformarna har alla omfattande modereringsregler och riktlinjer som reglerar vad som kan och inte kan publiceras. Hybridtechföretagen i skärningspunkten mellan mediebolag och distributionsplattform har alla samma problem. Nyligen blev Spotifys modereringsriktlinjer offentliga i samband med debatten om podcasten The Joe Rogan Experience.
Även om det idag finns AI och annan teknik som automatiskt raderar visst innehåll så är det människor som behöver komplettera den processen. Innehållsmoderatorer bär ansvar för att titta på stora delar av allt det stötande och skrämmande innehåll som flaggats som problematiskt.
Utvecklingen av nätplattformarna bygger på att hitta balansen mellan yttrandefrihet och att användarna får tjänster där de inte oönskat exponeras för olika former av hat, hot och övergrepp.
Att arbeta som innehållsmoderatorer i sociala medier är ett mycket psykiskt tungt jobb. Det är betungande att ägna hela dagar åt skrämmande ilska, hat, våld och övergrepp vilket även är något som många sociala medieredaktörer känner igen sig i.
Det är ett arbetsmiljöproblem och kräver att man som anställd skyddas och får tillräckligt stöd. Viss utbildning och erbjudanden om att rotera och att korta arbetspassen är några vanliga sätt för att avlasta medarbetare som hanterar sociala medieflöden i utsatta verksamheter.
Men alla de som gör den allra första grova gallringen – de som arbetar för techföretagen och tar del av allt det som till största del inte når slutanvändarna hur hanterar techbolagen dem?
Innehållsmoderatorer på sociala medieplattformar som Facebook, Twitter och Tiktok lider dokumenterat av psykiska trauman och posttraumatiska stressyndrom (PTSD) och skyddas ofta inte ordentligt av sina arbetsgivare. Det har inte prioriterats och är dessutom uppgifter som ofta läggs ut på tredjepartsleverantörer, ofta på andra kontinenter.
I en aktuell rättstvist, som nådde en förlikning i somras, var en arbetsplats för innehållsmoderatorer på Facebook i fokus i det så kallade Scola v. Facebook, Inc-fallet. Den amerikanska advokatfirman Joseph Saveri beskriver vilket innehåll deras klienter granskat för att skydda miljontals facebookanvändare:
”Vissa användare lägger upp innehåll som skildrar sexuella övergrepp mot barn, våldtäkt, tortyr, bestialitet, halshuggning, självmord och mord. För att upprätthålla en sanerad plattform, maximera sin vinst och förbättra sin offentliga image, förlitar sig Facebook på att innehållsmoderatorer går igenom dessa inlägg och tar bort de som bryter mot företagets användarvillkor.”
De beskriver sedan hur målsägarna under sitt arbete fick bevittna extremt grafiskt våld och som ett resultat av denna exponering utvecklat och lider av betydande psykologiska trauman och posttraumatiskt stressyndrom, inklusive symtom på trötthet, sömnlöshet och social ångest.
Under rättsprocessen har Facebook hävdat att de allt sedan 2015 utarbetat säkerhetsstandarder på arbetsplatsen för att skydda innehållsmoderatorer från den här typen av trauman på arbetsplatsen. Det kan handla om att implementera skyddsåtgärder som djuplodande och obligatorisk rådgivning för de anställda. Andra åtgärder som införts för att stärka den mentala hälsan är tekniska hjälpmedel som ändrar upplösningen, ljudet, storleken och färgen på traumainducerande bilder; samt att innehållsmoderatorer tränas för att tidigt känna igen post-traumatiska stressymptom för såväl fysiska som psykiska symtom.
De målsägande hävdade dock att Facebook ignorerar själva säkerhetsstandarderna hos de tredjepartsleverantörer som kontrakteras. Innehållsmoderatorerna anser att de snarare fick arbeta under än mer farliga förhållanden som orsakade psykisk skada på grund av att Facebook inte följde upp de införda säkerhetsreglerna.
– Det här rättsfallet handlar om att skydda de människor som skyddar allmänheten. Innehållsmoderatorer är människor. De kan inte användas som förbrukningsmaterial. De psykologiska trauman och kognitiva och sociala störningar som de anställda drabbats av är allvarliga. Men de ignoreras, och problemen kommer bara att bli värre – för företaget och för dessa individer, sa Steven Williams från Joseph Saveri Advokatbyrå.
Den 14 juli 2021 skedde en förlikning med Facebook som bland annat innebar att de målsägande fick igenom väsentliga förändringar på de berörda arbetsplatserna.
Det inrättades också en fond på 52 miljoner dollar för pågående behandling och ersättning till de 14 000 som arbetar för Facebook-leverantörer i Kalifornien, Arizona, Texas och Florida.
Hur ser det då ut i övriga världen?
Det är ett stort tryck på Facebook att öka antalet innehållsmoderatorer som kan hantera olika språk.
När visselblåsaren Frances Haugen gav sitt vittnesmål under en hearing i Vita huset nämnde hon bland annat Etiopien som ett exempel på en region där informationen som sprids riskerar bidra till etnisk rensning.
I reportaget ”Inifrån Facebooks låglönefabrik” granskade Time hur innehållsmoderering görs på den afrikanska kontinenten.
De anställda i reportaget upplever en liknande mental tortyr som de målsägande i det amerikanska rättsfallet vittnade om.
Den modereringsfabrik Time besökt ligger i Nairobi, Kenya och drivs av företaget Sama som grundades 2008 av socialentreprenören Leila Janah som avled 2020 endast 37 år.
Hennes vision var att skapa möjligheter för världens fattiga unga genom att erbjuda dem arbeten utanför den informella ekonomin och de bräckliga daglönejobben som de är utlämnade till. Hon betonade hur talang är jämnt fördelad, men möjligheterna att utveckla den är inte likvärdig. Digitaliseringen och den techindustri som följer av fibertillgång blev för henne en möjlig rak väg till att fler skulle kunna få fasta arbeten och inkomster.
”Arbete istället för bistånd” var hennes budskap och i ett TedX-talk i Amsterdam från 2017 lyfter hon fram hur digitaliseringen är en nyckel för att kunna motverka den globala fattigdomen och kan bidra till en större handlingsfrihet och ansvar till allt fler.
Ett exempel på en arbetsuppgift för en innehållsmoderator är att tagga bilder för att olika techtjänster kan utvecklas. Ett enkelt arbete som vem som helst kan lära sig efter en introduktion. Under sitt Tedx-talk visade Janah en bild med logotyper med de företag Sama arbetet med sedan grundandet 10 år tidigare, där förekom allt från Google, Microsoft till Ebay.
Enligt Time har Facebook inte lyfts fram av Sama trots att de varit en av företagets stora kunder. Sama har även efter grundarens död specialiserat sig på att fortsätta erbjuda ”digitala värdiga arbeten” för att lyfta människor ur fattigdom.
De har idag mer än 200 unga anställda i Nairobi som modererar innehåll bestående av videos med mord, våldtäkter, självmord och sexuella övergrepp mot barn för 1.50 USD i timmen.
Sama bemötte anklagelserna och uppger att timlönen motsvarar den tredubbla i jämförelse med genomsnittslönen i Kenya.
Det är Sama som modererar innehåll för Facebook i Etiopien och har som uppgift att försöka hindra att innehåll därifrån ska uppvigla till våld. Enligt uppgifter till Time har sex etiopier lämnat Sama i januari med hänvisning till de usla arbetsvillkoren. Ytterligare två har lämnat på grund av posttraumatiska stressyndrom.
Den bild som artikeln ger om de arbetsförhållanden som råder hos Sama ser inte ut som att de i tillräckligt stor utsträckning tagit hänsyn till allt det man nu vet om effekten av att arbeta med den här typen av material. Det är enligt vittnesmål inte ens möjligt att ta pauser och de som vill förbättra sina arbetsvillkor avskedas.
Sama verkar inte heller från första början ha gjort det tydligt om vad arbetet kan innebära. De allra flesta trodde det handlade om att arbeta vid en kundtjänst eller att de skulle ta bort falsk information från sociala medier. De insåg inte förrän de började arbeta vad för slags innehåll de skulle exponeras för. Ingen uppmärksammade dem om att det skulle krävas att de regelbundet skulle titta på skrämmande innehåll som kan leda till mentala problem.
Det var inte förrän de var på plats, ofta ditresta från andra länder, och skulle påbörja sin anställning som de fick skriva under ett sekretessavtal och i anslutning till det fick veta vad arbetet gick ut på enligt en av de intervjuade innehållsmoderatorerna som inte är anonym i artikeln. Samme medarbetare avskedades för att vilja starta en lokal fackförening.
Efter att artikeln har publicerats skriver Sama en replik på sin sajt där de går igenom vad som blivit fel i artikeln i Time. I den uppger de att 59 000 personer tack vare deras verksamhet har lyfts ur fattigdom. De hänvisar också till en oberoende studie utförd av MIT som har utvärderat två av deras jobbprogram som visar att 60 procent av de kvinnor som gått igenom deras program tjänar mer än de kvinnor som ingick i en kontrollgrupp.
De uppger också att deras moderatorer kompenseras utifrån vilket krävande arbete det är och uppger att de betalar anställda löner som är 3 gånger högre än minimilönen och 2 gånger levnadslönen i Kenya. De refererar även till en låg omsättning av medarbetare.
Bolaget avslutar med att redovisa hur de stödjer innehållsmoderatorer genom att de till exempel endast arbetar 37,4 timmar. Det finns även ett krav att innehållsmoderatorer tar en och en halv timmes friskvård samt måltidspauser dagligen för att säkerställa att deras psykiska hälsa skyddas och att de erbjuder enskild rådgivning med en terapeut för varje medarbetares samt annat rådgivningssystem.
I ljuset av vad det här arbetet med att moderera innehåll trots allt betyder för internets framtid, Facebook i det här aktuella fallet och civilbefolkningen i berörda regioner samt alla användare är detta en av de absolut viktigaste utmaningarna för framtiden för internet.
Och det är inte ett övergående problem.
Tvärtom.
Facebook och de andra företagen bör fortsatt granskas för hur de bemannar innehållsmodereringen och hur bolaget säkerställer medarbetarnas mentala hälsa. De behöver också säkerställa att deras tredjepartsleverantörer i alla länder följer de säkerhetsregler som med åren arbetats fram för att skydda de som arbetar med detta.
Och vi användare kan vara tacksamma för alla de innehållsmoderatorer som runtom i världen skyddar oss övriga från att behöva se den allra värsta ondskan online.