Analys om ,

Vem ska orka rensa i nätjättarnas kloaker?

Innehållsmoderatorer behövs för att bygga plattformar som erbjuder användarna en miljö de vill befinna sig i. Men vem ska orka göra när det när den mentala hälsan är i risk för de som får jobbet.

De stora nätplattformarna har alla omfattande modereringsregler och riktlinjer för vad som kan och inte kan publiceras. Nyligen blev Spotifys modereringsriktlinjer offentliga i samband med debatten om podcasten The Joe Rogan Experience.

Hybridtechföretagen i skärningspunkten mellan mediebolag och distributionsplattform har alla samma problem.

Även om det idag finns AI och annan teknik för att radera innehåll så är det moderatorer som bär ansvar för att titta på stora delar av allt det stötande och skrämmande innehåll som flaggats som problematiskt.

Utvecklingen av olika nätplattformar bygger i stor utsträckning på att hitta en balans mellan yttrandefrihet och att samtidigt kunna erbjuda sina användare tjänster där man inte oönskat exponeras för olika former av hat, hot och övergrepp.  

Att arbeta som moderatorer i sociala medier är ett mycket tungt jobb. Det är betungande att ägna hela dagar åt skrämmande ilska, hat, våld och övergrepp vilket de flesta sociala medieredaktörer råkat ut för.

Det är ett arbetsmiljöproblem och kräver att man som anställd skyddas och får tillräckligt stöd. Viss utbildning och erbjudanden om att rotera och korta arbetspassen är några vanliga sätt för att avlasta medarbetare som hanterar sociala medieflöden i utsatta verksamheter.

Men de som gör den första grova gallringen – de som arbetar för techföretagen och tar del av allt det som även sorteras bort och som ofta inte når slutanvändarna hur hanterar techbolagen dem?

Innehållsmoderatorer på sociala medieplattformar som Facebook, Twitter och Tiktok lider dokumenterat av psykiska trauman och posttraumatiska stressyndrom (PTSD) och skyddas ofta inte ordentligt av det sociala medieföretag de arbetar på. Det har från början inte prioriterats och är dessutom arbeten som ofta läggs ut på tredjepartsleverantörer.

I en aktuell rättstvist, som nådde en förlikning i somras, var en arbetsplats för innehållsmoderatorer på Facebook i fokus i fallet Scola v. Facebook, Inc. Den amerikanska advokatfirman Joseph Saveri beskriver vad deras målsägande som arbetat med att granska innehåll som miljontals facebookanvändare möter:

”Vissa användare lägger upp innehåll som skildrar sexuella övergrepp mot barn, våldtäkt, tortyr, bestialitet, halshuggning, självmord och mord. För att upprätthålla en sanerad plattform, maximera sin vinst och förbättra sin offentliga image, förlitar sig Facebook på att innehållsmoderatorer går igenom dessa inlägg och tar bort de som bryter mot företagets användarvillkor.”

De beskriver sedan hur de målsägarna under sitt arbete fick bevittna extremt grafiskt våld och som ett resultat av denna exponering utvecklat och lider av betydande psykologiska trauman och posttraumatiskt stressyndrom, inklusive symtom på trötthet, sömnlöshet och social ångest.

Under rättsprocessen har Facebook hävdat att de allt sedan 2015 utarbetat säkerhetsstandarder på arbetsplatsen för att skydda innehållsmoderatorer från den här typen av trauman på arbetsplatsen. Det kan handla om att implementera skyddsåtgärder som djuplodande och obligatorisk rådgivning och andra åtgärder för att stärka den mentala hälsan eller tekniska hjälpmedel genom att ändra upplösningen, ljudet, storleken och färgen på traumainducerande bilder; samt att träna moderatorer för att tidigt känna igen post-traumatiska stressymptom tidigt vare sig det gäller fysiska eller psykiska symtom.

Målsägande hävdade dock att Facebook ignorerar själva säkerhetsstandarderna på de tredjepartsleverantörer som de kontrakterat. De menade att de snarare kräver att dessa innehållsmoderatorer arbetar under än mer farliga förhållanden som orsakar psykisk skada eftersom Facebook inte följer upp sina säkerhetsregler inom området.

– Det här rättsfallet handlar om att skydda de människor som skyddar allmänheten. Innehållsmoderatorer är människor. De kan inte användas som förbrukningsmaterial. De psykologiska trauman och kognitiva och sociala störningar som de anställda drabbats av är allvarliga. Men de ignoreras, och problemen kommer bara att bli värre – för företaget och för dessa individer, sa Steven Williams från Joseph Saveri Advokatbyrå.

Den 14 juli 2021 skedde en förlikning med Facebook som innebar att de målsägande fick igenom väsentliga förändringar på de berörda arbetsplatserna.

Det inrättades också en fond på 52 miljoner dollar för pågående behandling och ersättning till de 14 000 som arbetar för Facebook-leverantörer i Kalifornien, Arizona, Texas och Florida.

Hur ser det då ut i övriga världen?

Det är ett stort tryck på Facebook att öka antalet moderatorer som kan hantera olika språk.

När visselblåsaren Frances Haugen gav sitt vittnesmål under en hearing i Vita huset nämnde hon bland annat Etiopien som ett exempel på en region där informationen som sprids riskerar bidra till etnisk rensning.

I reportaget ”Inifrån Facebooks låglönefabrik” tittade tidningen Time närmare på hur innehållsmoderering görs på den afrikanska kontinenten.

De anställda i reportaget upplever en liknande mental tortyr som de målsägande i det amerikanska rättsfallet vittnade om.

Den modereringsfabrik Time besökt ligger i Nairobi, Kenya och drivs av företaget Sama som grundades 2008 av socialentreprenören Leila Janah som avled 2020 endast 37 år.

Hennes vision var att skapa möjligheter för världens fattiga unga genom att erbjuda dem arbeten utanför den informella ekonomin och de bräckliga daglönejobben som de är utlämnade till. Hon betonade hur talang är jämnt fördelad, men att möjligheterna inte är det. För henne var digitaliseringen och den techindustri som följer av fibertillgång den raka vägen till att fler ska kunna få fasta arbeten och inkomster. ”Arbete istället för bistånd” var hennes budskap och i ett TedX-talk i Amsterdam från 2017 lyfter hon fram hur digitaliseringen är en nyckel för att kunna motverka den globala fattigdomen och kan ge en större handlingsfrihet och ansvar till allt fler.

Ett exempel på vilka arbetsuppgifter det kan gälla är behovet av att tagga bilder för att utveckla olika techtjänster. Ett arbete som vem som helst kan lära sig efter en introduktion. Under föredraget för fem år sedan visade Janah en bild med logotyper med de företag Sama arbetet med sedan grundandet 10 år tidigare. På sliden förekommer allt från Google, Microsoft och Ebay.

Enligt Time har relationen med Facebook inte lyfts fram av Sama trots att detta just varit en av företagets stora kunder. Företaget har även efter grundarens död specialiserat sig på att fortsätta erbjuda ”digitala värdiga arbeten” för att lyfta människor ur fattigdom.

Sama har idag mer än 200 unga anställda i Nairobi. De modererar ett innehåll bestående av videos med mord, våldtäkter, självmord och sexuella övergrepp mot barn för 1.50 USD i timmen.

Företaget Sama bemöter anklagelsen och uppger att timlönen motsvarar den tredubbla jämfört med genomsnittslönen i Kenya.

Sama modererar också innehåll för Facebook i Etiopien och har som uppgift att försöka hindra att innehåll därifrån ska uppvigla till våld. Enligt uppgifter till Time har sex etiopier lämnat Sama i januari med hänvisning till de usla arbetsvillkoren. Ytterligare två har lämnat på grund av posttraumatiska stressyndrom.

Den bild som artikeln ger om de arbetsförhållanden som råder hos Sama ser inte ut som att de i tillräckligt stor utsträckning tagit hänsyn till allt det man nu vet om effekten av att arbeta med den här typen av material. Det är enligt vittnesmål inte ens möjligt att ta pauser och de som vill förbättra sina arbetsvillkor avskedas.

Sama verkar inte heller från första början ha gjort det tydligt om vad arbetet kan innebära. De allra flesta trodde det handlade om att arbeta vid en kundtjänst eller att de skulle ta bort falsk information från sociala medier. De insåg inte förrän de började arbeta vad för slags innehåll de skulle exponeras för. Ingen uppmärksammade dem om att det skulle krävas att de regelbundet skulle titta på skrämmande innehåll som kan leda till mentala problem.

Det var inte förrän de var på plats, ofta ditresta från andra länder, och skulle påbörja sin anställning som de fick skriva under ett sekretessavtal och i anslutning till det fick veta vad arbetet gick ut på uppger en av de intervjuade innehållsmoderatorerna som inte är anonym. Samme medarbetare avskedades för att vilja starta en lokal fackförening.

Efter att artikeln har publicerats skriver Sama en replik på sin sajt där de går igenom vad som blivit fel i artikeln i Time. I den uppger de att 59 000 personer tack vare deras verksamhet har lyfts ur fattigdom. De hänvisar också till en oberoende studie utförd av MIT som har utvärderat två av deras jobbprogram. Den visar att 60 procent av de kvinnor som gått igenom deras program tjänar mer än de kvinnor som ingick i en kontrollgrupp.

De uppger också att deras moderatorer kompenseras utifrån vilket krävande arbete det är och uppger att de betalar anställda löner som är 3 gånger högre än minimilönen och 2 gånger levnadslönen i Kenya. De refererar även till en låg omsättning av medarbetare.

Bolaget avslutar med att redovisa hur de stödjer innehållsmoderatorer genom att de till exempel endast arbetar 37,4 timmar. Det finns även ett krav att innehållsmoderatorer tar en och en halv timmes friskvård samt måltidspauser dagligen för att säkerställa att deras psykiska hälsa skyddas och att de erbjuder enskild rådgivning med en terapeut för varje medarbetares samt annat rådgivningssystem.

I ljuset av vad det här arbetet med att moderera innehåll trots allt betyder för internets framtid, Facebook i det här aktuella fallet och civilbefolkningen i berörda regioner samt alla användare är detta en av de absolut viktigaste utmaningarna.

Och det är inte ett övergående problem.

Tvärtom.

Facebook och de andra företagen bör fortsatt granskas för hur de bemannar innehållsmodereringen och hur bolaget säkerställer medarbetarnas mentala hälsa. De behöver också säkerställa att deras tredjepartsleverantörer i alla länder följer de säkerhetsregler som med åren arbetats fram för att skydda de som arbetar med detta.

Och vi användare kan vara tacksamma för alla de innehållsmoderatorer som runtom i världen skyddar oss övriga användare från att behöva se den allra värsta ondskan online.