Spread the love en help Indignatie
Achter de snelle opmars van AI en onze schone feeds, lijdt een onzichtbare, wereldwijde beroepsbevolking onvoorstelbare trauma’s.
AI Een wazig scherm flitst voor onze ogen, vergezeld door een misleidend onschuldig bericht over ‘gevoelige inhoud’ met een doorgestreepte oog-emoji. Het zachte ontwerp en het speelse pictogram van de waarschuwing verhullen de ernst van wat eronder ligt. Met een nonchalante beweging van onze vingers scrollen we voorbij, onze feeds worden ververst met kattenvideo’s en vakantiefoto’s. Maar in de schaduwen van onze digitale utopie ontvouwt zich een andere realiteit.
In krappe, slecht verlichte magazijnen over de hele wereld, buigt een leger van onzichtbare arbeiders zich over flikkerende schermen. Hun ogen spannen zich in, vingers zweven boven toetsenborden, terwijl ze de donkerste impulsen van de mensheid confronteren — sommige donkerder dan hun wildste nachtmerries. Ze kunnen niet wegkijken. Ze kunnen niet scrollen. Voor deze arbeiders is er geen triggerwaarschuwing.
Techgiganten trompetteren met de kracht van AI in contentmoderatie en schetsen beelden van alwetende algoritmes die onze digitale ruimtes veilig houden. Ze suggereren een utopische visie van machines die onvermoeibaar door digitaal afval heen spitten en ons beschermen tegen het ergste van het web.
Maar dit is een troostende leugen.
De realiteit is veel menselijker en veel verontrustender. Dit verhaal dient meerdere doelen: het neemt de zorgen van gebruikers over online veiligheid weg, rechtvaardigt de enorme winsten die deze bedrijven maken en ontwijkt verantwoordelijkheid — hoe kun je immers een algoritme de schuld geven?
Huidige AI-systemen zijn echter lang niet in staat om de nuances van menselijke communicatie te begrijpen, laat staan om complexe ethische oordelen te vellen over content. Sarcasme, culturele context en subtiele vormen van haatzaaiende taal glippen vaak door de mazen van zelfs de meest geavanceerde algoritmes.
Hoewel geautomatiseerde contentmoderatie tot op zekere hoogte kan worden geïmplementeerd voor gangbare talen, is het voor content in talen met weinig hulpmiddelen doorgaans nodig om contentmoderators te rekruteren uit de landen waar de content wordt gesproken, vanwege hun taalvaardigheden.
Achter bijna elke AI-beslissing zit een mens die de uiteindelijke beslissing neemt en de last van het oordeel draagt — niet een of andere redder op basis van silicium. AI is vaak een primitief eerste filter. Neem bijvoorbeeld de zogenaamd geautomatiseerde winkels van Amazon: The Information meldde dat Amazon in plaats van geavanceerde AI-systemen vertrouwde op ongeveer 1.000 werknemers, voornamelijk gevestigd in India, om klanten handmatig te volgen en hun aankopen vast te leggen.
Amazon vertelde AP en anderen dat ze werknemers inhuurden om video’s te bekijken om mensen te valideren die aan het winkelen waren, maar ontkende dat ze er 1000 hadden ingehuurd of de implicatie dat werknemers shoppers live in de gaten hielden. Op dezelfde manier is Facebook’s “AI-aangedreven” M-assistent meer mens dan software . En dus wordt de illusie van AI-vermogen vaak in stand gehouden ten koste van verborgen menselijke arbeid.
“Wij waren de beheerders van het internet,” vertelde Botlhokwa Ranta, 29, een voormalige contentmoderator uit Zuid-Afrika die nu in Nairobi, Kenia woont, mij twee jaar nadat haar Sama-contract was beëindigd. Vanuit haar huis sprak ze met een zware stem terwijl ze verderging. “We hebben de rotzooi opgeruimd, zodat iedereen kan genieten van een gesaneerde online wereld.”
En dus, terwijl wij slapen, zwoegen velen. Terwijl wij delen, beschermen deze werkers. Terwijl wij verbinding maken, confronteren zij de kloof tussen onze samengestelde online ervaring en de realiteit van de rauwe, ongefilterde menselijke natuur.
De glanzende façade van de tech-industrie verbergt een rauwe, menselijke realiteit die de hele wereld omspant. Van de buitenwijken van Nairobi tot de overvolle appartementen van Manilla, van Syrische vluchtelingengemeenschappen in Libanon tot de immigrantengemeenschappen in Duitsland en de callcenters van Casablanca, een enorm netwerk van onzichtbare werknemers drijft onze digitale wereld aan. De verhalen van deze werknemers zijn vaak een tapijt van trauma, uitbuiting en veerkracht, verhalen die de ware kosten van onze door AI aangestuurde toekomst onthullen.
We kunnen ons verbazen over de chatbots en geautomatiseerde systemen waar Sam Altman en zijn soortgenoten zo over spreken, maar dit verhult de dringende vragen die onder de oppervlakte schuilgaan: zullen onze goddelijke AI-systemen slechts dienen als een rookgordijn dat een schrijnende menselijke realiteit verhult?
In onze meedogenloze zoektocht naar technologische vooruitgang moeten we onszelf afvragen: welke prijs zijn we bereid te betalen voor ons digitale gemak? En in deze race naar een geautomatiseerde toekomst, laten we onze menselijkheid in het stof achter?
Het verhaal van Abrha
In februari 2021 stortte Abrha’s wereld in toen zijn stad in Tigray onder vuur kwam te liggen van zowel Ethiopische als Eritrese strijdkrachten tijdens het Tigray-conflict, het dodelijkste conflict van deze tijd , dat volgens een rapport van het Amerikaanse New Lines Institute terecht een genocide wordt genoemd .
Met alleen een kleine rugzak en wat geld dat hij kon pakken, vluchtte Abrha, toen 26, naar Nairobi, Kenia, en liet een bloeiende onderneming, familie en vrienden achter die niet konden ontsnappen. Terwijl Tigray leed onder een internetsluiting van meer dan twee jaar die was opgelegd door de Ethiopische overheid, bracht hij maanden door in pijnlijke onzekerheid over het lot van zijn familie.
Vervolgens werd Abrha, in een wrede ironische wending, gerekruteerd door de Keniaanse vestiging van Sama, een bedrijf uit San Francisco dat zichzelf presenteert als een ethische leverancier van AI-trainingsgegevens. Het bedrijf had namelijk mensen nodig die vloeiend Tigrinya en Amhaars spraken, talen van het conflict dat hij net was ontvlucht, om content te modereren die voornamelijk uit datzelfde conflict kwam.
Vijf dagen per week, acht uur per dag, zat Abrha in het Sama-magazijn in Nairobi, waar hij content modereerde over het conflict waaraan hij was ontsnapt — soms zelfs een bomaanslag in zijn geboortestad. Elke dag bracht een stortvloed aan haatdragende taal gericht op Tigrayans, en angst dat het volgende dode lichaam zijn vader zou kunnen zijn, het volgende slachtoffer van verkrachting zijn zus.
Een ethisch dilemma woog ook zwaar op hem: hoe kon hij neutraal blijven in een conflict waar hij en zijn volk het slachtoffer van waren? Hoe kon hij vergeldende content die door zijn volk werd gegenereerd, bestempelen als haatzaaierij? De druk werd ondraaglijk.
Hoewel Abrha ooit een hekel had aan roken, werd hij een kettingroker die altijd een sigaret bij zich had terwijl hij zich een weg baande door dit digitale mijnenveld van trauma’s. Elke hijs was een zinloze poging om de pijn van het lijden van zijn volk te verzachten.
De verschrikking van zijn werk bereikte een verwoestend hoogtepunt toen Abrha het lichaam van zijn neef tegenkwam terwijl hij content modereerde. Het was een brute herinnering aan de zeer reële en persoonlijke inzet van het conflict dat hij dagelijks via een computerscherm moest aanschouwen.
Nadat hij en andere contentmoderators hun contracten door Sama hadden laten beëindigen , bevond Abrha zich in een benarde situatie. Omdat hij geen andere baan in Nairobi kon vinden, moest hij alleen met zijn trauma worstelen, zonder de steun of middelen die hij zo hard nodig had. Het gewicht van zijn ervaringen als contentmoderator, in combinatie met de aanhoudende effecten van het vluchten voor conflicten, eisten een zware tol van zijn geestelijke gezondheid en financiële stabiliteit.
Ondanks dat de situatie in Tigray na de oorlog nog steeds precair was, voelde Abrha dat hij geen andere keuze had dan terug te keren naar zijn thuisland. Hij maakte de moeilijke reis terug een paar maanden geleden, in de hoop zijn leven te herbouwen uit de as van conflict en uitbuiting. Zijn verhaal dient als een grimmige herinnering aan de langdurige impact van contentmoderatiewerk en de kwetsbaarheid van degenen die het uitvoeren, vaak ver van huis en ondersteuningssystemen.
De nachtmerrieachtige realiteit van de koningen
Kings, 34, groeide op in Kibera, een van de grootste sloppenwijken ter wereld, en stond erop dat Noema alleen zijn voornaam gebruikte om vrijuit over persoonlijke gezondheidszaken te praten. Hij droomde van een beter leven voor zijn jonge gezin. Zoals veel jongeren die opgroeiden in de sloppenwijk Nairobi, was hij werkloos.
Toen Sama belde, zag Kings het als zijn kans om door te breken in de techwereld. Hij begon als data-annotator, die data labelde en categoriseerde om AI-systemen te trainen, en was enthousiast ondanks het lage salaris. Toen het bedrijf hem aanbood om te promoveren tot contentmoderator met een kleine salarisverhoging, greep hij die kans met beide handen aan, zonder zich bewust te zijn van de implicaties van de beslissing.
Kings werd al snel geconfronteerd met content die hem dag en nacht achtervolgde. Het ergste was wat ze codeerden als CSAM, of materiaal over seksueel misbruik van kinderen. Dag na dag spitte hij door teksten, foto’s en video’s die de schending van kinderen levendig afbeeldden. “Ik zag video’s van vagina’s van kinderen die scheurden door het misbruik,” vertelde hij met holle stem. “Elke keer dat ik thuis mijn ogen sloot, was dat het enige dat ik kon zien.”
Het trauma infecteerde elk aspect van Kings’ leven. Op 32-jarige leeftijd had hij moeite om intiem te zijn met zijn vrouw; beelden van mishandelde kinderen plaagden zijn geest. De mentale gezondheidsondersteuning van het bedrijf was ronduit ontoereikend, zei Kings. Counselors waren ogenschijnlijk slecht toegerust om de diepte van zijn trauma aan te kunnen.
Uiteindelijk werd de druk te groot. Kings’ vrouw, die niet met de seksuele ontbering en de veranderingen in zijn gedrag om kon gaan, verliet hem. Tegen de tijd dat Kings Sama verliet, was hij een schim van zijn vroegere zelf — zowel mentaal als financieel gebroken — zijn dromen van een beter leven waren verbrijzeld door een baan waarvan hij dacht dat die zijn redding zou zijn.
Het verlies van vertrouwen in de mensheid
Ranta’s verhaal begint in de kleine Zuid-Afrikaanse township Diepkloof, waar het leven zich in voorspelbare cycli beweegt. Ze was 27 toen we spraken en was moeder op 21-jarige leeftijd. Ze reflecteerde op de harde realiteit waarmee veel jonge vrouwen in haar gemeenschap worden geconfronteerd: zes van de tien meisjes raken zwanger voor hun 21e, en betreden een wereld waarin de vooruitzichten op een baan al schaars zijn en alleenstaand moederschap hen nog ongrijpbaarder maakt.
Toen Sama kwam rekruteren en een beter leven voor haar en haar kind beloofde, zag Ranta het als haar ticket naar een betere toekomst. Ze solliciteerde en bevond zich al snel in Nairobi, ver weg van alles wat ze kende. De beloften vielen al snel uit elkaar toen ze aankwam. Steun voor hereniging met haar kind, dat ze in Zuid-Afrika had achtergelaten, werd nooit werkelijkheid zoals beloofd.
Toen ze hiernaar vroeg, vertelden vertegenwoordigers van het bedrijf haar dat ze niet langer de volledige kosten konden dekken zoals aanvankelijk beloofd, en boden ze slechts gedeeltelijke ondersteuning, die van haar salaris zou worden afgetrokken. Pogingen om een officiële audiëntie bij Sama te krijgen, waren niet succesvol, waarbij onofficiële bronnen de lopende rechtszaken met werknemers als reden aanhaalden.
Toen Ranta’s zus stierf, zei ze dat haar baas haar een paar dagen vrij gaf, maar haar niet liet overschakelen naar minder traumatische contentstreams toen ze weer content ging modereren — ook al was er een opening. Het was alsof ze van haar en andere werknemers verwachtten dat ze als machines zouden opereren, in staat om het ene programma uit te schakelen en het andere op te starten wanneer ze dat wilden.
Dingen bereikten een hoogtepunt tijdens een gecompliceerde zwangerschap. Ze mocht niet op bedrust blijven zoals haar arts had voorgeschreven, en slechts vier maanden na de geboorte van haar tweede dochter werd de baby opgenomen in het ziekenhuis.
Ze hoorde toen dat het bedrijf was gestopt met het betalen van ziektekostenverzekeringsbijdragen kort nadat ze was begonnen met werken, ondanks de voortdurende inhoudingen op haar salaris. Nu zat ze opgescheept met rekeningen die ze niet kon betalen.
Ranta’s rol omvatte het modereren van content gerelateerd aan vrouwelijk seksueel misbruik, xenofobie, haatzaaiende taal, racisme en huiselijk geweld, voornamelijk uit haar geboorteland Zuid-Afrika en Nigeria. Hoewel ze het belang van haar baan besefte, betreurde ze het gebrek aan adequate psychologische begeleiding, training en ondersteuning.
Ranta merkte dat ze haar vertrouwen in de mensheid verloor. “Ik zag dingen die ik nooit voor mogelijk had gehouden,” vertelde ze me. “Hoe kunnen mensen beweren de intelligente soort te zijn na wat ik heb gezien?”
De CEO van Sama heeft spijt betuigd over het ondertekenen van het contentmoderatiecontract met Meta. Een woordvoerder van Meta zei dat ze van alle partnerbedrijven eisen dat ze “24/7 on-site support met getrainde professionals, een on-call service en toegang tot particuliere gezondheidszorg vanaf de eerste dag van dienstverband” bieden.
De vertegenwoordiger zei ook dat het “technische oplossingen bood om blootstelling aan grafisch materiaal zoveel mogelijk te beperken.” De ervaringen die werknemers als Abrha, Kings en Ranta deelden, schetsen echter een heel ander beeld, wat duidt op een aanzienlijke kloof tussen het beleid van Meta en de realiteit van de contentmoderators.
Wereldwijde perspectieven: soortgelijke problemen over de grenzen heen
De ervaringen van Abrha, Kings en Ranta zijn geen geïsoleerde incidenten. Alleen al in Kenia sprak ik met meer dan 20 werknemers die soortgelijke verhalen deelden. Over de hele wereld, in landen als Duitsland, Venezuela, Colombia, Syrië en Libanon, vertelden datawerkers met wie we spraken als onderdeel van ons Data Workers Inquiry-project ons dat ze met soortgelijke uitdagingen te maken hadden.
In Duitsland belanden immigranten met een onzekere status, ondanks alle programma’s om nieuwkomers te helpen, nog steeds in functies zoals die van Abrha, waarbij ze content uit hun thuislanden beoordelen. De precaire visumsituatie van deze werknemers voegde een laag kwetsbaarheid toe. Velen vertelden ons dat ze zich, ondanks de uitbuiting, niet in staat voelden om zich publiekelijk uit te spreken. Omdat hun werk gekoppeld is aan hun visa, dreigt het risico om ontslagen en gedeporteerd te worden.
In Venezuela en Colombia drijft economische instabiliteit velen ertoe om werk te zoeken in de data-industrie. Hoewel ze niet altijd direct betrokken zijn bij contentmoderatie, werken veel data-annotators vaak met uitdagende datasets die een negatieve impact kunnen hebben op hun mentale welzijn.
De realiteit komt vaak niet overeen met wat er werd geadverteerd. Zelfs als datawerkers in Syrië en Syrische vluchtelingen in Libanon geen content modereren, kruist hun werk vaak digitale overblijfselen van het conflict dat ze hebben meegemaakt of waarvoor ze zijn gevlucht, wat een extra laag emotionele druk toevoegt aan hun toch al veeleisende banen.
Het wijdverbreide gebruik van Non-Disclosure Agreements (NDA’s) is nog een laag in de ongelijke machtsdynamiek met betrekking tot zulke kwetsbare individuen. Deze overeenkomsten, vereist als onderdeel van de arbeidscontracten van werknemers, brengen werknemers tot zwijgen en houden hun strijd verborgen voor het publiek.
De impliciete dreiging van deze NDA’s reikt vaak verder dan de periode van tewerkstelling, en werpt een lange schaduw over het leven van de werknemers, zelfs nadat ze hun baan hebben verlaten. Veel werknemers die met ons spraken, eisten anonimiteit uit angst voor juridische repercussies.
Deze werknemers, in plaatsen als Bogotá, Berlijn, Caracas en Damascus, meldden dat ze zich in de steek gelaten voelden door de bedrijven die winst maakten op hun arbeid. De zogenaamde “wellnessprogramma’s” die Sama aanbood, waren vaak niet toegerust om het diepgewortelde trauma van deze werknemers aan te pakken, vertelden werknemers mij.
Hun verhalen maken duidelijk dat achter de gestroomlijnde façade van onze digitale wereld een verborgen beroepsbevolking schuilgaat die immense emotionele lasten draagt, zodat wij dat niet hoeven te doen. Hun ervaringen roepen dringende vragen op over de ethische implicaties van datawerk en de menselijke kosten van het onderhouden van onze digitale infrastructuur. Het mondiale karakter van dit probleem onderstreept een verontrustende waarheid: de uitbuiting van datawerkers is geen bug, het is een systemisch kenmerk van de industrie.
Het is een wereldwijd web van strijd, gesponnen door techgiganten en in stand gehouden door de stilte van degenen die erin gevangen zitten, zoals gedocumenteerd door Mophat Okinyi en Richard Mathenge , voormalige contentmoderators en nu mede-onderzoekers in ons Data Workers’ Inquiry-project. De twee hebben deze patronen zien herhalen in een groot aantal verschillende bedrijven in meerdere landen. Hun ervaringen, zowel als werknemers als nu als voorstanders, benadrukken de wereldwijde aard van deze uitbuiting.
Ook wij hebben jou steun nodig in 2025, gun ons een extra bakkie koffie groot of klein.
Dank je en proost?
Wij van Indignatie AI zijn je eeuwig dankbaar
Het trauma achter het scherm
Voordat ik naar Kenia reisde, dacht ik de uitdagingen te begrijpen waarmee dataworkers te maken krijgen door mijn gesprekken met sommigen online. Bij aankomst werd ik echter geconfronteerd met verhalen over individuele en institutionele verdorvenheid die me wekenlang met secundair trauma en nachtmerries achterlieten. Maar voor de dataworkers zelf manifesteert hun trauma zich op twee primaire manieren: direct trauma van de baan zelf en systemische problemen die het trauma verergeren.
1. Direct trauma
Contentmoderators worden elke dag gedwongen om de donkerste hoeken van de mensheid onder ogen te zien. Ze waden door een giftig moeras van geweld, haatzaaierij, seksueel misbruik en grafische beelden.
Deze constante blootstelling aan verontrustende content eist zijn tol. “Het gaat verder dan wat mensen menselijk maakt,” vertelde Kings me. “Het is alsof je gedwongen wordt om elke dag gif te drinken, wetende dat het je doodt, maar je kunt er niet mee stoppen omdat het je werk is.” De beelden en video’s blijven hangen na het werk, spoken door hun dromen en infiltreren hun privéleven.
Veel moderators melden symptomen van posttraumatische stress en indirect trauma : nachtmerries, flashbacks en ernstige angst komen veel voor. Sommigen ontwikkelen een diepgeworteld wantrouwen jegens de wereld om hen heen, voorgoed veranderd door de constante blootstelling aan menselijke wreedheid. Zoals een werknemer mij vertelde: “Ik begon aan deze baan met het geloof in de fundamentele goedheid van mensen. Nu weet ik niet zeker of ik nog ergens in geloof. Als mensen dit kunnen, wat is er dan nog om in te geloven?”
Wanneer de dienst eindigt, volgen trauma’s deze werknemers naar huis. Voor Kings en Okinyi, net als voor zoveel anderen, brokkelden hun relaties af onder het gewicht van wat ze zagen maar niet konden bespreken. Kinderen groeien op met emotioneel afstandelijke ouders, partners raken vervreemd en de werknemer blijft geïsoleerd achter in zijn pijn.
Veel moderators melden een fundamentele verandering in hun wereldbeeld. Ze worden hyperalert en zien overal potentiële bedreigingen. Okinyi vertelde hoe een van zijn voormalige collega’s van de stad naar het minder drukke platteland moest verhuizen vanwege paranoia over mogelijke uitbarstingen van geweld. In een zine die ze maakte voor het Data Workers Inquiry over Sama’s vrouwelijke contentmoderators, vertelde een van Ranta’s geïnterviewden hoe de baan haar voortdurend deed twijfelen aan haar waarde en haar vermogen om haar kinderen op te voeden.
2. Systemische problemen
Naast het directe trauma van de inhoud zelf, worden moderators geconfronteerd met een stortvloed aan systemische problemen die hun lijden verergeren:
- Onzekerheid over de baan : Veel moderators, vooral zij die in precaire leefsituaties leven zoals vluchtelingen of economische migranten, leven in constante angst om hun baan te verliezen. Deze angst weerhoudt hen er vaak van om te praten over hun werkomstandigheden of om hulp te zoeken. Bedrijven maken vaak misbruik van deze kwetsbaarheid.
- Gebrek aan mentale gezondheidsondersteuning : Hoewel bedrijven hun wellnessprogramma’s aanprijzen, schiet de realiteit tekort. Zoals Kings heeft ervaren, is de geboden begeleiding vaak ontoereikend, met therapeuten die niet zijn toegerust om het unieke trauma van contentmoderatie aan te pakken. Sessies zijn vaak kort en slagen er niet in om dieperliggende, dieperliggende trauma’s aan te pakken.
- Onrealistische prestatie-indicatoren : moderators moeten vaak honderden stukken content per uur beoordelen. Dit meedogenloze tempo laat geen tijd over om het verontrustende materiaal dat ze hebben gezien te verwerken, waardoor ze hun emoties moeten opkroppen. De focus op kwantiteit boven kwaliteit heeft niet alleen invloed op de nauwkeurigheid van moderatie, maar verergert ook de psychologische tol van het werk. Zoals Abrha me vertelde: “Stel je voor dat je een video moet bekijken van iemand die wordt vermoord, en dan meteen door moet gaan naar de volgende post. Er is geen tijd om adem te halen, laat staan om te verwerken wat we hebben gezien.”
- Constante bewaking : Alsof de content zelf nog niet stressvol genoeg was, worden moderators constant gemonitord. Vrijwel elke beslissing en in feite elke seconde van hun dienst wordt nauwkeurig onderzocht, wat een extra laag druk toevoegt aan een toch al overweldigende baan. Deze bewaking strekt zich uit tot toiletbezoeken, vrije tijd tussen taken en zelfs gezichtsuitdrukkingen tijdens het beoordelen van content. Supervisors houden werknemers in de gaten via computertrackingsoftware, camera’s en in sommige gevallen fysieke observatie. Ze letten meestal op gezichtsuitdrukkingen om de reacties van werknemers te meten en ervoor te zorgen dat ze een niveau van afstand of “professionaliteit” behouden tijdens het beoordelen van verontrustende content. Als gevolg hiervan vertelden werknemers mij dat ze het gevoel hadden dat ze niet eens op natuurlijke wijze konden reageren op de verontrustende content die ze bekeken. Werknemers kregen dagelijks een uur pauze voor al hun overbodige behoeften – eten, rekken, naar het toilet – elke extra tijd die ze aan die of andere niet-werkgerelateerde activiteiten besteedden, werd nauwkeurig onderzocht en er werd tijd toegevoegd aan hun diensten. Abrha gaf ook aan dat werknemers hun telefoons in kluisjes moesten opbergen, waardoor ze nog meer geïsoleerd raakten en hun mogelijkheid om tijdens hun dienst met de buitenwereld te communiceren, werd beperkt.
En de rimpelingen reiken verder dan alleen het gezin: vrienden drijven weg, omdat ze zich niet kunnen identificeren met het nieuwe, donkerdere perspectief op het leven van de moderator; sociale interacties worden gespannen, omdat werknemers moeite hebben om ‘normale’ gesprekken te voeren nadat ze hun dagen hebben doorgebracht met het slechtste menselijke gedrag.
In essentie verandert het trauma van contentmoderatie de hele familiedynamiek en sociale netwerken, waardoor een cyclus van isolatie en lijden ontstaat die veel verder reikt dan het individu.
Mensen traumatiseren om ‘intelligente’ systemen te creëren
Misschien is de wreedste ironie dat we mensen traumatiseren om de illusie van machine-intelligentie te creëren. Het trauma dat menselijke moderators wordt toegebracht, wordt gerechtvaardigd door de belofte van toekomstige AI-systemen die geen menselijke tussenkomst nodig hebben. Toch vereist hun ontwikkeling meer menselijke arbeid en vaak het offer van de mentale gezondheid van werknemers.
Bovendien leidt de focus op AI-ontwikkeling vaak middelen en aandacht af van het verbeteren van de omstandigheden voor menselijke werknemers. Bedrijven investeren miljarden in machine learning-algoritmen, terwijl ze de basisbehoeften op het gebied van mentale gezondheid van hun menselijke moderators verwaarlozen.
De AI-illusie distantieert gebruikers van de realiteit van contentmoderatie, net zoals de bio-industrie ons distantieert van de behandeling van legkippen. Deze collectieve, opzettelijke onwetendheid zorgt ervoor dat uitbuiting ongecontroleerd door kan gaan. Het AI-narratief is een rookgordijn dat een diep onethische arbeidspraktijk verhult die menselijk welzijn inruilt voor een façade van technologische vooruitgang.
Digitale werkers van de wereld, sta op!
In het licht van uitbuiting en trauma zijn datawerkers niet passief gebleven. Overal ter wereld hebben werknemers geprobeerd zich te verenigen, maar hun inspanningen werden vaak gehinderd door verschillende actoren. In Kenia vormden werknemers de African Content Moderators Union, een ambitieuze poging om werknemers uit verschillende Afrikaanse landen te verenigen.
Mathenge , die ook deel uitmaakt van de leiding van de vakbond, vertelde me dat hij denkt dat hij is ontslagen uit zijn rol als teamleider vanwege zijn vakbondsactiviteiten. Deze vergelding stuurde een huiveringwekkende boodschap naar andere werknemers die overwogen zich te organiseren.
De strijd voor werknemersrechten heeft onlangs aanzienlijke juridische aandacht gekregen. Op 20 september oordeelde een Keniaanse rechtbank dat Meta daar aangeklaagd kon worden voor het ontslaan van tientallen contentmoderators door haar contractant Sama. De rechtbank handhaafde eerdere uitspraken dat Meta voor de rechter kon verschijnen voor deze ontslagen en in Kenia aangeklaagd kon worden voor vermeende slechte werkomstandigheden.
De laatste uitspraak heeft mogelijk verstrekkende gevolgen voor de manier waarop de techgigant wereldwijd met zijn contentmoderators werkt. Het markeert ook een belangrijke stap voorwaarts in de voortdurende strijd voor eerlijke behandeling en erkenning van de rechten van datawerkers.
De obstakels gaan verder dan het bedrijfsniveau. Organisaties gebruiken tactieken om vakbonden te breken, vaak door werknemers te ontslaan die zich inzetten voor vakbondsvorming, zei Mathenge. Tijdens gesprekken met werknemers, journalisten en functionarissen van het maatschappelijk middenveld in de Keniaanse digitale arbeidsruimte, kwamen er geruchten naar boven over hoge overheidsfunctionarissen die steekpenningen eisten om de vakbond formeel te registreren, wat het vakbondsproces nog ingewikkelder maakte.
Het meest bizarre is misschien wel dat toen werknemers in Kenia probeerden hun eigen vakbond op te richten, ze in plaats daarvan te horen kregen dat ze zich bij de vakbond voor post en telecommunicatie moesten aansluiten, aldus een functionaris van de jongerenorganisatie Siasa Place . Deze suggestie negeert de enorme verschillen tussen deze sectoren en de unieke uitdagingen waar datawerkers vandaag de dag mee te maken hebben.
Ondanks deze tegenslagen zijn werknemers innovatieve manieren blijven vinden om zich te organiseren en op te komen voor hun rechten. Okinyi vormde samen met Mathenge en Kings de Techworker Community Africa , een niet-gouvernementele organisatie die zich richt op lobbyen tegen schadelijke techpraktijken zoals arbeidsuitbuiting.
Ook andere organisaties zijn de handen uit de mouwen gestoken om de werknemers te helpen, zoals Siasa Place. Advocaten voor digitale rechten zoals Mercy Mutemi hebben een petitie ingediend bij het Keniaanse parlement om de werkomstandigheden bij AI-bedrijven te onderzoeken.
Een pad naar ethische AI en eerlijke arbeidspraktijken
Branchebrede protocollen voor geestelijke gezondheid
We hebben een allesomvattende, sectorbrede aanpak nodig voor mentale gezondheidsondersteuning. Op basis van mijn onderzoek en gesprekken met werknemers stel ik een veelzijdige aanpak voor die niet wordt geboden door bestaande ondersteuningssystemen.
Veel bestaande bedrijfsprogramma’s zijn vaak oppervlakkige ‘wellnessprogramma’s’ die niet inspelen op het diepgewortelde trauma dat datawerkers ervaren. Deze kunnen incidentele groepssessies of toegang tot algemene counselingdiensten omvatten, maar ze zijn doorgaans onvoldoende en niet op maat gemaakt.
Mijn voorgestelde aanpak omvat verplichte, regelmatige counselingsessies met therapeuten die specifiek zijn opgeleid in trauma gerelateerd aan datawerk. Daarnaast zouden bedrijven regelmatige mentale gezondheidschecks moeten implementeren, toegang moeten bieden tot 24/7 crisisondersteuning en langetermijntherapiediensten moeten aanbieden, die grotendeels ontbreken in huidige opstellingen.
Cruciaal is dat deze diensten cultureel competent moeten zijn en de diverse achtergronden van datawerkers wereldwijd moeten erkennen. Dit is een significante afwijking van de huidige one-size-fits-all-aanpak die vaak geen rekening houdt met de culturele contexten van werknemers in plaatsen als Nairobi, Manilla of Bogotá. Het voorgestelde systeem zou ondersteuning bieden in de moedertaal van werknemers en gevoelig zijn voor culturele nuances rondom mentale gezondheid — aspecten die in veel bestaande programma’s ernstig ontbreken.
Bovendien zou deze nieuwe aanpak, in tegenstelling tot het huidige systeem waarbij mentale gezondheidsondersteuning vaak eindigt met een baan, de ondersteuning uitbreiden tot voorbij de duur van de baan, waarbij de langdurige impact van dit werk wordt erkend. Deze uitgebreide, langetermijn- en cultureel gevoelige aanpak vertegenwoordigt een fundamentele verschuiving van de huidige symbolische en vaak ineffectieve mentale gezondheidsondersteuning die aan datawerkers wordt geboden.
Implementatie van “Trauma Cap”
Net zoals we stralingsblootstellingslimieten hebben voor kernwerkers, hebben we traumablootstellingslimieten nodig voor datawerkers. Deze “traumacap” zou strikte limieten stellen aan de hoeveelheid en het type verontrustende content waaraan een werknemer binnen een bepaald tijdsbestek kan worden blootgesteld.
De implementatie zou kunnen inhouden dat werknemers rouleren tussen inhoud met een hoge en een lage impact, dat er verplichte pauzes worden ingelast na blootstelling aan bijzonder traumatisch materiaal, dat er beperkingen worden opgelegd aan het aantal opeenvolgende dagen waarop met schokkende inhoud wordt gewerkt en dat er jaarlijks ‘traumaverlof’ wordt toegekend voor herstel van de geestelijke gezondheid.
We hebben een systeem nodig dat niet alleen de hoeveelheid beoordeelde content bijhoudt, maar ook een systeem dat rekening houdt met emotionele impact. Een video van extreem geweld zou bijvoorbeeld meer moeten tellen voor de pet van een werknemer dan een spambericht.
Onafhankelijk toezichthoudend orgaan
Zelfregulering door techbedrijven is onvoldoende gebleken; het is in feite het toevertrouwen van een jakhals met het kippenhok. We hebben een onafhankelijk orgaan nodig met de bevoegdheid om te controleren, normen te handhaven en straffen op te leggen wanneer dat nodig is.
Dit toezichtsorgaan moet bestaan uit ethici, voormalige datawerkers, professionals in de geestelijke gezondheidszorg en experts op het gebied van mensenrechten. Het moet de bevoegdheid hebben om onaangekondigde inspecties uit te voeren van datawerkfaciliteiten, sectorbrede normen voor arbeidsomstandigheden en ondersteuning van de geestelijke gezondheidszorg vast te stellen en te handhaven, en een veilig kanaal te bieden voor werknemers om overtredingen te melden zonder angst voor vergelding. Van cruciaal belang is dat elk toezichtsorgaan de stemmen van huidige en voormalige datawerkers moet omvatten die de uitdagingen van dergelijk werk echt begrijpen.
De rol van consumenten en het publiek bij het eisen van verandering
Hoewel hervormingen in de industrie en toezicht door de overheid cruciaal zijn, kan de kracht van publieke druk niet genoeg worden benadrukt. Als consumenten van digitale content en deelnemers aan online ruimtes, hebben we allemaal een rol te spelen in het eisen van ethischere praktijken. Dit omvat geïnformeerde consumptie, waarbij we onszelf informeren over de menselijke kosten achter contentmoderatie.
Voordat we content delen, met name potentieel verontrustend materiaal, moeten we nadenken over de moderator die het mogelijk moet beoordelen. Dit besef kan onze beslissingen over wat we posten of delen beïnvloeden. We moeten transparantie eisen van technologiebedrijven over hun moderatiepraktijken voor content.
We kunnen de eigen platforms van bedrijven gebruiken om ze ter verantwoording te roepen door publiekelijk vragen te stellen over arbeidsomstandigheden en mentale gezondheidsondersteuning. We moeten bedrijven steunen die ethische arbeidspraktijken prioriteit geven en overwegen om bedrijven te boycotten die dat niet doen.
Bovendien, nu AI-tools steeds gangbaarder worden in ons digitale landschap, moeten we onszelf ook informeren over de verborgen kosten achter deze schijnbaar wonderbaarlijke technologieën. Tools zoals ChatGPT en DALL-E zijn het product van immense menselijke arbeid en ethische compromissen.
Deze AI-systemen zijn gebouwd op de ruggen van talloze onzichtbare individuen: contentmoderators die zijn blootgesteld aan traumatisch materiaal, datalabelers die lange uren werken voor lage lonen en kunstenaars wiens creatieve werken zijn geëxploiteerd zonder toestemming of compensatie. Naast de duizelingwekkende menselijke kosten is de milieu-tol van deze technologieën alarmerend en wordt vaak over het hoofd gezien.
Van het enorme energieverbruik van datacenters tot de bergen elektronisch afval die worden gegenereerd, de ecologische voetafdruk van AI is een cruciaal probleem dat onze onmiddellijke aandacht en actie vereist. Door deze realiteiten te begrijpen, kunnen we beter geïnformeerde keuzes maken over de AI-tools die we gebruiken en pleiten voor eerlijke compensatie en erkenning van de menselijke arbeid die ze mogelijk maakt.
Politieke actie is net zo belangrijk. We moeten pleiten voor wetgeving die datawerkers beschermt, onze politieke vertegenwoordigers aansporen om de tech-industrie te reguleren en politieke kandidaten steunen die prioriteit geven aan digitale ethiek en eerlijke arbeidspraktijken.
Het is van cruciaal belang om via onze platforms bewustzijn te creëren over de realiteit van datawerk. Zo kunnen we mensen informeren over de verhalen van mensen als Abrha, Kings en Ranta en discussies stimuleren over de ethische implicaties van onze digitale consumptie.
We kunnen organisaties als de African Content Moderators Union en NGO’s die zich richten op digitale arbeidsrechten volgen en ondersteunen. Ook kunnen we de stem van datawerkers die zich uitspreken over hun ervaringen versterken en zo een zinvolle verandering teweegbrengen.
De meeste mensen hebben geen idee wat er achter hun gesanitiseerde social media feeds en de AI tools die ze dagelijks gebruiken gebeurt. Als ze het wisten, denk ik dat ze verandering zouden eisen. Publieke steun is nodig om ervoor te zorgen dat de stemmen van datawerkers gehoord worden.
Door deze oplossingen te implementeren en de kracht van de publieke vraag te benutten, kunnen we werken aan een toekomst waarin de digitale wereld waarvan we genieten niet ten koste gaat van menselijke waardigheid en mentale gezondheid. Het is een uitdagend pad, maar een pad dat we moeten bewandelen als we een echt ethisch digitaal ecosysteem willen creëren.
Dit artikel is gebaseerd op interviews die zijn afgenomen met datawerkers uit Kenia, Syrië, Libanon, Duitsland, Colombia, Venezuela en Brazilië als onderdeel van het Data Workers Inquiry-project, een actiegericht onderzoeksproject dat voortkomt uit een samenwerking tussen het Distributed Artificial Intelligence Research Institute en het Weizenbaum Institute.