L'empresa CCC Barcelona Digital Services —subcontractada per Meta per moderar els continguts de Facebook i Instagram— té 2.030 treballadors a Barcelona i almenys el 20%, prop d'uns 400, està de baixa per traumes psicològics derivats dels continguts que han de revisar diàriament. La dada la revela aquest divendres La Vanguardia, que ha entrevistat diversos treballadors de la companyia. La funció principal d'aquests empleats és la de revisar el contingut més brutal que es publica a la xarxa: vídeos d'assassinats, de desmembraments, de violacions o fins i tot de suïcidis en directe. Alguns dels testimonis que han parlat amb el citat diari, han explicat que durant una jornada laboral poden arribar a revisar uns 450 vídeos o imatges de contingut extrem. A més, aquests revisors han de tenir una "taxa d'encert" alta, que ascendeix fins al 98%, és a dir, que les seves decisions han de coincidir tant amb les d'altres moderadors com la de l'auditor superior. Si la taxa d'encert baixa, poden fins i tot, ser acomiadats. 

Els 10 treballadors entrevistats revelen que els seus informes mèdics recullen quadres l'estrès posttraumàtic, ansietat, insomni, depressió i fins i tot intents de suïcidi. Alguns d'ells encara treballen a l'empresa, tot i que, de baixa, i uns altres ja han marxat. També n'hi ha alguns que es plantegen denunciar. 

Els testimonis dels treballadors

Un dels membres de la companyia entrevistat relata que no pot oblidar una de les brutals escenes que va haver de revisar. En el vídeo un home, alcoholitzat, assassinava el seu fill davant la càmera —un nadó de mesos— clavant-li un ganivet al pit, l'obre i li arrenca el cor i el mossega. Un altre d'ells explica que va veure una bona oportunitat laboral, ja que, no demanaven cap formació, pagaven un bon sou i "suposava posar un peu a Facebook". Tanmateix, assegura que ningú li va explicar la duresa de les imatges que hauria de revisar. Només 2 mesos després, explica, que el van ascendir a "un grup d'alta prioritat", un equip que s'encarregava de revisar contingut més salvatge. "Assassinats brutals, desmembraments, tortures, violacions, suïcidis en directe, nens sent abusats. El pitjor dels humans", relata. Va demanar canviar de posició, li van denegar, i va ser, doncs, quan van començar els atacs de pànic després de veure un suïcidi en directe. 5 anys després segueix amb medicació i tractament psicològic. Una altra noia explica que de petita va patir bullying que la va portar a tenir una depressió. L'empresa mai li va preguntar el seu historial a l'hora de contractar-la, i la van col·locar a la "cua de suïcidis en directe", va recaure en la depressió i va tenir 2 intents de suïcidi. 

A més, La Vanguardia relata les condicions que imposa l'empresa, en concret, els treballadors estan sotmesos a extremes clàusules de confidencialitat. Tant és així que ni les seves parelles poden saber que, per sobre del grup canadenc Telus Internationals, treballen per a Meta. A més, està prohibit entrar amb el mòbil a la sala de visionament, i si no es compleix, se sanciona amb dues setmanes sense sou. Quan entren a l'empresa —situada a la torre Glòries— passen dues vegades per un detector de metalls i d'empremta dactilar. 

Escassa atenció psicològica a l'empresa

Tots els moderadors entrevistats consideren que l'atenció psicològica que ofereix l'empresa és insuficient per la gravetat del contingut que han de revisar. Un d'ells relata que "tenim 40 minuts a la setmana del que anomenen 'wellness'", és a dir que poden parlar amb algú, tot i que, apunta que si manifestes que estàs malament, t'insten a buscar una altra feina. "L'empresa està acostumada al fet que la gent que no ho aguanta s'agafi la baixa i després se'n vagi de l'empresa. Sense reclamar", apunta. A més, també expliquen que hi ha tres torns: matí, tarda o nit, que van canviant cada dues setmanes. Un fet que també contribueix a intensificar els seus problemes mentals, ja que poden provocar trastorns del son. ​

Les dades que revela la mateixa Meta són brutals. Només en el segon trimestre del 2023 van ser retirats de Facebook 7,2 milions de continguts per abús sexual infantil, altres 6,4 milions per suïcidi i autolesió i 17,5 milions per discurs d'odi; mentre que d'Instagram es van retirar 6,2 milions de vídeos per violència.