Personas encargadas de monitorear y dar de baja contenidos de la red social que no cumplen las condiciones como discurso de odio, pornografía e imágenes explícitas de violencia denuncian precarias condiciones laborales, cláusulas engañosas, síndrome de estrés postraumático y dificultades para relacionarse con la familia y la sociedad. Aquí una panorámica de la situación.

  • Por Simon Valmary
  • Texto y fotos: AFP

Trevin Brownie no ha olvidado su primer día como moderador de contenidos para Facebook en los locales de una empresa subcontratada situados en la capital de Kenia, Nairobi.

“Mi primer video era el de un hombre que se suicidaba. [...] Tenía un niño de 2 o 3 años jugando al lado. Después de que el hombre se ahorcara, al cabo de unos dos minu­tos entendió que algo no iba bien”, cuenta el sudafricano de 30 años antes de describir la reacción del niño.

Invitación al canal de WhatsApp de La Nación PY

“Esto me puso enfermo”, dice, apuntando que las imágenes le provocaron “náuseas, vómi­tos”. “Pero continué haciendo mi trabajo”, agrega.

Entre 2020 y 2023, cada día visionó centenares de videos violentos, con llamados al odio, para bloquearlos y evi­tar que llegaran a los ojos de los usuarios de Facebook.

Trabajaba en Nairobi para Sama, una empresa califor­niana a la que Meta –matriz de Facebook, Instagram y Whatsapp– contrató entre 2019 y 2023 para que se encargara de la moderación de los contenidos de Face­book en África subsahariana.

Por este centro de operaciones han pasado hasta 260 mode­radores de varios países afri­canos contratados, sobre todo por conocer numerosas len­guas locales.

Trevin Brownie afirma que vio “cientos de decapitacio­nes”, “órganos arrancados de cuerpos”, “violaciones y pedo­pornografía al más alto nivel”, “niños soldados preparándose para la guerra”...

“Los humanos hacen cosas a otros humanos que nunca habría imaginado”, dice. “La gente no tiene idea de los videos morbosos [...] de los que se libran”, asevera.

BATALLA JUDICIAL

Trevin Brownie es deman­dante en uno de los tres casos abiertos contra Meta y Sama en Kenia.

Ha recurrido su despido junto a otros 183 exempleados de Sama, que anunció que cesaba su actividad en la moderación de contenidos. Los deman­dantes reclaman una com­pensación por unos sueldos “insuficientes” teniendo en cuenta “el riesgo al que se exponían” y por los “daños causados a su salud mental”.

La ofensiva judicial empezó cuando otro extrabajador, Daniel Motaung, presentó una demanda en mayo de 2022 ante un tribunal de Nai­robi denunciando unas condi­ciones laborales “indignas”, métodos de contratación engañosos, remuneraciones insuficientes y falta de apoyo psicológico.

Testimonios recabados a fina­les de abril por la AFP entre los otros demandantes con­firman los hechos denuncia­dos por Motaung.

Dos de ellos, Amin y Tigist (los nombres fueron modifi­cados), contratados en 2019 en el primer grupo de mode­radores de Sama, afirma­ron que ellos respondieron a ofertas de trabajo en cen­tros de atención telefónica.

No fue hasta firmar sus con­tratos, con cláusulas de con­fidencialidad, que descubrie­ron que en realidad iban a trabajar como moderadores de contenidos.

Amin y Tigist no dijeron nada ni pensaron en irse. “No tenía ni idea de lo que es un mode­rador de contenidos, nunca había oído hablar de ello”, cuenta Tigist, una etíope que consiguió el trabajo por saber hablar la lengua amhárica.

“La mayoría de nosotros no sabía la diferencia entre un centro de atención telefónica y un centro de moderación de contenidos”, confirma Amin, que trabajaba en el “mercado” somalí.

“Durante la formación, le res­taron importancia al conte­nido. Lo que nos enseñaron no era nada comparado con lo que acabaríamos viendo”, añade. “Los problemas empe­zaron después”, dice.

TRAUMA

En sus pantallas, ocho horas al día, iban pasando contenidos, a cada cual más impactante. “Uno no elige lo que ve, llega por azar: videos de suicidios, violencia, explotación sexual de niños, desnudez, incitación a la violencia...”, cuenta Amin.

Tenían que dedicar una media de 55 a 65 segundos a cada video y analizar entre 378 y 458 publicaciones al día, bajo riesgo de ser llamados al orden o despedidos si iban dema­siado despacio, explican.

Al ser contactada por la AFP, Sama afirmó que no estaba “en condiciones” de comentar los casos en curso.

Meta aseguró, en un correo enviado a la AFP, que los moderadores “en principio no tienen que evaluar un número definido de publicaciones, no tienen cuotas y no están obli­gados a tomar decisiones apre­suradas”.

“Autorizamos y alentamos a las empresas con las que tra­bajamos a que le den a sus empleados el tiempo que nece­siten para tomar una deci­sión”, añadió.

Trevin Brownie dice que tiene “miedo de los niños por culpa de los niños soldado”, y tam­bién de los lugares atestados “a causa de todos los videos de atentados” que ha visto.

“A mí me volvían loco las fies­tas”, cuenta. “No he ido a un club desde hace tres años. No puedo, tengo miedo”, sostiene.

En el caso de Amin, los prin­cipales efectos se ven en su cuerpo, que pasó de 96 kilos a “69 o 70 kg”. Todos asegu­ran que se han vuelto insen­sibles a la muerte o al terror. “Mi corazón se ha vuelto de piedra”, resume Tigist.

“HACÍA FALTA DINERO”

Meta indicó a la AFP que tiene “contratos claros” con todos sus socios que incluyen “la dis­ponibilidad de asesoramiento individual, un apoyo adicional para quienes están expuestos a un contenido más difícil”.

“A todas las empresas con las que trabajamos les exigimos que proporcionen una asis­tencia las 24 horas del día, los 7 días de la semana, con pro­fesionales formados, un ser­vicio de guardia y el acceso a la atención sanitaria privada desde el primer día de con­trato”, recalcó la compañía.

Pese a sus traumas, los traba­jadores siguieron con sus labo­res porque les “hacía falta ese dinero”.

Con un sueldo de 40.000 che­lines (270 euros, 287 dólares) y 20.000 chelines suplemen­tarios para los no kenianos, ganaban casi el triple del sala­rio mínimo nacional (15.200 chelines).

“Desde 2019, no tuve opor­tunidad de encontrar otro empleo, pese a haberme pre­sentado a muchos. No tenía otra opción. Por eso me quedé tanto tiempo”, explica Amin.

“MERECEMOS QUE NOS TRATEN MEJOR”

“Esto causa daños y nosotros nos sacrificamos por nuestra comunidad, por el mundo. Merecemos que nos traten mejor”, apunta Tigist. No obs­tante, los entrevistados asegu­ran que no volverían a dedi­carse de nuevo a ello.

“Mi opinión es que ningún humano debería hacer eso. No es un oficio para huma­nos”, explica Trevin Brow­nie. “Francamente, me gustaría que la inteligen­cia artificial pudiera hacer ese trabajo”. Pero, pese a los enormes avances realizados, Trevin Brownie duda de que eso sea posible en un futuro próximo.

“La tecnología juega y seguirá jugando un papel central en nuestras operaciones de veri­ficación de contenidos”, ase­guró Meta a la AFP.

Hasta ahora, ninguno le había hablado a nadie de su trabajo, ni siquiera a su familia, a causa de las cláusulas de confiden­cialidad y también porque “nadie puede entender lo que vivimos”. “Si la gente se entera, por ejemplo, de que he visto pornografía, me juzgarán”, explica Tigist.

A su esposo, le contaba poco sobre lo que hacía. A sus hijos, se lo ocultó todo: “No quiero que sepan lo que he hecho. Ni siquiera quiero que se imagi­nen lo que he llegado a ver”, asegura.

Déjanos tus comentarios en Voiz