“Esto es neocolonialismo digital”: Hablan los moderadores africanos que ponen a las grandes tecnológicas contra las cuerdas
Trabajadores kenianos subcontratados por Meta, TikTok y ChatGPT aseguran sufrir malas condiciones laborales y estrés postraumático por la exposición durante largas horas a los vídeos violentos que filtran
Mojez Odhiambo se tumbaba en la cama, pero no podía dormir: todo lo invadían vídeos violentos. Poco antes se había graduado en la universidad, en Relaciones Internacionales, y, aunque había soñado con dedicarse a la diplomacia, llevaba meses buscando ofertas de trabajo. Lo que fuera. “Aquí, en Kenia, la gente no consigue trabajar de lo que estudia”, dice. Entre los “cientos” de solicitudes que presentó, recuerda, solo le llamaron para un supuesto trabajo en atención al cliente. Resultó ser una subcontrata de moderación para Tiktok.
Empezó con ganas. “Era como ser el escudo entre las cosas malas que pasan en internet y la gente”, dice. A lo largo del año siguiente, Odhiambo asegura que revisó cientos de vídeos violentos al día en turnos de nueve horas, con dos pausas de 30 minutos, y que a partir de entonces empezó a sufrir de insomnio y de estrés postraumático. Había un psicólogo en la empresa, pero, asegura, los empleados no se sentían cómodos desahogándose delante de un terapeuta contratado por la compañía, especialmente cuando también se quejaban de las condiciones de trabajo.
Las protestas contra las condiciones en las que trabajan los moderadores, encargados de que a su móvil no llegue (más) contenido tóxico y extremadamente violento, han llegado hasta los juzgados en países como Kenia, donde 184 africanos pelean desde hace meses en los tribunales contra Meta (empresa matriz de Facebook, Instagram y WhatsApp). Exigen 1.600 millones de euros como compensación por ser despedidos en enero de este año, tras quejarse de sus condiciones de trabajo y del daño a su salud mental y tratar de montar un sindicato. Aseguran, además, que por el mismo motivo fueron vetados por otra empresa de moderación, Majorel. Sama, la empresa que los subcontrató, niega las acusaciones.
Kenia, un país clave en el sector tecnológico africano, se ha convertido así en punta de lanza de las protestas contra las grandes tecnológicas. Percibida como el corazón tecnológico de África (a menudo se le llama “Silicon Savannah” en una alusión a Silicon Valley), se convirtió en líder de innovación desde la primera década de los 2000 gracias a la abundancia de empresas emergentes y a la integración de la tecnología en la vida cotidiana —el mismísimo fundador de Meta, Mark Zuckerberg, visitó el país en 2016 interesado en el innovador sistema de pago por móvil M-PESA, que se usa desde para pagar el alquiler hasta para comprar una bebida en la calle—. Hoy, Kenia promete construir la primera gran tecnópolis del continente. Aquí delegaron trabajo de moderación tanto TikTok como Facebook/Meta o empresas de Inteligencia Artificial (IA), como ChatGPT.
Las huellas del contenido violento
Pero, ¿quién cuida a quienes nos cuidan en las redes sociales? La pregunta se presenta con cada vez más frecuencia en distintos países del mundo. Este octubre, una docena de moderadores de Facebook en Barcelona (subcontratados por una empresa local) denunciaron a la compañía por causarles traumas, según contaron varios medios. En 2020, en Estados Unidos, Facebook tuvo que pagar 52 millones de dólares (47 millones de euros) tras una demanda colectiva de trabajadores que lidiaron con contenido extremadamente violento y explícito. El caso de Kenia es especialmente relevante para la reputación global de Silicon Valley: porque se habla de salud mental y porque se habla de relaciones Norte-Sur.
A Richard Mathenge, que coordinó durante cuatro meses a un equipo de 11 personas que moderaban contenido de carácter sexual en la herramienta de inteligencia artificial ChatGPT en Nairobi, también se le repiten imágenes en bucle. La peor escena fue un abuso sexual a un niño, demasiado gráfico como para ser contado en estas líneas. Cuenta que, cuando no consiguió que su equipo recibiera atención psicológica especializada, los moderadores empezaron a juntarse a modo de terapia de grupo, sin supervisores ni psicólogos. Solo unos colegas sacando fuera los demonios de horas de violaciones y asesinatos. “Nos dábamos apoyo los unos a los otros”, recuerda. “Básicamente nos comparábamos: ‘pues lo que yo vi es aún peor que lo que te tocó a ti...”.
Un estudio de investigadores de la Universidad británica de Middlesex publicado en 2023 entrevistó a 11 moderadores (no había africanos y no especificaban para qué redes sociales trabajaban) que describían pensamientos intrusivos, ataques de pánico, dificultades para mantener relaciones sexuales (tras ver contenidos con abusos sexuales) o para estar cerca de niños (tras haber tenido que lidiar con contenidos pedófilos).
Daniel Motaung, la cara más visible de las protestas contra Meta en Kenia, habla de “estrés postraumático” y, aun acostumbrado a las cámaras y los micrófonos (con portada de la revista Time incluida), a veces le tiembla la voz. Su pelea en los tribunales continúa con idas y venidas, tras un intento fallido de llegar a un acuerdo extrajudicial.
Un mercado de obra barata
“Esto es una neocolonización”, zanja Motaung en la entrevista, en un evento sobre libertades digitales de la Fundación Mozilla en Nairobi, en septiembre. “Vemos estos trabajos digitales como una creación de oportunidades, de empleo. Pero ellos [las grandes plataformas] ven un mercado de obra de mano barata y una oportunidad de aumentar sus márgenes de beneficios porque es más fácil explotar a los africanos y pagarnos sueldos mediocres”, comenta. Él, que creció en una familia pobre, estudió Derecho en la Universidad de Rhodes (Sudáfrica), y encontró trabajo en una subcontrata que hacía moderación de contenidos para Facebook en la capital de Kenia. Ha asegurado que cobraba unos 2,20 dólares la hora (apenas dos euros) revisando contenidos extremadamente gráficos.
“Esto es neocolonialismo digital”, repite en otra entrevista en el mismo encuentro Mathenge, que ahora trata de poner en pie el sindicato. “África tiene un mercado de trabajo listo y disponible, y especialmente Kenia, con muchos jóvenes, a menudo con educación universitaria, que hablan bien inglés... y que están desesperados por trabajar, por hacer algo de lo que estén orgullosos. Cuando les das una oportunidad en estas plataformas [tecnológicas], la aceptan al vuelo, sin preguntas”.
La creación de un sindicato para los trabajadores con contenidos en redes sociales en toda África está costando, asegura Motaung. Hay miedo a unirse, la gente no quiere hablar. “Ahora mismo, si vas a una de estas compañías todavía encontrarás a moderadores siendo maltratados, mal pagados, despedidos”, afirma. Consultada por este periódico, Sama respondió por correo electrónico que siempre ofreció asistencia psicológica a sus trabajadores y que su “equipo de bienestar” no se limitó a esperar que los trabajadores acudieran a buscar ayuda, sino que buscó “de forma proactiva” a los empleados, caminando por las oficinas para verificar que los moderadores se encontraran bien y para recordarles que estaban disponibles. Majorel, que fue subcontratada para lidiar con la moderación de TikTok en Kenia, no respondió a este diario.
Un sistema problemático
Aunque el trabajo de moderación que denuncian los trabajadores de Meta, los autores de la demanda colectiva, se hacía en Kenia, en el mes de junio un juez concluyó que Facebook era el “verdadero empleador” de los 184 denunciantes. “Meta ya no se puede esconder detrás de subcontratas para excusarse por la explotación y abuso de sus moderadores”, declaró la directora de Foxglove, Martha Dark, por correo electrónico a este diario. “Saben que el sistema es problemático”, subraya Motaung. “Tratan de distanciarse del problema. Si uno dice que Sama o Majorel trata mal a sus empleados, suena a que Facebook no es responsable”.
Meta rehusó comentar sobre este caso judicial a este periódico por encontrarse en medio del litigio, pero especificó por correo electrónico que emplea a unas 15.000 personas para revisar contenido, incluyendo trabajadores independientes y subcontratados de “20 localizaciones en el mundo”. “Trabajamos en compañías de regiones alrededor del mundo porque reconocemos la importancia de tener expertos locales en el lenguaje para aplicar nuestras políticas en casos en los que ciertas palabras o contenidos requieren una comprensión de contexto adicional”, señala. Y añade: “Nuestra escala global nos permite también desplegar recursos si se produce un aumento en la demanda de un país específico, una crisis o un evento inesperado”. En cuanto a las condiciones de trabajo, Meta asegura que exige a las compañías con las que trabaja que provean apoyo sanitario 24 horas, que paguen sueldos por encima de los estándares de la industria en cada mercado, y que en ningún caso se oponen a la formación de sindicatos.
Motaung compara las condiciones de Norte y Sur: “Los moderadores del Norte, de América, en general no se quejan de malas condiciones de trabajo o de malas remuneraciones, porque tienen beneficios, seguros... Se quejan del daño a su salud mental. Nosotros, en África y en el Sur global, no tenemos esas cosas (…) Somos de usar y tirar para estas compañías. A mí y a mis colegas nos decían que éramos inútiles, que nos estaban haciendo un favor. Que si nosotros no queríamos el trabajo podían salir a la calle y encontrar a alguien que sí lo quisiera”.
El poder de las redes sociales
Daniel Motaung, convertido en el rostro de la rebelión africana contra las grandes tecnológicas, no ha abandonado internet. Usa Linkedin y Facebook, y planea abrirse X (antes Twitter), Instagram y “todas las redes sociales, básicamente”. “Creo en el poder de las redes sociales. No abogo por su fin, sino por arreglar el sistema. Las redes han simplificado los flujos de información, y en países en desarrollo esto es clave para democratizar nuestras sociedades y asegurarnos de que se desarrollan mejor”.
Tampoco culpa a los usuarios de internet del contenido dañino al que se enfrentan los moderadores. Aboga por un sistema de filtración previa a la publicación, en el que la Inteligencia Artificial ayude a identificar la mayoría de contenidos “tóxicos”, y minimice así la exposición de los humanos. El contenido que no pueda clasificar la IA, porque “no es perfecta para entender matices culturales”, pasará a moderadores, propone. Estos, a su vez, tienen que ser clasificados por su nivel de tolerancia a contenidos, opina, porque “hay personas a las que no les importa ver a gente matándose entre sí”. Es importante, insiste, que los humanos sigan tomando decisiones sobre posibles vulneraciones de la libertad de expresión. Pero tienen que ser profesionales de la moderación, “y no gente que pasaba por la calle y que va a ser sustituida fácilmente”, reivindica.
Puedes seguir a Planeta Futuro en X, Facebook, Instagram y TikTok y suscribirte aquí a nuestra ‘newsletter’.