[LARPSICO] 'Infierno en la red': El 20% de los moderadores de contenidos en Barcelona para Meta, de baja por estrés

Andalucía, 13/10/2023
Infierno en la red

El 29 de noviembre del año pasado tuvimos la oportunidad de destacar, de forma pionera en nuestro país, cómo algunas de las nuevas profesiones que genera el mundo de las redes sociales también están amenazadas por una significativa carga psicosocial. De forma gráfica la llamamos: ¿Escudos humanos contra la violencia digital? Riesgos psicosociales en las nuevas profesiones de vigilancia tecnológica

Entonces, dimos cuenta del grave problema suscitado, a tal fin, en Estados Unidos, donde la ausencia de adecuados protocolos de gestión de la salud mental de estos profesionales llevó a una demanda masiva (11.250 personas moderadoras en diferentes Estados), que dio lugar a un acuerdo de compensaciones económicas millonario (más de 50 millones de dólares), con cantidades diferentes individuales, en función de los daños certificados vinculados a la exposición. Una vez más, la respuesta fue monetaria, no preventiva. También informábamos, para España, que la Generalitat, a través de la Dirección General de Relaciones Laborales, Trabajo Autónomo, Seguridad y Salud Laboral ha sancionado con 41.000 euros a una empresa de Barcelona - CCC Barcelona Digital Services -  que presta sus servicios a la red Facebook, por el trastorno mental grave que sufrió un empleado suyo – moderador de contenidos – desarrollado a partir de la visualización de contenido muy violento en internet.

Pues bien, casi un año después, el problema lejos de resolverse se ha agravado. Bajo los significativos, e inquietantes, titulares como “filtro del horror” o “infierno de moderar Facebook”, ha adquirido notoriedad estos días la noticia del grave efecto nocivo que, para las personas que trabajan en la moderación, control o filtro de contenidos, de las diferentes redes sociales, en el caso concreto del personal contratado en la empresa de Barcelona que trabaja para la red Meta (antes Facebook). El problema no es menor, tanto en el plano cualitativo (el drama humano que supone) como cuantitativo, por cuanto está afectando a un volumen importante de la plantilla: el 20% del personal empleado en el seno de la empresa subcontratada por Meta en Barcelona (la citada CCC Barcelona Digital Services) para realizar tan importante tarea.

Se trata de nada menos que 400 personas encargadas de revisar, controlar, moderar o hacer de filtro ético frente a la violencia, brutalidad y odio de los mensajes y, sobre todo, vídeos que se amontonan en la red (también en Instagram). La carga de trabajo es inmensa, debiéndose enfrentar a lo “peor de la condición humana”, coinciden en indicar las personas trabajadoras entrevistadas y denunciantes. De forma global, los informes de Meta, Facebook retiraría al año más de 7,2 millones de contenidos por abusos sexuales a menores y 17,5 por discursos de odio en Facebook  e Instagram más de 6,4 millones por suicidios. 

Según se desprende de las entrevistas personales realizadas por ciertos medios a estas personas, este trabajo se caracterizaría por una fuerte sobrecarga psicosocial (se les pide que revisen más de 450 imágenes de contenido extremo -ej. violencia en directo, violaciones en tiempo real, suicidios en vivo, etc.), así como por una elevada presión para que su trabajo se realice con el máximo acierto (tasa elevada de filtro y que converjan con la decisión de otras personas revisoras y supervisoras), pero sin la debida información. El trabajo en tales condiciones se acepta porque está razonablemente bien pagado, unos 2000 €. Aunque sí disponen de un servicio de atención psíquica su función de vigilancia de la salud mental parece deficiente, según reconocen.

Los casos no son aislados, como refleja esta estadística. Se multiplican las bajas por estrés postraumático, con frecuentes episodios de ansiedad e incluso pánico (en más de un caso se llega a la depresión, e incluso intentos de suicidio). La grave situación ha dado lugar, además de a solicitudes de cambio de contingencia de bajas por enfermedad común a accidentes de trabajo, a denuncias en la ITSS (con la referida sanción a la empresa canadiense Telus, que adquirió la empresa CCC Barcelona Digital Services, con 40.985€ por no evaluar los riesgos psicosociales) y ahora querellas por vía penal (delitos contra los derechos de los trabajadores, contra la integridad moral y de lesiones por imprudencia grave). No obstante, la empresa ofrece una explicación alternativa, pues se trataría de una alta tasa de absentismo laboral vinculado a la problemática laboral que se viene produciendo en la empresa, con ERTE y ERE incluidos.

Llueve, en todo caso, sobre mojado, como ya se evidenció por el LARPSICO. Al asunto judicializado, pero finado con indemnización de 52 millones de euros, en EEUU hay que sumar también las demandas en Irlanda, por razones análogas, así como también en Kenia (184 personas empleadas en la vigilancia tecnológica o revisión de contenidos estarían también en situaciones semejantes, con denuncias al respecto).

Una vez más, como venimos evidenciando en estas páginas, estos problemas, sin descartar su alta peligrosidad por una elevada toxicidad psicosocial en el trabajo, que es inherente al mismo, no se puede eliminar (el trabajo consiste precisamente en identificar la toxicidad psicosocial exterior para librar a la ciudadanía de ella), tienen soluciones más adecuadas. La diferencia la marca las condiciones de desarrollo de la actividad, de modo que con una adecuada gestión preventiva de estos riesgos psicosociales asociados a tales tareas, incluyendo el debido protocolo de gestión de la salud psicosocial en las funciones de vigilancia tecnológica, se podrían reducir muy significativamente los impactos en las personas que cuidan de nuestra salud psicosocial en la red, sin “perecer” en el intento o verse gravemente afectados en su propia salud psicosocial en el trabajo.

Información de autoría
Correo electrónico
Teléfono
955 049 078
Información adicional

Horario de atención telefónica: de 09:00 a 14:30 horas

Compartir en

Índice