5 Mar
2024

#ModeraciónContenidos ¿El lado más oscuro de las Redes Sociales?

#ModeracionContenidos¿Recordáis cuando Meta (entonces Facebook) dijo que iba a poner una empresa para moderar sus contenidos en Barcelona? Todo el mundo pensó en la cantidad de ofertas de trabajo que aparecerían y en que “oye, eso de trabajar para Facebook no estará tan mal ¿verdad?”

Estas últimas semanas ha salido a la luz una información sobre un trabajador de Meta, de tan sólo 40 años, al que se le ha dado la incapacidad permanente para trabajar debido a los horrores que vio durante el ejercicio de sus tareas.

Pero vayamos por partes, ¿qué es exactamente la #moderacióndecontenidos y cuáles son los problemas que nos podemos encontrar trabajando en ello?

Tal y como describe la web Cyberclick en su post:

«La moderación de contenidos consiste en la búsqueda y detección de contenido inapropiado que haya podido publicar un usuario en una plataforma, como en la web, en el blog o en las redes sociales.

El objetivo de la moderación de contenidos es, entonces, crear un espacio de confianza y respeto, donde no haya lugar para violencia, odio o abusos de cualquier tipo. También puede incluirse dentro de esta tarea la de asegurarse que todo el contenido publicado es original y no infringe la ley de derechos de autor.»

Bastante claro ¿no? Entonces ¿dónde está el posible problema?

  • Por un lado, en que la empresa para la que trabajas no tenga una normativa clara para la moderación de contenidos o es tan extensa que no queda claro qué debes hacer. La normativa de Facebook se filtró y parece ser que se encontraron bastantes contenidos aprobados que eran bastante dudosos (relacionados con situaciones geopolíticas, por ejemplo). Por ejemplo, en casos de suicidios, Facebook tiene una política estricta de cuándo hay que avisar a la policía, no puede ser simplemente porque alguien diga que se va a matar, debe haber un arma, una soga, una ventana abierta a la vista, lo que hace que en muchas ocasiones no se llegue a tiempo para evitarlos.
  • Por otro, cada vez es más fácil crear y subir contenido a redes ya que las herramientas para hacerlo están al alcance de nuestra mano. Esa facilidad hace que no se modere el contenido antes de publicarlo sino a posteriori, lo que crea contenidos con asesinatos, canibalismo, torturas, etc. que debe ser revisado, pero hasta que se modera se mantiene abierto a todo el mundo.

Centrémonos en Facebook, que es el caso que lo ha destapado todo:

The Verge publicó un artículo ya en 2019 “The Trauma Floor. The secret lives of Facebook moderators in America”. En el artículo se exponían por primera vez las atrocidades a las que estaban sometidos estos moderadores. También destapó como les hacían firmar acuerdos de confidencialidad para que la información no saliera de las oficinas. Asimismo, eran presionados parta que no discutieran lo que veían con sus familiares o amigos, lo que provocaba aislamiento y ansiedad en los trabajadores. Os recomiendo el artículo porque no tiene desperdicio. ¿No hemos aprendido nada en estos años? Parece ser que no.

Volvamos al caso del principio. Finalmente Facebook, mediante la subcontrata Telus, antes CCC, se instaló en Barcelona, empleando a 2.030 personas. Actualmente, el 20% de esa plantilla está de baja. Eso significa 406 personas, quizás visto así nos damos cuenta de la magnitud.

¿Cuál era su trabajo? debían estudiarse las políticas de la empresa de Mark Zuckerberg y sobre ellas tomar decisiones rápidas sobre si una foto, vídeo o texto debían ser retirados. Pero nunca les comentaron la gravedad de lo que iban a ver. Y es que estar trabajando y ver cómo un padre asesina a su bebé de meses delante de tu pantalla no es un tema fácil de olvidar para seguir trabajando como si nada.

Y lo peor no es eso, lo peor es que, además de lo dicho antes (firma de contratos de confidencialidad, etc.) denuncian que las medidas estructurales ofrecidas por la compañía eran insuficientes para el tipo de trabajo que ejercían. Tenían un equipo de psicólogos las 24 horas del día, cuya receta principal era “hablar” de las brutalidades vistas en la cola de filtrado, y luego, vuelta al trabajo. ¿En serio consideran eso suficiente? 😲 También les controlan el horario, por lo que no tienen apenas momentos para escaparse de esas situaciones. Eso provoca que haya mucha rotación de personal puesto que no se puede aguantar así mucho tiempo, lógicamente.

A día de hoy ya hay presentadas 35 querellas en Europa de moderadores, pero todo sigue igual. Estas personas están en tratamiento psiquiátrico y su salud mental se ha visto muy deteriorada.

¿Es posible cambiar la moderación de contenidos con personas?

Parece ser que el auge de la Inteligencia Artificial nos debería hacer pensar que podemos sustituir estos trabajos tan perjudiciales para la salud por aplicaciones que moderen los contenidos con unas pautas claras de qué se acepta y qué no ¿verdad?

Podría ser pero dudo que se pueda dejar todo en manos de una máquina. Al fin y al cabo una máquina, por muy bien programada que esté, no detecta modulaciones de voz que un humano detecta y le avisa de un posible peligro, o miradas y gestos que sólo una persona puede ver. Yo no soy muy optimista al respecto, al menos.

Lo importante, por eso, es tener claro que no es simplemente un tema de moderación de contenidos, es un tema de salud mental de los trabajadores, de ahí que sea fundamental revisar qué estamos haciendo y poder cambiarlo. Al menos deberíamos poner medidas por parte de la empresa para ayudar a esas personas que deben revisar los contenidos y ofrecerles unas condiciones de trabajo que les permitan tratar con ello.

¿Creéis que se conseguirá algo?

@trapinapi

Imágenes:

Imagen superior:

People illustrations by Storyset

Imagen destacada:

Image by upklyak on Freepik

Fuentes:

Newton, C. (25/02/2019). The trauma Floor. The Verge. https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona
Fisher, M. (27/12/2018). Inside Facebook’s Secret Rulebook for Global Political Speech. The New York Times.https://www.nytimes.com/2018/12/27/world/facebook-moderators.html?module=inline
Martínez, C. (23/09/2022). Moderación de contenidos: qué es y mejores herramientas. Cyberclick. https://www.cyberclick.es/numerical-blog/moderacion-de-contenidos-que-es-y-mejores-herramientas
Redacción. (11/10/2023). Asesinatos, vídeos atroces y bajas: la realidad y los efectos de ser moderador de Facebook. La Vanguardia. https://www.lavanguardia.com/vida/20231011/9285480/moderadores-facebook.html
Orovio, I.; Saura, G. (19/02/2024). Un moderador de Facebook en Barcelona, incapacitado para trabajar tras los horrores que vio. La Vanguardia.
https://www.lavanguardia.com/vida/20240219/9522992/moderador-facebook-incapacitado-trabajar-horrores-vio.html
Orovio, I.; Saura, G. (27/02/2024). Un juez de Barcelona abre el primer proceso penal a Meta en Europa por el daño a un moderador. La Vanguardia. https://www.lavanguardia.com/vida/20240227/9529014/juez-admite-querella-moderador-contenido-subcontrata-meta.html
Orovio, I.; Saura, G. (28/02/2024). Moderadores de Facebook en Barcelona enferman por el contenido atroz a revisar: «En mi cabeza ahora sólo hay muerte». La Vanguardia.
https://www.lavanguardia.com/vida/20231006/9279078/mi-cabeza-solo-hay-muerte.html
Orovio, I.; Saura, G. (28/02/2024). Del shock a la locura: cómo trabajan los moderadores de Facebook. La Vanguardia. https://www.lavanguardia.com/vida/20231007/9282417/dia-cerebro-crac.html

The following two tabs change content below.
Psicóloga orientada al Retail y Trade Marketing para distintos sectores, mayormente el farmacéutico. Actualmente en coordinación de formación superior. Escribo sobre Retail, Social TV, Redes Sociales ... siempre con el marketing como nexo. Cinéfila y seriéfila 2.0 😉
Suscríbete
Notifícame de
guest
0 Comentarios
Ver todos los comentarios