Para una gran compañía como Facebook, una demanda es solo una parte de hacer negocios. Sin embargo, las acusaciones usualmente vienen de afuera de la compañía.
La última demanda colectiva a Facebook viene esta vez de un empleado suyo. Específicamente, una ex moderadora de contenido llamada Selena Scola. Ella alega que cuando filtraba contenido de la red social, se «exponía a contenido altamente tóxico, inseguro y perjudicial».
Los abogados de Scola reclaman que ella desarrolló trastorno de Estrés Post Traumático por su trabajo. Parte del trabajo involucraba no solo era bloquear y borrar mensajes de odio, sino también mirar imágenes y videos ofensivos. Esto incluye desde simples fotos sugestivas, a violencia extrema. Según la demanda, esto incluye exposición a «millones de videos, imágenes y transmisiones de abuso infantil, violación, tortura, bestialidad, decapitación, suicidios y asesinatos».
La demanda alega que la compañía no provee a los moderadores de contenido con «suficiente entrenamiento» para manejar contenido traumático. Los abogados reclaman que el TEPT de Scola se puede activar cuando toca un mouse, escucha ruidos fuertes o entra a un edificio frío, además de otras cosas.
Scola es la única empleada nombrada como demandante, pero es una demanda colectiva ya que representa a miles de moderadores de contenido de Facebook en California. La operación de moderación de contenido de Facebook involucra miles de empleados a nivel mundial.
¿Qué opina Facebook sobre este problema?
Un portavoz de Facebook habló y dijo que ellos están actualmente «revisando esta demanda». Añadió también que reconocen que la moderación de contenido es «difícil», y que ellos ofrecen ayuda psicológica a sus trabajadores.
El portavoz también aclara que ellos tienen protocolos de entrenamiento específicos para los futuros moderadores de contenido. Sin embargo, la demanda alega que esto es insuficiente para la cantidad de contenido traumático que los empleados ven.
Al parecer Facebook también está trabajando en usar Inteligencia Artificial para filtrar contenido perturbador. Esto bloquearía posible contenido ofensivo, incluso antes de que llegue a moderadores humanos, minimizando así el posible trauma que puede generar.
¿Qué opinan de esta demanda a Facebook?
Fuente: eTeknix