Moderadores de Facebook son entrenados con video de asesinato


Los encargados de regular contenidos prohibidos de Facebook son entrenados con video de asesinato



Los moderadores de Facebook que trabajan para empresas contratistas deben detectar y regular escenas terribles de violencia y pornografía en la plataforma de redes sociales, por lo que son esenciales para las operaciones del gigante de Silicon Valley, aunque trabajan en condiciones muy diferentes a los empleados “oficiales” de la empresa y son obligados a ver un video de asesinato.

Este lunes, mencionando una docena de fuentes anónimas, The Verge expuso el traumatizante trabajo realizado por cientos de trabajadores subcontratados y mal pagados que moderan el contenido publicado por Facebook, entre ellos, 1,000 moderadores que trabajan para Cognizant, empresa contratada por Facebook, con sede en Phoenix, Arizona.

Lee: Batería, ventanas en segundo plano y hasta tu ratón… Facebook registra cada uno de tus movimientos

Ese vistazo al interior de la moderación de Facebook que se realiza en Cognizant inicia con una anécdota estremecedora: los moderadores en capacitación miran el video de un hombre apuñalado “docenas de veces, mientras grita y ruega por su vida”. El trabajo del empleado en capacitación, cuyo nombre fue modificado para proteger su anonimato, consiste en identificar correctamente el asesinato en video como una violación de la Sección 13 de los estándares de comunidad de Facebook, en el que se prohíben los videos de “desmembramientos, a menos que se realicen en un contexto médico” y de “canibalismo”, pero se permiten ciertos tipos de videos “que muestren la muerte violenta de una persona o personas por accidente o asesinato”, siempre que aparezcan detrás de una pantalla de advertencia.

Sin embargo, aunque los moderadores, denominados “ejecutivos de procesos” por Cognizant, son esenciales para la operación cotidiana de Facebook, no son beneficiarios de la típica generosidad que se asocia al hecho de trabajar con el gigante de Silicon Valley. De manera similar a la disparidad entre los empleados de Amazon y las brutales condiciones que padecen los trabajadores subcontratados de los almacenes de esa empresa, los moderadores de Facebook no tienen acceso a prestaciones como la reparación de sus bicicletas en el lugar de trabajo, elegantes cafeterías, servicio de aparcamiento y una generosa ausencia por maternidad o paternidad. Mientras que el empleado promedio de Facebook gana 240,000 dólares al año como compensación total, los ejecutivos de proceso que trabajan para Cognizant en Phoenix apenas obtienen 28,800 al año.

El uso generalizado de trabajadores subcontratados (aunque Facebook no ha revelado cifras exactas, los trabajadores subcontratados exceden en número a los empleados directos en otras importantes empresas tecnológicas, entre ellas, Google) contribuye a mantener un alto margen de ganancias para la empresa: 6,900 millones de dólares en ganancias sobre unos ingresos de 16,900 millones de dólares en 2018.

Además del contenido explícito y traumatizante al que los trabajadores subcontratados están expuestos en sus labores, también deben hacer frente al control excesivo de las pausas para ir al baño y la precisión de su moderación, además de que muchos de los empleados deben revisar hasta 400 publicaciones marcadas cada día. A los trabajadores de la oficina de Phoenix se les permiten dos descansos de 15 minutos y una pausa para comer de 30 minutos al día, más 9 minutos de “tiempo de bienestar” (que consiste en alejarse de su escritorio cuando se sientan traumatizados), pero pasan gran parte de su tiempo de descanso haciendo fila para poder entrar a uno de los escasos sanitarios.

A los empleados de Cognizant se les ofrece orientación en el lugar de trabajo, pero únicamente durante una parte del día. Existe una línea telefónica de ayuda, sesiones de terapia y actividades terapéuticas como el yoga, pero los empleados que hablaron con The Verge recurren a otras formas para aliviar el estrés, especialmente, drogas, sexo en el lugar de trabajo y un omnipresente humor negro. Varios moderadores describieron síntomas similares al estrés traumático secundario y al trastorno de estrés postraumático, y uno de ellos dijo haber sufrido un ataque de pánico en un cine (la película era ¡Madre!, de Darren Aronofski), meses después de dejar su puesto como moderador de contenido.

Legisladores británicos piden regular a Facebook para que no se comporte como un “gángster digital”

“Estoy jodido, viejo”, declaró un empleado a The Verge. “Mi salud mental no hace más que subir y bajar. Un día puedo estar realmente feliz y desempeñándome perfectamente bien. Al siguiente, soy una especie de zombi. No es que me sienta deprimido. Simplemente estoy atorado”.

Uno de los consejeros de la sede de Phoenix propuso que el trauma sufrido por los moderadores podría dar como resultado un “crecimiento postraumático” beneficioso, como la fortaleza mostrada por Malala Yousafzai, la activista paquistaní a favor de la educación, tras recibir un disparo en la cabeza realizado por un pistolero talibán. “Hay muchos ejemplos de personas que atraviesan por tiempos difíciles y salen de ellos siendo más fuertes que antes”, declaró a The Verge el consejero anónimo.

Más allá del diluvio de pornografía, violencia y odio traumatizante, muchos moderadores también se han encontrado sujetos a la misma influencia propagandística que ha convertido a las redes sociales en un hervidero de teorías conspiratorias virales. El contacto repetido con teorías conspiratorias publicadas en Facebook llevó a los moderadores a defender la Tierra Plana, la Verdad sobre el 9/11 y distintas teorías de “encubrimiento gubernamental” que rodean a los tiroteos masivos.

“Las personas realmente comenzaron a creer en las publicaciones que supuestamente deberían moderar”, dijo un moderador a The Verge. “Decían, ‘Oh Dios, realmente no estaban ahí. Mira este video de CNN de David Hogg; es demasiado viejo para estar en la escuela’. La gente comenzó a buscar cosas en Google en lugar de hacer su trabajo y a leer teorías conspiratorias sobre ellas. Nosotros les decíamos, ‘Chicos, no, estas son las locuras que deberíamos estar moderando. ¿Qué están haciendo?’”

“El trabajo no es fácil. En ocasiones implica mirar contenido perturbador o violento”, escribió Ellen Silver, vicepresidente de operaciones de Facebook, en una publicación de su blog escrita en 2018, en la que describió la forma en que la empresa apoya a sus moderadores. “En Facebook, tenemos un equipo de cuatro psicólogos clínicos en tres regiones, quienes se encargan de diseñar, proporcionar y evaluar los programas de resiliencia para todas las personas que trabajan con contenidos explícitos y objetables”.

Esos cuatro psicólogos deben ayudar a aproximadamente 15,000 moderadores de contenido que trabajan para los contratistas de Facebook en 50 idiomas y 20 sedes en todo el mundo, entre ellas, California, Arizona, Texas y Florida.

¿Diste tu número a Facebook para “proteger tu cuenta”? La red social lo utiliza con fines publicitarios

Facebook no respondió de inmediato a la solicitud de comentarios realizada por Newsweek.

Publicado en cooperación con Newsweek / Published in cooperation with Newsweek

Ingresa las palabras claves y pulsa enter.