Traducido de una publicación de The Guardian

La tarea de moderar Facebook continúa dejando cicatrices psicológicas en los empleados de la compañía, meses después de los esfuerzos por mejorar las condiciones para los miles de contratistas de la compañía, según se conoció en The Guardian.

Un grupo de trabajadores actuales y otros que laboraron durante años en los centros de moderación de la red social con sede en Berlín, informaron haber sido testigos de cómo sus colegas se volvieron «adictos» al contenido gráfico y acaparaban ejemplos cada vez más extremos para una colección personal. También dijeron que otros trabajadores fueron empujados hacia la postura política de extrema derecha por la cantidad de discursos de odio y noticias falsas que leían todos los días.

Describen, además, que han sido desgastados por el volumen del trabajo, y adormecidos por la violencia gráfica, los desnudos y el bullying que tienen que revisar durante ocho horas al día, trabajando noches y fines de semana, por un «salario mínimo».

Un aspecto poco discutido sobre la moderación de Facebook fue particularmente angustiante para los trabajadores: Examinar las conversaciones privadas entre adultos y menores que han sido señaladas por los algoritmos como posible explotación sexual.

Tales chats privados, de los cuales «el 90 % son sexuales», fueron «violadores y espeluznantes», según un moderador. «Llegas a entender un poco más sobre este tipo de sociedad distópica que estamos construyendo todos los días», agregó. «Tenemos hombres blancos ricos de Europa y de Estados Unidos, que escriben a niños de Filipinas (…) intentando obtener fotos sexuales a cambio de $10 o $20».

Gina, una contratista, dijo: «Creo que es una violación de los derechos humanos. No se puede pedir a alguien que trabaje rápido, que funcione bien y que vea contenido gráfico. Las cosas que vimos simplemente no están bien».

Los trabajadores, cuyos nombres han sido cambiados, hablaron bajo condición de anonimato porque han firmado acuerdos de confidencialidad con Facebook. Daniel, un exmoderador, dijo: «Somos una especie de vanguardia en este campo (…). Es un trabajo completamente nuevo, y todo es básicamente un experimento».

John, su antiguo colega, dijo: «Estoy aquí hoy porque me gustaría evitar que otras personas caigan en este agujero. Como sociedad contemporánea, nos estamos topando con esta nueva cosa, Internet, y tenemos que encontrar algunas reglas para enfrentarla». «Es importante crear un equipo, por ejemplo en una red social, con el objetivo de proteger a los usuarios de los abusadores, los discursos de odio, los prejuicios raciales, un mejor software pornográfico, etc. Pero creo que es importante abrir un debate sobre este trabajo». «Necesitamos compartir nuestras historias, porque la gente no sabe nada de nosotros, de nuestro trabajo, de lo que hacemos para ganarnos la vida».

Algunas de las historias de los moderadores fueron similares a los problemas experimentados en otros países. Daniel dijo: «Una vez, encontré a un colega nuestro en línea, buscando comprar un Taser, porque comenzó a sentir miedo por los demás. Confesó que estaba realmente preocupado de caminar por las calles en la noche; por ejemplo, o estar rodeado de personas extranjeras».

«Quizás porque todo este discurso de odio que tenemos que enfrentar todos los días afecta de alguna manera nuestra visión política. Entonces, una persona normal, una persona liberal, tal vez también una persona progresista, puede volverse más conservadora, más preocupada por temas xenófobos, por ejemplo. De hecho, muchos de los contenidos con discursos de odio que recibimos diariamente son noticias falsas (…) que tienen como objetivo compartir puntos de vista políticos muy particulares».

En febrero, la web de tecnología Verge produjo uno de los primeros informes de un contratista estadounidense de Facebook detrás de escena. Al igual que sus colegas de Berlín, los estadounidenses informaron que «los videos de conspiración y los memes que ven cada día los llevaron gradualmente a adoptar puntos de vista extremos», y que un exmoderador «ahora duerme con una pistola a su lado» después de ser traumatizado por un video de un apuñalamiento.

Otros estaban lidiando con el trauma automedicándose. De la misma manera que los moderadores de Arizona estaban recurriendo a drogas y alcohol, también lo hacían los alemanes. «Vi muchas drogas en la compañía», dijo Daniel. «No tenemos ninguna forma de desestresarnos. La compañía, técnicamente, está en contra de las drogas».

Al tratar de seguir una ruta más legítima de autoayuda, los moderadores estadounidenses se quejaron de la ayuda psicológica que se les brindó. «Los consejeros en el lugar fueron en gran medida pasivos», escribió la reportera de Verge, Casey Newton, «confiaban en que los trabajadores reconocieran los signos de ansiedad y depresión y buscaran ayuda».

Los moderadores en Berlín también criticaron los servicios de asesoramiento brindados y comentaron que se apoyaban en la atención médica del Estado que es universal.

Daniel dijo: «Al final, no tuvimos el apoyo psicológico adecuado. Tuvimos algunos colegas que fueron al consejero, y cuando se demostró que tenían problemas reales, fueron invitados a salir de la empresa y buscar un psicólogo adecuado».

El informe de Verge pareció desencadenar reformas. Los moderadores en Berlín dijeron que después de que se publicó el artículo había un interés inmediato de la oficina central de Facebook sobre su carga de trabajo. Anteriormente, se les había requerido moderar 1000 piezas de contenido al día, más de una cada 30 segundos durante un turno de ocho horas.

En febrero, un funcionario de la oficina de Facebook en Dublín los visitó, dijo John. «Después de esta reunión, esta persona decidió quitar el límite de 1000. No tuvimos ningún límite por un tiempo, pero ahora han establecido otro límite. El límite ahora es entre 400 y 500 publicaciones a resolver». El nuevo límite era la mitad del anterior, pero, aún, así los trabajadores debían lograr una entrada por minuto. Sin embargo, ese volumen de trabajo era lo que sus colegas estadounidenses habían enfrentado antes de las reformas.

Los moderadores de Berlín han discutido si buscar la ayuda de sindicatos, pero dicen que la naturaleza del trabajo lo dificulta. Gina dijo: «No diría que a nadie le interesa, pero nadie tiene la posibilidad de hacer algo de verdad».

John agregó: «Están muy cansados».

Si bien los moderadores acordaron que tal trabajo era necesario, dijeron que los problemas se podían solucionar. Daniel dijo: «Creo que es importante abrir un debate sobre este trabajo», y agregó que la solución era simple: «contratar a más personas».

En un comunicado, Facebook dijo: «Los moderadores de contenido hacen un trabajo vital para mantener segura a nuestra comunidad, y asumimos nuestra responsabilidad de garantizar su bienestar muy en serio. Trabajamos en estrecha colaboración con nuestros socios para garantizar que brinden el apoyo que las personas necesitan, incluida la capacitación, el apoyo psicológico y la tecnología para limitar su exposición al contenido gráfico. «La moderación de contenido es una industria nueva y desafiante, por lo que siempre estamos aprendiendo y buscando mejorar cómo se gestiona. Tomamos cualquier informe de que nuestros altos estándares no se están cumpliendo en serio y estamos trabajando con nuestros socios para analizar estas inquietudes».