"Empezamos a investigar hace mucho tiempo, nos intrigaba saber quién decidía lo que se publica o se prohíbe en las redes sociales. Para eso nos pusimos en contacto con científicos, quienes nos dieron la pista de que ese trabajo podía estar siendo realizado por moderadores de contenido en Manila, Filipinas, a través de compañías subcontratadas por Facebook", cuenta en diálogo con la nacion revista Hans Block, uno de los directores del film. Siguiendo esa pista, Block y Riesewieck se instalaron durante meses en Manila tratando de contactar a los trabajadores, pero era muy difícil hablar con ellos ya que las compañías les prohibían dar información sobre su trabajo. "Finalmente, pudimos hablar con algunos que ya habían renunciado y con otros que aún trabajan para esas compañías, pero sin mostrar sus rostros. Nuestra responsabilidad era cuidarlos, y trabajamos con abogados para hacer posible el documental", detalla Block.
Estos limpiadores deben encargarse de decidir cuál es contenido potable y cuál es demasiado sensible como para que circule en Facebook. Para eso, su trabajo consiste en mirar 25.000 imágenes y videos diarios que los usuarios de todo el mundo suben a la red social. Entre todo el material abundan escenas porno, violencia contra menores, decapitaciones, fotos racistas y hasta suicidios. Cada filipino trabaja entre 8 y 10 horas diarias, con un salario que oscila entre 1 y 3 dólares la hora. Pero ¿cómo funciona la moderación de contenido en Facebook? Según explica Hans Block, hay dos grandes maneras. La primera es mediante un algoritmo (es decir, una máquina) encargada de separar el contenido inapropiado para enviárselo a los filipinos, quienes realizan una segunda revisión del mismo. La otra manera es que los usuarios de la red social denuncien algún contenido como inapropiado, el cual también será enviado a los filipinos para que lo revisen.
La pregunta que surge de inmediato es: ¿cuán confiable puede ser este sistema de moderación? Nicole Wong, exencargada de Políticas en Google y Twitter expone en The Cleaners que "es muy difícil decidir qué contenido es apropiado o no, sobre todo porque muchos de los que trabajan como moderadores quizás ni siquiera estuvieron en el país donde se sacó la foto, y no tienen un contexto histórico. Por eso es importante entrenarlos para que puedan detectar cuando un contenido es apropiado o no para una determinada cultura". Esta falta de preparación se percibe en diversas escenas a lo largo de todo el documental. Una de ellas muestra a un moderador creyendo que está ante una foto de un soldado de ISIS, cuando en realidad es un soldado estadounidense aterrorizando a un prisionero de Abu Ghraib en Irak; otra muestra a un joven moderador filipino que decide eliminar un cuadro de una artista inglesa porque consiste en un dibujo paródico (y bastante inocente) de Donald Trump desnudo.
"Facebook concentra a sus moderadores en Filipinas porque la mano de obra allí es muy barata. Eso es muy peligroso porque se elimina la diversidad, y es importante tener diferentes perspectivas sobre lo que se debe o no publicar, si no, es parcial", reflexiona Block. Y agrega: "Por ejemplo, en Filipinas el 90% de la población es católica y muchos de los moderadores sienten que su trabajo consiste en liberar al mundo de los pecados. Su presidente, Rodrigo Duterte, está llevando a cabo una política de 'limpieza social' en la cual cualquier criminal o persona que vende drogas debe ser eliminada. Todo lo que es malo se debe aniquilar, y esa es la forma de pensar de muchos filipinos".
En un país como Filipinas, donde la pobreza alcanza a casi un 30% de la población, el trabajo del moderador se presenta como una gran oportunidad para los jóvenes estudiantes. Mientras otros chicos de su edad deben pasar días enteros en basurales para juntar cartones o plásticos, los moderadores tienen la posibilidad de contar con un contrato, trabajar en una oficina con aire acondicionado y cobrar un sueldo a fin de mes. El trabajo del moderador significa prestigio para varios de los filipinos que lo hacen, aunque muchos de ellos no soportan la presión de ver tantas imágenes horribles todos los días. Una de las entrevistadas en The Cleaners cuenta que le pidió a su superior dejar de revisar cierto tipo de contenido luego de ver una foto de un hombre violando a una nena de seis años. La respuesta que recibió fue que debía hacerlo de todas maneras, porque había firmado un contrato para eso.
El discurso del odio
Aunque millones de personas alrededor del mundo utilizan Facebook, Twitter o Instagram para mostrar sus vidas, sus vacaciones o compartir experiencias con familiares y amigos, hay un gran número de usuarios que en cambio aprovechan esas plataformas multitudinarias para propagar creencias políticas o religiosas, así como odio de clases, violencia y perversiones. "No es justo separar al comportamiento humano de la tecnología como si esta última fuera solo una herramienta", opina en el documental Tristan Harris, exdiseñador de Ética en Google. Y suma: "La tecnología toma partido y tiene una meta, que es encontrar cual contenido va a retener más la atención de los usuarios. El odio es una de ellas. Y aunque le guste o no, Facebook se beneficia con este tipo de contenido. La mayoría de estas plataformas se hace por gente joven, blanca, ingenieros como yo que viven en California. Y lo que crean que va a impactar en lo que piensen 2 mil millones de personas. Tenemos que ser muy cuidadosos con lo que creamos".
No es la primera vez que se escucha fuerte el término manipulación rondando como un fantasma sobre las redes sociales. Sin ir más lejos, el nombre del CEO de Facebook, Mark Zuckerberg, ocupó las primeras planas de diarios internacionales cuando en enero de este año salió a la luz el escándalo de la empresa Cambridge Analityca, acusada de utilizar datos de 87 millones de usuarios de Facebook para manipular el resultado de las elecciones presidenciales de los Estados Unidos en 2016, que dieron a Donald Trump como ganador.
"El mundo digital está en manos de empresas privadas que son muy poco transparentes", detalla Hans Block, quien durante todo el proceso del documental trató de contactar a estas compañías que emplean a los moderadores filipinos, pero nunca obtuvo respuesta. "Estas empresas tienen mucho poder y eso es peligroso, porque las redes sociales se convierten en el lugar ideal para las noticias falsas o la propaganda, para influenciar a la gente. Podés llegar a millones de ciudadanos en cuestión de segundos, y eso puede tener un efecto muy aterrador sobre nuestra sociedad".
¿Cómo deberían entonces ser las redes sociales en un mundo ideal? Según el mismo Block, la manera de evitar la manipulación de las mismas es que estén en manos públicas: "Habría que crear una especie de Naciones Unidas digital, donde cada Estado se siente en una mesa a hablar sobre las directrices que deben tener las redes sociales. Se debería descentralizar el poder, separar las responsabilidades y que su peso caiga en muchos hombros diferentes".
Aunque cierta moderación de contenido parece necesaria, existe una delgada línea roja. Por ejemplo, la ONG inglesa Airwars trabaja todos los días monitoreando y evaluando el daño civil de las acciones militares internacionales en zonas de conflicto como Siria e Irak. Para eso, rescatan de las redes sociales los videos de bombardeos y ataques como documentos que podrían probar el daño a civiles. Sin embargo, los cánones de moderación de las mismas redes sociales hacen que los videos sean eliminados apenas se suben, lo cual dificulta la recolección de este tipo de pruebas.
Como explica en The Cleaners David Kaye, Relator Especial de la ONU sobre Libertad de Expresión: "Las empresas tienen cada vez más y más poder para decidir qué se queda y qué se va de las redes sociales. Al crearnos un mundo completamente controlado, interfieren con nuestra habilidad para tener pensamiento crítico y ser desafiados. No tenemos que sorprendernos si en un futuro la información a la que llegamos sea cada vez menos provocativa, menos desafiante. Vamos a ser una sociedad muy pobre, con las compañías tomando las decisiones sobre qué es legal y qué no".
Muchos recordarán la famosa imagen de Aylan Kurdi, el niño kurdo de 3 años que apareció ahogado en una playa de Turquía y cuya imagen se hizo viral en 2015, exponiendo el peor costado de la guerra siria. Según un estudio publicado por la revista científica PNAS, durante la semana en la que se difundió la fotografía de Kurdi, las búsquedas de los términos "Siria" y "refugiados" se sextuplicaron. Además, la Cruz Roja sueca recibió cien veces más donaciones para ayudar a los refugiados, y pasó de recaudar 34.000 coronas suecas diarias a 1.900.000. ¿Qué hubiera pasado si esa imagen era eliminada por los moderadores? ¿Cuál es el límite sobre qué debemos ver y qué no?
Al respecto, Block reflexiona: "Cuando arranqué el documental pensaba que estaba bien que se eliminara el contenido perturbador. Pero ahora tengo una visión más compleja, porque ese contenido a veces puede ser de mucha ayuda. ¿Tenemos derecho a no ser perturbados solo porque somos una sociedad occidental? Yo creo que no".