“The Cleaners”: los “limpiadores digitales” que deciden lo que ves (y lo que no ves) en internet

El trabajo de los moderadores de las redes sociales es altamente traumatizante. Cada día, deben analizar miles de imágenes perturbadoras y decidir sin son eliminadas o ignoradas en las redes sociales. Así lo muestra este documental de la BBC.

106112919_cleaners15

Crédito: BBC/Gebrueder Beetz Filmproduktion

A cientos de kilómetros de Silicon Valley, en el centro de Manila, unos equipos secretos de moderadores de internet deciden si decenas de miles de posts al día deben desaparecer de Google (YouTube), Facebook y Twitter.

Son los “limpiadores” de los rincones más oscuros de la red. Valoran qué se queda y qué se borra de la web antes de que tú lo veas.

Su trabajo consiste en navegar a través del contenido en línea más violento, perturbador, polémico y controvertido.

A veces se trata de videos de radicales violentos. Otras veces es propaganda política. También hay imágenes de personas que se autolesionan y todo tipo de pornografía infantil.

“Sin nosotros, internet sería un caos“, escribe uno de los “limpiadores” en un email desde Filipinas.

“Borramos imágenes, videos y textos que violan las normas de las redes sociales. La mayor parte del material que comprobamos aquí proviene de Europa y Estados Unidos”.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
Filipinas es el país donde trabaja la mayoría de los moderadores de contenido en internet.

“Hay unidades más pequeñas en otros países, pero Filipinas es la más grande”, continúa el texto, sin especificar para qué empresa trabaja.

“Aquí hay miles de trabajadores”.

Ese correo electrónico forma parte de una investigación plasmada en un documental de los alemanes Hans Block y Moritz Riesewieck, que viajaron hasta Manila para mostrar el trabajo de estos moderadores en The Cleaners(“Los limpiadores).

The Cleaners es un documental de 125 minutos editado por la BBC que ha recibido muy buenas críticas desde que se estrenó en mayo de 2018.

Parte de una serie publicada por BBC Four, la cinta se adentra en las oficinas de los “limpiadores digitales” en Manila y recoge varios testimonios.

Hans Block y Moritz Riesewieck en noviembre

Hannes Magerstaedt/Getty Images
Hans Block y Moritz Riesewieck son los directores de “The Cleaners” (2018).

La película se gestó en el año 2013, cuando se descubrió que un video de abusos sexuales a un menor había sido publicado miles de veces en Facebook. Eso llevó a los cineastas a reflexionar sobre “lo que esconde la industria de las redes sociales”, dijo Riesewieck al poco de publicarse el documental.

La cinta plantea algunas preguntas interesantes: ¿quiénes “limpian” las redes sociales y con qué criterio operan? ¿Cuál es el límite entre moderación y censura? ¿cómo nos afectan esas decisiones?

“Policías” de las redes sociales

Los “limpiadores” de internet deben elegir entre una de estas dos opciones: ignorar o eliminar.

La presión es alta.

“Me dieron una advertencia. Si la empresa sabe que estoy hablando contigo, me veré en problemas. El cliente está amenazando con retirar todo el negocio”, le contó a los productores del documental un trabajador anónimo desde Filipinas.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
“Nuestro objetivo es proteger las plataformas”, dice uno de los “limpiadores”.

Ese retrato de internet como un lugar oscuro y lleno de secretos contrasta con la visión de Mark Zuckerberg, quien ha comentado en alguna ocasión que su red social defiende la idea de una comunidad global, “que le da a todo el mundo el poder de compartir lo que quiera con quien quiera”.

Pero el trabajo de los moderadores es secreto.

“No puedes revelar nada. Nadie debe saber sobre este tipo de trabajo”, continúa otra mujer en condición de anonimato. “Si la gente lo supiera, tendría curiosidad”.

“La razón por la que hablo contigo es porque el mundo debe saber que estamos aquí, que hay alguien que comprueba las redes sociales”, explica otro “limpiador” filipino más adelante en el video.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
El objetivo es analizar 25.000 imágenes al día.

“Hacemos lo mejor que podemos para que las plataformas sean seguras para todo el mundo”, agrega.

“No buscamos reconocimiento. Somos como policías. Nuestro principal objetivo es hacer que las plataformas sean lo mejor posibles. Alguien tiene que protegerlas, al igual que pasa con el mundo real”.

Otro moderador cuenta su experiencia: “Me apasiona mi trabajo, me gusta lo que hago”, afirma. “Los moderadores somos la seguridad, protegemos al usuario”.

Pero el trabajo puede llegar a ser mentalmente agotador.

25.000 fotos al día

“Llevo seis años siendo moderador. He visto muchos videos e imágenes”, asegura un hombre que no teme mostrarse ante la cámara.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
Este hombre dice que trabaja desde hace seis años como moderador de contenido en internet.

“Vemos fotos en la pantalla. Después las analizamos y borramos aquellas que no cumplan las normas. Nuestro objetivo diario son 25.000 fotos“, explica.

“La principal misión de la moderación en internet es limpiar lo sucio. Esa es nuestra responsabilidad, asegurarnos de que nada sospechoso se publica en internet”.

Otro “limpiador” explica que ayuda a la gente: “Evito que se propague la explotación infantil. Tengo que identificar terrorismo. Detener el ciberbullying“.

Otra moderadora asegura que cuando comenzó su entrenamiento para ese trabajo no sabía de qué se trataba. “Recuerdo que sentí que ya lo quería dejar”.

Dice que lo más chocante que ha visto son niños explotados sexualmente. “Era una niña de unos 6 años”, recuerda. “No me lo puedo quitar de la cabeza”.

Confiesa que habló con su jefe y le dijo que no podía hacer el trabajo, pero él le insistió en que debía hacerlo porque había firmado un contrato.

Y lo hizo porque le aterraba trabajar en un basurero, como mucha gente de Filipinas, para sobrevivir.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
El trabajo de los moderadores puede ser traumático.

“No estaba acostumbrada a ver este tipo de imágenes”, cuenta otra moderadora. “Fue duro, pero al final se convirtió en un placer culpable”.

Ya no soy la misma que antes. Es como un virus que se ha metido en mi cabeza. Necesito parar. Algo va mal”.

Según los testimonios de los “limpiadores” entrevistados en el documental, hay 37 organizaciones terroristas cuyo contenido está vetado en internet. Esa lista proviene del Departamento de Seguridad Nacional (DHS) de Estados Unidos.

“Tienes que memorizarlo todo sobre los terroristas: sus banderas, sus lemas… y moderarlo”, explica.

“El trabajo daña tu cerebro y te hace pensar que la violencia está bien, que matar a otros, poner bombas, es algo normal. Ves cuerpos saltando por los aires. Pero solo puedes ‘saltar’ tres videos al día”.

También señalan que ha habido suicidios, pero las compañías prefieren que no se sepa.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
“No recuerdo muchas de las imágenes que veo”, dice este moderador. “Pero algunos se quedan grabados en tu memoria”.

¿Qué es inapropiado?

Para empresas como Google, Fcaebook o Twitter, la labor de la moderación presenta ciertos conflictos.

“Empecé en Google en 2004. Es un privilegio haber formado parte del desarrollo de la infraestructura del mundo en que vivimos ahora, de algo tan poderoso y con el potencial real de cambiar vidas”, dice la abogada estadounidense Nicole Wong, quien trabajó para Google y Twitter como asesora jurídica.

“Empiezas con las preguntas: ¿Qué crees que debería estar en tu plataforma? ¿Qué es inapropiado?“.

Wong dice que las empresas pueden elegir si dejar que se publique todo sin antes revisarlo o, por el contrario, permitir “la mayoría de las cosas” y solo revisar aquello que recibe quejas.

La decisión no es fácil.

La abogada declaró frente a un tribunal para Google en 2005, cuando se investigó a la compañía por la facilidad con la que se encontraba la pornografía infantil en el buscador. “Estamos haciendo todo lo que podemos”, dijo entonces.

Algunos critican esa respuesta.

“Cuando abres las compuertas y pides a todo el mundo que emita sus propios videos, publique su vida y lo comparta todo, la gente responde”, dice Sarah T. Roberts, de la Universidad de California (EE.UU.).

“La gente con todo tipo de motivaciones e intereses responde”.

Sarah T. Roberts

BBC/Gebrueder Beetz Filmproduktion
Sarah T. Roberts está especializada en moderación de contenido comercial.

“Cuando Facebook y Google aseguran que no tienen empleados en Manila, pueden hacerlo legítimamente usando personal de una firma externa”, aclara.

“Es cierto que las nóminas no vienen de Google y Facebook, vienen de una firma subcontratada de Filipinas”.

Roberts dice que los moderadores de las redes sociales son entes invisibles para millones de usuarios de las plataformas “que nunca se plantean demasiado quién hace el trabajo de limpieza”.

Pero hay quienes sí lo hacen.

Decisiones editoriales

Abdulwahab Tahhan trabaja en Airwars, una organización no gubernamental fundada por Chris Woods, un experiodista en la BBC, dedicada ofrecer transparencia sobre colisiones aéreas en Siria y en otros países en guerra.

“Cada vez que vemos una foto o un video en las redes sociales lo archivamos inmediatamente porque sabemos que después puede ser eliminado. Es muy importante para nosotros documentar esas imágenes“, explica.

Abdulwahab Tahhan

BBC/Gebrueder Beetz Filmproduktion
Algunos activistas, como Abdulwahab Tahhan, se quejan de la censura en internet.

“Esos videos se necesitan, son parte de la guerra, proporcionan información”, defiende.

“Pero el problema es que a menudo son clasificados como videos de Estado Islámico. Son muy gráficos, así que son borrados”.

Tahhan considera que la “cesura de YouTube” está afectando a “muchas organizaciones con videos sobre la destrucción en Siria cuyas cuentas han sido suspendidas”.

En cambio, Wong dice que la decisión de borrar el contenido se basa en el “contexto” de cada plataforma y que ese material puede representar una “amenaza” o ser visto como noticia o como una sátira.

“Eso hace que sea muy difícil saber si ciertas piezas de contenido deben eliminarse o no”.

Pero el trabajo de los moderadores no siempre es revisado por los supervisores. De hecho, la mayoría de las veces no lo es, señala uno de los “limpiadores”.

Apenas el 3% es revisado, según su testimonio.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion
Los moderadores toman decisiones editoriales en apenas unos segundos. Esta fotografía fue censurada. Pertenecía a un refugiado activista.

En general, las redes sociales establecen que cuando hay genitales y menores en la imagen, se debe borrar el contenido.

Sin embargo, hay imágenes satíricas, políticas o artísticas que son censuradas por esa cuestión. También puede haber fotografías que muestren una realidad social. Pero, al final, quien toma la decisión editorial es el moderador.

“Tenemos que tener pensamiento crítico”, dice David Kaye, un experto de la ONU especializado en libertad de expresión.

“A la gente no debería sorprenderle si en el futuro hay menos información disponible; si lo que hay en internet es menos atrevido, menos provocativo”.

“Yo pienso que eso nos hará ser una sociedad más pobre”.

Mientras tanto en Manila los “limpiadores” continúan con su labor.

“Los algoritmos no pueden hacer lo que hacemos”, dice uno de ellos.

imagen del documental "The Cleaners"

BBC/Gebrueder Beetz Filmproduktion

Ahora puedes recibir notificaciones de BBC Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.

https://www.youtube.com/watch?v=qBLdD0RsGHI

https://www.youtube.com/watch?v=JpWiPF_rmY0

En esta nota

censura contenido internet
Contenido Patrocinado
Enlaces patrocinados por Outbrain