El lado oscuro de Discord: la popular aplicación para adolescentes es blanco de casos de sextorsión y secuestros
En comunidades ocultas y salas de chat, los adultos han utilizado la plataforma Discord para preparar a los niños antes de secuestrarlos, intercambiar material de explotación sexual infantil (CSAM) y extorsionar a los menores a quienes engañan para que envíen imágenes de desnudos
Discord es una aplicación lanzada en 2015 que inició como un centro para jugadores en línea y que durante la pandemia se convirtió en un destino para diversas comunidades, desde el comercio de criptomonedas hasta chismes de YouTube y el K-pop. Sin embargo, la plataforma que ahora cuenta con más de 150 millones de suscriptores en todo el mundo también tiene un lado oscuro.
En comunidades ocultas y salas de chat, los adultos han utilizado la plataforma para preparar a los niños antes de secuestrarlos, intercambiar material de explotación sexual infantil (CSAM) y extorsionar a los menores a quienes engañan para que envíen imágenes de desnudos.
Una investigación realizada por NBC News reveló que se han registrado al menos 35 casos en los últimos seis años en los que se procesó a adultos por cargos de secuestro, acicalamiento o agresión sexual que supuestamente comunicaciones involucradas en Discord.
“Lo que vemos es solo la punta del iceberg”, dijo al medio de comunicación Stephen Sauer, director de la línea de ayuda del Centro Canadiense para la Protección de la Infancia (C3P).
En uno de los casos, ocurrido en marzo, una adolescente fue llevada a través de las fronteras estatales, violada y encontrada encerrada en un cobertizo, después de haber sido preparada en Discord durante meses. En otro, un hombre de 22 años secuestró a una niña de 12 años después de conocerla en un videojuego y acicalarla en Discord, según los fiscales.
NBC News identificó 165 casos adicionales, incluidas cuatro bandas criminales, en los que se procesó a adultos por supuestamente usar la plataforma para extorsionar a los niños para que enviaran imágenes sexualmente gráficas de ellos mismos, también conocido como sextorsión. Al menos 91 de los procesamientos han resultado en declaraciones de culpabilidad o veredictos, mientras que muchos otros casos están en curso.
Discord no es la única plataforma tecnológica usada por los depredadores de niños, sin embargo, la base de usuarios jóvenes, la estructura descentralizada y las herramientas de comunicación multimedia, junto con su reciente crecimiento en popularidad, lo han convertido en un lugar particularmente atractivo.
El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) señaló que cuando Discord colabora con los organismos de seguridad la respuesta suele ser mucho más eficiente, sin embargo, la capacidad de respuesta de la plataforma a las quejas se ha reducido de un promedio de alrededor de tres días en 2021 a casi cinco días en 2022. Y otras líneas de información se han quejado de que la capacidad de respuesta de Discord puede ser poco confiable.
John Shehan, vicepresidente senior de NCMEC, dijo que su organización ha visto un “crecimiento explosivo” de material de abuso sexual infantil y explotación en Discord.
Discord ha tomado algunas medidas para abordar el abuso infantil y el MASI en su plataforma. La compañía dijo en un informe de transparencia que deshabilitó 37,102 cuentas por violaciones de seguridad infantil en el último trimestre de 2022.
En una entrevista, el vicepresidente de confianza y seguridad de Discord, John Redgrave, dijo que cree que el enfoque de la plataforma para la seguridad infantil ha mejorado drásticamente desde 2021, cuando Discord adquirió su empresa de moderación de IA, Sentropy.
En una revisión de los servidores de Discord que figuran en la lista pública creados el mes pasado, NBC News identificó 242 que parecían comercializar contenido sexualmente explícito de menores, utilizando términos poco disimulados como “CP” que se refieren a material de abuso sexual infantil. Al menos 15 comunidades apelaron directamente a los propios adolescentes al afirmar que son comunidades sexuales para menores. Algunas de estas comunidades tenían más de 1.500 miembros.
Si bien es difícil evaluar el alcance completo del problema de la explotación infantil en Discord, las organizaciones que rastrean los informes de abuso en las plataformas tecnológicas han identificado temas que han podido destilar de los miles de informes relacionados con Discord que procesan cada año: el grooming, la creación de material de explotación infantil y el fomento de las autolesiones.
Según el NCMEC y el C3P, los informes de tentación, señuelo y acicalamiento, en los que los adultos se comunican directamente con los niños, están aumentando en Internet. Shehan dijo que los informes de seducción hechos al NCMEC casi se habían duplicado de 2021 a 2022.
Redgrave dijo que Discord está trabajando con Thorn, un conocido desarrollador de tecnología contra la explotación infantil, en modelos que pueden detectar potencialmente el comportamiento de acicalamiento.
La plataforma permite que cualquier persona cree una cuenta y, al igual que otras plataformas, solo solicita una dirección de correo electrónico y una fecha de nacimiento. Las políticas de Discord dicen que los usuarios de EE. UU. no pueden unirse a menos que tengan al menos 13 años, pero no tiene un sistema para verificar la edad autoinformada de un usuario.
Redgrave dijo que la compañía está “investigando muy activamente e invertirá en tecnologías de garantía de la edad”.
Denton Howard, director ejecutivo de Inhope, una organización de líneas directas para niños desaparecidos y explotados de todo el mundo, dijo que los problemas de Discord se derivan de una falta de previsión, similar a la de otras empresas.
“La seguridad por diseño debe incluirse desde el primer día, no desde el día 100”, dijo.
Sigue leyendo: