Algoritmos de Facebook y TikTok no detectan anuncios que difunden información errónea electoral
Las redes sociales de mayor alcance como Facebook y TikTok no lograron bajar de sus plataformas información errónea sobre las elecciones que ha estado circulando los últimos días
Los algoritmos de Facebook y TikTok han dejado en claro que no son eficientes al momento de detectar anuncios que contienen información errónea flagrante sobre las elecciones estadounidenses.
De acuerdo con un informe publicado este viernes, la preocupación sobre la capacidad de ambas plataformas de detener la circulación de información que cause confusión en los votantes en un momento en el que un gran número de jóvenes usa ambas redes sociales, no solo como medio de distracción, es aún mayor.
Global Witness y NYU probaron si algunas de las plataformas sociales más populares como Facebook, YouTube y TikTok pueden detectar y eliminar anuncios políticos falsos dirigidos a votantes estadounidenses antes de las elecciones de mitad de período del próximo mes.
De los 20 anuncios, TikTok sólo logró bloquear dos de los 20 contenidos políticos probados por el equipo de investigación, según el informe publicado por Global Witness y el equipo de Seguridad Cibernética para la Democracia de la NYU.
Facebook por su parte logró bloquear 13 de los 20 contenidos probados, 10 de ellos fueron en inglés y tres en español; el algoritmo aprobó un total de 7 contenidos publicados desde Estados Unidos.
Cuando se probó en YouTube, se rechazaron todos los anuncios y se prohibió el canal ficticio de YouTube creado para alojar los anuncios, según el informe.
“Gran parte de la conversación pública sobre las elecciones ocurre ahora en Facebook, YouTube y TikTok. La desinformación tiene un gran impacto en nuestras elecciones, el núcleo de nuestro sistema democrático”, dijo Laura Edelson, codirectora del equipo de Seguridad Cibernética para la Democracia, en un comunicado.
Edelson indicó que el desempeño de YouTube deja en claro que sí se puede detectar la desinformación electoral dañina y que las plataformas que entraron en el experimento debieron haber sacado una A, sin embargo, no fue así, por lo que hicieron un llamado a Facebook y a TikTok para trabajar en sus algoritmos.
“Las consecuencias de la inacción podrían ser desastrosas para nuestras democracias, nuestro planeta y nuestra sociedad en general”, dijo Jon Lloyd, asesor sénior de Global Witness, quien agregó que dichas acciones sólo “Aumentarán la polarización y todo eso. No sé qué se necesitará para que se lo tomen en serio”.