Meta diseñó un programa para eliminar pornografía infantil y contenido terrorista de Facebook de modo automático

Meta creó un software que ayudará a identificar y eliminar pornografía infantil y contenido terrorista en plataformas digitales de forma automática

Meta

HMA estará disponible de forma gratuita para todas aquellas compañías que deseen utilizarlo para evitar la publicación de contenido de explotación infantil o terrerorista Crédito: CHRIS DELMAS | AFP / Getty Images

Meta anunció que desarrolló un nuevo software capaz de evitar la difusión de contenido terrorista y de pornografía infantil. El programa llamado Hasher-Matcher-Actiones (HMA) permite bloquear la difusión de contenido ilegal en plataformas digitales como Facebook.

Desde la compañía afirmaron que esperan que este software también puede ayudar a otras empresas a poder luchar contra la difusión de esta clase de contenido que viola las leyes y va en contra de las políticas de cualquier tipo de plataforma.

“Esperamos que la herramienta, llamada Hasher-Matcher-Actioner (HMA), sea adoptada por una serie de empresas para ayudarles a detener la propagación de contenido terrorista en sus plataformas, y sea especialmente útil para las empresas más pequeñas que no tienen los mismos recursos que las más grandes”, dijeron desde Meta.

Debido a que el objetivo de Meta es que pueda detenerse la proliferación de contenido terrorista y de explotación infantil, anunciaron que el HMA estará disponible de manera completamente gratuita para todas aquellas empresas que deseen hacer uso de él para moderar de manera más efectiva sus plataformas web.

Según explicaron desde la red social HMA funciona al crear una especie de huella digital de cualquier tipo de archivo que represente una violación a las reglas de contenido de una plataforma. Posterioremente el sistema se encarga de realizar una búsqueda a profundidad de todo el contenido publicado por los usuarios y en caso de encontrar coincidencias procede a marcarlo para que los responsables de la plataforma puedan tomar la acción correspondiente

Esto quiere decir que HMA puede ser utilizado para llevar a cabo una mayor moderación del contenido que publican los usuarios debidoa que puede utilizarse para marcar contenido que pueder estar o no vinculado con terrorismo o explotación infantil.

En Meta añaden que mientras mayor sea el número de empresas que comiencen a utilizar HMA, más fácil será poder detectar el contenido inapropiado lo que se traducirá en una navegación más segura.

“Cuantas más empresas participen en la base de datos de intercambio de hash, mejor y más completa será, y será mejor que todos mantengamos el contenido terrorista fuera de Internet, especialmente porque la gente a menudo se moverá de una plataforma a otra para compartir este contenido”, agregan.

Esto también te puede interesar:
Meta: cómo ha respondido la empresa de Mark Zuckerberg a las denuncias de “agresión sexual” en su mundo virtual
Zuckerberg confirma inicio de despidos masivos en Meta
Advierten que el avatar de una mujer habría sufrido acoso en el entorno VR de Meta

En esta nota

Facebook

Suscribite al boletín de Noticias

Recibe gratis las noticias más importantes diariamente en tu email

Este sitio está protegido por reCAPTCHA y Google Política de privacidad y Se aplican las Condiciones de servicio.

¡Muchas gracias!

Más sobre este tema
Contenido Patrocinado
Enlaces patrocinados por Outbrain