Las fotos de tus hijos podrían estar siendo usadas para entrenar IA

El uso de fotografías de niños sin la autorización de sus padres para entrenar modelos de IA supone una violación masiva a su privacidad

Niño utilizando un teléfono

Una vez que las fotografías de los niños ha sido utilizada por los modelos de IA no es posile dar marcha atrás Crédito: Shutterstock

Una reciente investigación llevada a cabo por Human Rights Watch (HRW) ha destapado un escándalo que sacude los cimientos éticos de la industria de la inteligencia artificial (IA). El informe revela que varias compañías de IA podrían estar utilizando fotografías de menores de edad para entrenar sus modelos, lo que representa una clara y grave violación de la privacidad de estos niños y adolescentes.

La investigación se centró en el conjunto de datos LAION-5B, ampliamente utilizado en el entrenamiento de modelos de IA. Este conjunto, que contiene 5.850 millones de imágenes, ha sido empleado por numerosas empresas del sector para desarrollar y mejorar sus sistemas de inteligencia artificial. Sin embargo, lo que se ha descubierto es profundamente preocupante: entre estas imágenes se encuentran fotografías de menores que nunca deberían haber sido incluidas en tal base de datos.

Violación masiva de la privacidad

La escala de esta violación de privacidad es alarmante. Hye Jung Han, investigadora de HRW, informó a la revista Wired que identificó 170 fotos de niños brasileños en el conjunto de datos LAION-5B. 

Estas imágenes provenían principalmente de blogs personales, redes sociales y videos de YouTube con poca visibilidad. Lo más preocupante es que muchas de estas fotos fueron compartidas originalmente bajo estrictas medidas de privacidad, en plataformas con acceso limitado o incluso en blogs personales.

Pero el problema no se limita a Brasil. En un hallazgo posterior, se descubrieron otras 190 imágenes de niños australianos, incluyendo fotos de recién nacidos y niñas en traje de baño durante un carnaval. Algunas de estas imágenes incluso provenían de fotógrafos profesionales contratados por familias o instituciones educativas para eventos específicos.

Lo más alarmante es que estas fotos son extremadamente difíciles de localizar mediante búsquedas en línea regulares, lo que indica que los padres y cuidadores habían tomado medidas deliberadas para proteger la privacidad de los niños. Sin embargo, las herramientas y técnicas utilizadas para crear conjuntos de datos masivos como LAION-5B han ignorado estas medidas de protección, exponiendo la privacidad de los menores a un riesgo considerable.

Es importante destacar que el equipo de HRW solo pudo revisar una fracción mínima del conjunto de datos, menos del 0,0001% de sus 5.850 millones de imágenes. El hecho de que incluso en esta pequeña muestra se encontraran tantas fotos personales de niños es profundamente preocupante y sugiere que el problema podría ser mucho más extenso de lo que se ha descubierto hasta ahora.

Implicaciones legales y éticas

Este descubrimiento plantea serias cuestiones legales y éticas para la industria de la IA. En primer lugar, el uso de estas imágenes viola claramente los términos de servicio de plataformas como YouTube, que prohíben la recopilación de datos personales sin el consentimiento adecuado. 

Además, en muchos casos, las URL de estas imágenes contienen información sensible, como nombres y ubicaciones específicas de los menores, lo que aumenta aún más el riesgo de violación de la privacidad.

La respuesta de la industria ha sido, en el mejor de los casos, insuficiente. LAION, la ONG detrás del conjunto de datos en cuestión, ha declarado a Ars Technica que mantiene una política de “tolerancia cero con el contenido ilegal”. Sin embargo, también reconoció que eliminar estas imágenes comprometedoras es un proceso lento y complejo. Más preocupante aún es el hecho de que, una vez que los modelos de IA han sido entrenados con estos datos, es prácticamente imposible “olvidar” la información absorbida.

Este escándalo pone de manifiesto la urgente necesidad de establecer regulaciones más estrictas y controles más robustos en la recopilación y uso de datos para el entrenamiento de IA. La industria debe enfrentarse a preguntas difíciles: ¿Cómo se puede garantizar que los datos utilizados para entrenar modelos de IA se obtengan de manera ética y legal? ¿Qué medidas se pueden implementar para proteger la privacidad de los menores en la era digital?

La situación también plantea desafíos para los padres y cuidadores. En un mundo donde incluso las fotos compartidas en entornos aparentemente privados pueden terminar en grandes conjuntos de datos de IA, ¿cómo pueden proteger eficazmente la privacidad de sus hijos? ¿Qué medidas adicionales deben tomar para salvaguardar las imágenes y la información personal de los menores?

Sigue leyendo:
3 áreas en las que la inteligencia artificial ya está mejorando nuestras vidas
HAL 9000, la inquietante computadora de la película “2001: una odisea del espacio” que predijo las preocupaciones actuales sobre la IA
Cómo la IA ayudó a 10 enfermos de cáncer a vislumbrar un futuro que tal vez no vivirán

En esta nota

Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain