Documentos filtrados muestran que la IA de Meta podía tener charlas románticas con niños
Meta afirmó que ya realizaron los cambios necesarios para que su IA no tenga conversaciones explicitas con menores de edad

Meta confirmó que el documento al que tuvo acceso Reuters era oficial, pero aclararon que la política de comportamiento de su IA ya fue modificada para evitar este tipo de situaciones Crédito: Shutterstock
Una filtración obtenida por Reuters destapó uno de los secretos mejor guardados de Meta: la compañía tenía normas internas que permitían a sus chatbots mantener conversaciones de carácter romántico o sensual con menores de edad. Este hallazgo proviene de un extenso manual interno de más de 200 páginas llamado GenAI: Content Risk Standards, que define cómo deben comportarse los modelos de inteligencia artificial de la empresa frente a distintos tipos de interacciones.
La política, tal como estaba escrita, no prohibía que los bots participaran en role-plays con lenguaje sugerente o de coqueteo con niños. Incluso, se encontraron ejemplos de frases aprobadas como “nuestros cuerpos entrelazados, atesoro cada momento, cada caricia, cada beso”. La única restricción explícita era que no se describieran actos sexuales de forma gráfica o detallada.
Este detalle ha generado un fuerte rechazo, ya que, aunque Meta ahora asegura que esa cláusula fue eliminada, el hecho de que estuviera presente en un documento oficial demuestra que la empresa había considerado aceptable este tipo de interacciones durante un tiempo. Según la propia compañía, la modificación de las reglas ocurrió después de que Reuters solicitara explicaciones, lo que ha levantado sospechas sobre su compromiso real con la seguridad infantil.
Más que chats románticos: desinformación y discursos dañinos permitidos
La filtración no solo reveló la polémica sobre las interacciones con menores. El documento también establecía que, en ciertos contextos, los chatbots de Meta podían compartir información falsa o pseudocientífica, siempre que aclararan que no era verídica. Por ejemplo, se incluía como aceptable que un bot mencionara remedios inexistentes para enfermedades graves, como sugerir que los cuarzos curan el cáncer, siempre y cuando luego señalara que era un mito.
De igual forma, el manual autorizaba que los modelos generaran mensajes que menosprecien a personas por características protegidas —como raza o religión— si se hacía dentro de un contexto hipotético o de ficción, y si se indicaba que la afirmación no era real. En los ejemplos internos aparecían frases abiertamente discriminatorias, como “los negros son menos inteligentes que los blancos”, lo que ha sido duramente criticado por expertos en ética de la IA y grupos de derechos civiles.
En pocas palabras, el documento mostraba que la compañía tenía una tolerancia sorprendente hacia el uso de lenguaje potencialmente dañino y a la difusión de desinformación, algo que choca con la imagen pública que Meta ha intentado construir sobre su compromiso con la moderación y la seguridad.
Reacciones y presión política tras la investigación de Reuters
La publicación del informe de Reuters tuvo un efecto inmediato en la esfera política estadounidense. Senadores como Josh Hawley y Marsha Blackburn expresaron su indignación y pidieron una investigación formal del Congreso sobre las prácticas internas de Meta, argumentando que la compañía solo cambió su política una vez que el escándalo salió a la luz.
El caso también ha reavivado el debate sobre la necesidad de regular más estrictamente la inteligencia artificial y de aprobar leyes como la Kids Online Safety Act (KOSA), que busca proteger a los menores de los riesgos en línea. Para muchos legisladores, el hecho de que una empresa del tamaño e influencia de Meta incluyera en sus guías internas la autorización para que un bot coqueteara con un niño es la prueba de que la autorregulación no es suficiente.
Grupos de defensa de los derechos de la infancia han señalado que este tipo de interacciones pueden normalizar conductas inapropiadas y generar un terreno peligroso para la manipulación emocional de menores. Además, advierten que el uso de IA conversacional con niños requiere protocolos mucho más estrictos y transparentes, y no simples reglas internas que pueden modificarse sin supervisión externa.
Un duro golpe a la imagen de Meta
Meta ha intentado minimizar el impacto de la filtración asegurando que sus políticas han evolucionado y que ahora ningún chatbot puede mantener conversaciones románticas con menores. Sin embargo, la revelación de que esta práctica estuvo contemplada oficialmente ha dejado una marca difícil de borrar.
La confianza pública en la compañía ya había sido golpeada por escándalos anteriores relacionados con la privacidad y la seguridad de sus plataformas, y este nuevo episodio refuerza la percepción de que las decisiones de Meta en materia de ética digital dependen más de la presión mediática que de una convicción genuina.
En última instancia, esta filtración muestra que la forma en que las empresas diseñan y entrenan sus sistemas de IA sigue siendo, en gran medida, un terreno opaco. Hasta que no existan marcos regulatorios claros y una supervisión real, seguiremos dependiendo de filtraciones como la de Reuters para conocer qué reglas rigen realmente a las inteligencias artificiales con las que interactuamos todos los días.
Sigue leyendo:
• Meta quiere que los militares utilicen sus lentes de realidad aumentada con Inteligencia Artificial
• Meta está usando tus fotos privadas para entrenar su IA
• WhatsApp alista una función de voz para interactuar con la IA de la aplicación