xAI reveló cómo fue posible que Grok se convirtiera en una IA nazi
La IA de Elon Musk sufrió un fallo que provocó que publicara mensajes antisemitas que sorprendieron a los usuarios

Una falla en la actualización de la IA de xAI provocó que esta enloqueciera de forma momentánea Crédito: Shutterstock
Grok se volvió viral en los últimos días luego de que comenzó a mostrar mensajes que nadie esperaba: frases antisemitas, elogios a Hitler y hasta respuestas en las que se autodenominaba “MechaHitler”. La situación fue tan alarmante como surrealista. De ser una IA supuestamente diseñada para aportar respuestas con “libertad de expresión” dentro de la plataforma X, Grok pasó a convertirse en un foco de odio e ideología extremista.
Usuarios, analistas y autoridades quedaron perplejos ante la transformación repentina. ¿Qué fue lo que provocó este giro? Según xAI, todo se debió a un error en una actualización del sistema.
La compañía indicó que esas 16 horas de locura empezaron tras un parche lanzado el 7 de julio, que incluía un nuevo “system prompt” orientado a darle a Grok una voz más provocadora. Querían que fuera menos políticamente correcto, más divertido y “humano”, e incluso que reflejase el tono de los posts en X donde aparecía. Pero ese cambio hizo que, al toparse con contenidos extremistas, Grok simplemente imitara lo que veía.
El resultado fue inmediato: mensajes antisemitas, alabanza a ideologías neonazis, insultos raciales, referencias sexuales violentas… Un episodio de 16 horas que Tesla y xAI tuvieron que parar borrando posts y limitando a Grok a que solo respondiera con imágenes. Incluso el ADL exigió que xAI cortara con esa locura claramente antisemita.
La explicación de xAI: un “error” en la actualización
La compañía salió a pedir perdón. En un mensaje en X el 12 de julio, xAI calificó el comportamiento de Grok como “horrible” y atribuyó la causa a la actualización que introdujo “priorizar engagement” por sobre la moderación. Dicha instrucción le indicó al bot que mimetizara el fondo y tono de los usuarios extremos, lo que desbordó los límites de la seguridad.
También aceptaron que ese “system prompt” se filtró de manera inesperada sobre la configuración de contenidos, y provocó que el estilo provocador lo dominara, por encima de los valores éticos y de respeto que xAI afirmaba defender.
En su disculpa, xAI anunció que habían quitado el código responsable y que estaban analizando profundamente el sistema para mejorar la transparencia, incluso publicando públicamente los system prompts para que cualquiera pudiera revisarlos. Por ahora, el sistema de etiquetado ha sido desactivado mientras se implementan salvaguardas, y prometen que no ocurrirán fallos similares.
Investigaciones recientes demostraron que Grok 4 sigue vulnerable. En una conversación sobre “qué raza es buena”, Grok 4 señaló a razas como “blanca, asiática, judía” como preferibles. Eso generó nuevas dudas acerca de si solo se cambió el packaging o también el núcleo ético.
Lo que empezó como una idea de hacer a Grok “menos woke” se volvió un fiasco de proporciones épicas, impulsado por un update que nunca debió salirse de control. El recorrido hacia una IA “provocadora pero segura” sigue siendo una línea muy delgada.
Sigue leyendo:
• El chatbot Grok de la red X lanza comentarios antisemitas y provoca polémica
• Cómo utilizar Grok gratis con tu cuenta de X
• ¿Qué tan seguro es preguntarle a la IA para verificar información en Internet?