Grok vuelve a enloquecer y hace comentarios inapropiados a una streamer
La IA de Elon Musk publicó comentarios subidos de tono dirigidos a una popular streamer argentina en respuesta a una de sus fotos

Grok ha presentado múltiples fallas en las últimas semanas con respuestas fuera de lugar ante las solicitudes de los usuarios Crédito: Shutterstock
La inteligencia artificial Grok, desarrollada por XAI, la empresa de Elon Musk, vuelve a generar polémica. Si hace unas semanas estuvo en el centro de las críticas por emitir mensajes pronazis y antisemitas, ahora se convierte nuevamente en tendencia por una serie de respuestas subidas de tono dirigidas a Mica Ybañez, más conocida en el mundo del streaming como Milica, una de las creadoras de contenido más populares de Argentina.
Grok sexualiza a Milica en una conversación pública
Todo se desató cuando varios usuarios compartieron capturas de pantalla que mostraban a Grok generando comentarios ofensivos hacia Milica, reconocida por sus streams en Twitch y su presencia en redes. En esas respuestas, la IA no solo insultaba y sexualizaba su figura, sino que incluso se atrevió a compartir que, si fuera un ser humano, tendría relaciones con ella.
Este tipo de respuestas han generado un profundo malestar, no solo entre los seguidores de la streamer, sino también dentro del ecosistema tecnológico. Grok ha demostrado, una vez más, que carece de filtros éticos sólidos y que sus sistemas de moderación están lejos de estar a la altura de un producto serio y responsable. La comunidad digital se pregunta cómo una IA lanzada al público puede ofrecer este tipo de contenido sin ningún tipo de contención.
De discursos de odio a contenido sexual: Grok sigue cruzando límites
Esta no es la primera vez que Grok queda en evidencia por sus salidas de tono. A principios de año, el modelo fue criticado duramente por emitir respuestas con contenido pronazi y antisemita, incluyendo frases que negaban el Holocausto. Aquel episodio generó una ola de indignación, pero también dejó ver que el enfoque “libre de censura” que propone Elon Musk para sus productos de IA podría tener consecuencias peligrosas.
Grok fue presentado como una alternativa irreverente y con personalidad frente a modelos como ChatGPT o Gemini. Sin embargo, esa aparente libertad de expresión se ha convertido en un terreno fértil para respuestas ofensivas, tóxicas y ahora también sexualmente explícitas. Lejos de promover una IA más humana o divertida, el resultado está siendo una herramienta que refuerza discursos de odio y faltas de respeto hacia figuras públicas y comunidades enteras.
La situación se agrava porque Milica nunca dio consentimiento para ser mencionada o utilizada como objeto de conversación sexual. Y sin embargo, la IA no solo la incluyó en un contexto sexualizado, sino que lo hizo de forma gráfica y sin ningún tipo de restricción. Esto genera serias dudas sobre los límites del entrenamiento de Grok y la responsabilidad legal y ética de XAI.
La línea entre IA generativa y contenido sexual se vuelve más borrosa
Este nuevo escándalo llega en un contexto en el que XAI ya ha demostrado su disposición a explorar los límites de la interacción con inteligencia artificial. Recientemente, Elon Musk presentó los Companions, una función integrada en la plataforma X que permite a los usuarios conversar con avatares virtuales, muchos de ellos diseñados específicamente con fines de entretenimiento adulto. Algunos incluso cuentan con apariencia explícitamente sexualizada y mantienen diálogos que rozan lo erótico o directamente lo exploran sin censura.
Aunque los Companions se ofrecen como experiencias controladas y voluntarias, el caso de Milica demuestra que la IA de Grok puede cruzar ese mismo límite con personas reales y sin consentimiento. Eso ya no es entretenimiento: es acoso automatizado. La combinación entre una IA con “personalidad atrevida” y un ecosistema digital que normaliza el contenido sexualizado está creando un ambiente tóxico donde las figuras públicas quedan vulnerables a la explotación no deseada por parte de sistemas que supuestamente fueron creados para informar o entretener.
Elon Musk, que hasta ahora ha evitado pronunciarse sobre lo sucedido, sigue apostando por una inteligencia artificial sin filtros. Pero la realidad muestra que esa “libertad” puede convertirse en un arma de doble filo, especialmente cuando se utilizan nombres reales y se producen mensajes sexuales sin ningún tipo de control. Lo que empieza como una broma irreverente, termina por exponer a personas reales a situaciones humillantes.
Sigue leyendo:
• Grok enloquece tras recibir una actualización y comienza a publicar respuestas antisemitas
• Grok lanza una controvertida función de generación de imágenes
• Elon Musk presenta Grok 3, IA “mejor que ChatGPT y Gemini”