window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Elon Musk quiere que subas tus datos médicos a X para entrenar a Grok

Elon Musk quiere que su IA sea capaz de aprender a leer resultados médicos a partir de la información médica de los usuarios de X

El objetivo de Elon Musk es que su IA sea capaz de "leer" los resultados médicos para poder explicarselos a los usuarios

El objetivo de Elon Musk es que su IA sea capaz de "leer" los resultados médicos para poder explicarselos a los usuarios Crédito: Shutterstock

Elon Musk está empujando una idea que suena futurista (y un poco inquietante), pedirle a usuarios de X que suban resultados médicos para que Grok aprenda a “leer” imágenes y pruebas clínicas como resonancias magnéticas (MRI) o tomografías computarizadas (CT), y así mejorar sus diagnósticos. La promesa es tentadora —una IA que te explique tus estudios en segundos—, pero el costo potencial en privacidad y seguridad de datos podría ser enorme.

Musk quiere que Grok “aprenda medicina” con datos de X

Musk ha animado a la gente a subir a Grok imágenes como radiografías, resonancias o scans, con la idea de que el modelo no solo las interprete, sino que además use ese material para entrenarse y volverse más preciso. Musk asegura que puedes subir “X-rays o MRI” y que Grok te devolverá un diagnóstico, e incluso dice que ha visto casos donde Grok fue mejor que los doctores.

El punto clave es que esto no es solo una función de “analiza mi imagen”, sino un enfoque deliberado de recolección: Musk ya había dicho que las imágenes médicas subidas se usarían para entrenar a Grok, y pidió feedback del público para saber dónde acierta y dónde falla. También afirmó que él mismo subió un MRI reciente a Grok (y que ni médicos ni el bot encontraron nada), aunque no explicó por qué se lo hizo.

Aquí hay un detalle que suele perderse en el hype: entrenar modelos con datos médicos es un objetivo muy específico y extremadamente valioso, porque interpretar imágenes clínicas requiere patrones, contexto y muchos ejemplos. Y en esa búsqueda de “muchos ejemplos”, pedirlos en una red social es el camino más corto… pero no necesariamente el más responsable.

La promesa: IA que interpreta resonancias y tomografías

El argumento “pro-IA” es fácil de entender: muchísima gente sale de una consulta con un PDF lleno de términos raros, o con un CD/archivo de imágenes que no sabe leer. Una herramienta tipo Grok podría convertirse en un traductor inmediato entre el lenguaje médico y el usuario común, y eso, bien hecho, puede mejorar la alfabetización en salud.

El desempeño de Grok en salud ha sido mixto: hubo usuarios que afirmaron que analizó resultados de sangre e identificó cáncer de mama, pero también hay ejemplos de metidas de pata graves. Entre los casos señalados, se encuentra uno en el que Grok confundió un “caso de libro” de tuberculosis con una hernia discal o estenosis espinal, y otro en el que interpretó una mamografía de un quiste benigno como si fuera una imagen de testículos. Si una IA se equivoca recomendando un teléfono, no pasa nada; si se equivoca leyendo una tomografía, el impacto puede ser real.

Un estudio de mayo de 2025 evaluó la presencia de patologías en 35,711 “slices” de MRI cerebral, Grok habría sido el más efectivo frente a Gemini de Google y ChatGPT-4o. Y la radióloga Laura Heacock (NYU Langone) reconoce que existe capacidad técnica, aunque advierte que por ahora métodos no generativos siguen rindiendo mejor en imagen médica.

El gran problema: privacidad, sesgos y riesgos reales

La parte crítica no es solo si Grok “acierta” o “falla”, sino cómo se están consiguiendo los datos y qué pasa con ellos después. Ryan Tarzy, CEO de Avandra Imaging sugiere que pedir a usuarios que suban información directamente —en vez de usar bases seguras con datos desidentificados— es una forma de acelerar el desarrollo, pero también implica que los datos vendrán de una muestra limitada: solo quienes quieran compartirlos. Eso abre la puerta a un entrenamiento con sesgo, porque el modelo podría aprender de una población que no representa la diversidad médica real.

Y luego está el tema que debería encender todas las alarmas: cuando alguien sube información médica a redes sociales, ese contenido no queda necesariamente protegido por HIPAA (la ley federal de EE. UU. enfocada en privacidad de datos de salud) de la misma manera que en un sistema clínico tradicional. En palabras simples: hay menos control sobre hacia dónde viaja esa información una vez que se comparte.

Tarzy además advierte algo muy concreto: en muchas imágenes (incluyendo CT) la información personal puede venir “quemada” dentro del propio archivo, lo que aumentaría el riesgo de revelar identidades por accidente. 

Sigue leyendo:
Indonesia bloquea Grok por imágenes pornográficas falsas
Elon Musk restringe Grok para evitar que genere imágenes de usuarios sin ropa
Elon Musk creará una versión de Grok para el Pentágono a cambio de $200 millones de dólares

En esta nota

Elon Musk Inteligencia artificial
Contenido Patrocinado