window._taboola = window._taboola || []; var taboola_id = 'mycodeimpremedia-laopinion'; _taboola.push({article:'auto'}); !function (e, f, u, i) { if (!document.getElementById(i)){ e.async = 1; e.src = u; e.id = i; f.parentNode.insertBefore(e, f); } }(document.createElement('script'), document.getElementsByTagName('script')[0], '//cdn.taboola.com/libtrc/'+ taboola_id +'/loader.js', 'tb_loader_script'); if(window.performance && typeof window.performance.mark == 'function') {window.performance.mark('tbl_ic');}

Aunque son muy consultados, chatbots de IA más populares suelen dar consejos de salud deficientes

Una investigación identificó altas tasas de errores de los chatbots de IA en la presentación de información médica

Aunque son muy consultados, chatbots de IA más populares suelen dar consejos de salud deficientes

Sistema de chatbot de IA para responder automáticamente mensajes en línea. Crédito: Deemerwha studio | Shutterstock

Un nuevo estudio revela que cerca del 50% de las respuestas proporcionadas por chatbots de IA en temas de salud son potencialmente problemáticas. La investigación, en la revista BMJ Open, examinó cinco modelos populares y evaluó su capacidad para responder a 250 preguntas sobre temas de salud propensos a la desinformación.

Los investigadores utilizaron un marco de auditoría que incluyó la evaluación de respuestas por expertos en cada categoría de consulta. La precisión de las respuestas fue calificada como no problemática, algo problemática o altamente problemática, donde más de un tercio de las respuestas resultaron ser deficientes a nivel médico.

La investigación encontró que el rendimiento de los modelos no varió significativamente. Sin embargo, se identificaron altas tasas de errores en la representación de información médica, siendo el modelo Grok el que generó más respuestas altamente problemáticas. También se observó que la calidad de las citas era generalmente baja, afectando la credibilidad de la información proporcionada.

Impacto de las preguntas abiertas vs. cerradas

Los análisis revelaron que las preguntas abiertas generaron una mayor proporción de respuestas problemáticas en comparación con las cerradas. Esto implica la importancia de estructurar adecuadamente las consultas al interactuar con chatbots para obtener información más precisa.

Los hallazgos subrayan la necesidad de educar al público sobre el uso de chatbots de IA como fuentes de información médica.

Se enfatiza la urgencia de consultar siempre a profesionales de la salud antes de seguir cualquier consejo obtenido a través de estas herramientas. La falta de supervisión y la baja calidad de la información podrían comprometer la salud pública si no se abordan adecuadamente.

Gusto por los chatbots y preferencias

Entre las bondades que resaltan los usuarios de los chatbots están la velocidad de respuesta y menor costo que los especialistas. Sin embargo, estas mismas cualidades preocupan a los médicos, quienes temen que la tecnología pueda provocar la denegación de coberturas de seguros sin la intervención humana, recoge KFF Health News tras una consulta.

Por otra parte, encuestas recientes resaltan que muchos estadounidenses recurren a la IA para obtener consejos sobre salud.

“Simplemente le informo a ChatGPT sobre mi estado y cómo me siento”, dijo a Associated Press (AP) una mujer de 42 años residente de Mesquite, Texas. “Lo uso para cualquier cosa que esté experimentando”.

Según una encuesta del Centro West Health–Gallup sobre la atención médica en Estados Unidos publicada el miércoles, recurrir a herramientas de inteligencia artificial para obtener consejos de salud se ha convertido en un hábito para los estadounidenses. La encuesta, realizada a finales de 2025 y respaldada por al menos otras tres encuestas recientes con resultados similares, reveló que aproximadamente una cuarta parte de los adultos estadounidenses había utilizado una herramienta de IA para obtener información o consejos de salud en los últimos 30 días.

De acuerdo a la encuesta, aproximadamente 7 de cada 10 adultos estadounidenses que han utilizado IA para investigar sobre salud buscan respuestas rápidas, información adicional o simplemente tenían curiosidad. La mayoría la utilizó para investigar antes de consultar a un médico o después de una cita.

Señales de que una información puede ser no confiable

Existen varias señales claras que indican cuándo la información de un chatbot de IA podría ser poco confiable. Reconocerlas ayuda a los usuarios a verificar datos por su cuenta.

Sobreconfianza excesiva. Los chatbots suelen afirmar respuestas con gran seguridad, incluso ante errores evidentes, sin dar pistas de duda como lo harían los humanos. Esto genera una falsa percepción de precisión, especialmente en temas complejos.

Alucinaciones e invenciones. Frecuentemente inventan hechos, citas o referencias bibliográficas que parecen reales, pero no existen, como títulos de estudios falsos. En contextos médicos o noticiosos, esto distorsiona información crítica.

Falta de fuentes transparentes. No siempre citan orígenes verificables o fallan en obtener fuentes fiables, con problemas en hasta el 72% de casos en algunos modelos. La opacidad hace imposible rastrear la veracidad.

Confusión entre hechos y opiniones. Dificultan distinguir hechos de opiniones, alterando noticias en un 45% de respuestas analizadas. También replican sesgos o evitan posicionamientos claros pese a evidencia.

Errores en temas sensibles. En salud, hasta el 50% de respuestas son inexactas o incompletas, con riesgos graves en preguntas abiertas. Para verificar, pide fuentes específicas o contrasta con sitios confiables.

También te puede interesar:

· Los peligros del looksmaxxing: popular influencer sufre una presunta “sobredosis” durante transmisión en vivo
· El peligro de la promoción del uso de esteroides y transformaciones corporales extremas en redes sociales
· Vigorexia o la obsesión por desarrollar músculo

En esta nota

atención médica Inteligencia artificial
Contenido Patrocinado