Inteligencia artificial ofrece mejores y más empáticos consejos que los médicos humanos

El panel de evaluadores profesionales sanitarios prefirió las respuestas de ChatGPT a las de los médicos humanos en un 79% de las ocasiones

Un estudio frece una primera visión del papel que podrían desempeñar los asistentes de IA en medicina. / Foto: AFP/Getty Image

Un estudio ofrece una primera visión del papel que podrían desempeñar los asistentes de IA en medicina. / Foto: AFP/Getty Image Crédito: KHALED DESOUKI | AFP / Getty Images

Aunque se espera que la tecnología sea fría en su en su interacción con los humanos, una reciente investigación encontró que el asistente de inteligencia artificial ChatGPT puede ser más empático que los médicos humanos al dar consejos de salud.

Un nuevo estudio publicado en JAMA Internal Medicine y dirigido por el Dr. John W. Ayers, del Instituto Qualcomm de la Universidad de California en San Diego, ofrece una primera visión del papel que podrían desempeñar los asistentes de IA en medicina.

El estudio comparó las respuestas escritas de los médicos y las de ChatGPT a preguntas sobre salud del mundo real. Un grupo de profesionales sanitarios licenciados prefirió las respuestas de ChatGPT el 79% de las veces y calificó las respuestas de ChatGPT como de mayor calidad y más empáticas.

“Las oportunidades de mejorar la asistencia sanitaria con IA son enormes”, afirma Ayers, que también es vicedirector de innovación en la División de Enfermedades Infecciosas y Salud Pública Global de la Facultad de Medicina de la UC San Diego. “La atención aumentada por IA es el futuro de la medicina”.

En el nuevo estudio, el equipo de investigación se propuso responder a la pregunta: ¿Puede ChatGPT responder con precisión a las preguntas que los pacientes envían a sus médicos? En caso afirmativo, los modelos de IA podrían integrarse en los sistemas sanitarios para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y aliviar la carga cada vez mayor que soportan los facultativos.

Para obtener una muestra amplia y diversa de preguntas sanitarias y respuestas de médicos que no contuvieran información personal identificable, el equipo recurrió a las redes sociales, donde millones de pacientes publican preguntas médicas a las que responden los médicos: AskDocs de Reddit.

AskDocs es un subreddit con aproximadamente 452,000 miembros que publican preguntas médicas y profesionales sanitarios verificados envían respuestas. Aunque cualquiera puede responder a una pregunta, los moderadores verifican las credenciales de los profesionales sanitarios y las respuestas muestran el nivel de credenciales del encuestado. El resultado es un conjunto amplio y diverso de preguntas médicas de pacientes y las correspondientes respuestas de profesionales médicos autorizados.

El equipo seleccionó al azar 195 intercambios de AskDocs en los que un médico verificado respondía a una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que redactara una respuesta. Un grupo de tres profesionales sanitarios licenciados evaluó cada pregunta y las respuestas correspondientes, sin saber si la respuesta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.

Las respuestas de ChatGPT fueron mejores

El panel de evaluadores profesionales sanitarios prefirió las respuestas de ChatGPT a las de los médicos en un 79% de las ocasiones.

“Los mensajes de ChatGPT respondían con información matizada y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas de los médicos”, afirmó Jessica Kelley, enfermera practicante de la empresa Human Longevity de San Diego y coautora del estudio.

Además, la calidad de las respuestas de ChatGPT fue significativamente superior a la de las respuestas de los médicos: las respuestas de calidad buena o muy buena fueron 3.6 veces superiores para ChatGPT que para los médicos (médicos 22.1% frente a ChatGPT 78.5%). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9.8 veces superiores para ChatGPT que para los médicos (médicos 4.6% frente a ChatGPT 45.1%).

“Nunca imaginé decir esto”, añadió el Dr. Aaron Goodman, profesor clínico asociado de la Facultad de Medicina de la UC San Diego y coautor del estudio, “pero ChatGPT es una receta que me gustaría dar a mi bandeja de entrada. La herramienta transformará mi forma de atender a mis pacientes”.

Seguir leyendo:

• VIDEO: supermodelo se convierte en la primera humana digital del mundo

• Notion ahora habla español: Descubre la app inteligente que te ayuda a ser más productivo

• Ahora la inteligencia artificial es usada para generar spam que ya inunda el internet

En esta nota

Inteligencia artificial medicina
Contenido Patrocinado
Enlaces patrocinados por Outbrain