Los peligros del uso de la Inteligencia Artificial en la medicina

Un reciente estudio descubrió que los algoritmos de la inteligencia artificial pueden reproducir ciertos sesgos al no contener muestras representativas de la población, como negros, asiáticos e indígenas estadounidenses y solo basarse en personas de raza blanca

Un estudio frece una primera visión del papel que podrían desempeñar los asistentes de IA en medicina. / Foto: AFP/Getty Image

Un estudio ofrece una primera visión del papel que podrían desempeñar los asistentes de IA en medicina. / Foto: AFP/Getty Image Crédito: KHALED DESOUKI | AFP / Getty Images

En los últimos meses se ha especulado sobre la posibilidad de usar la inteligencia artificial en el campo de la medicina como una opción para eficientes y hasta cierto punto mejorar la atención de los clientes; sin embargo, un reciente análisis revela que aún hay ciertos desafíos que debe superar esa tecnología.

Investigadores de la Facultad de Medicina de la Universidad de Maryland (UMSOM) analizaron conjuntos de datos de origen colectivo utilizados para crear algoritmos de inteligencia artificial a partir de imágenes médicas y descubrieron que la mayoría no incluía datos demográficos de los pacientes, lo que podría conllevar a la presencia de ciertos sesgos en la interpretación de los datos por la IA.

En el estudio publicado en Nature Medicine, los investigadores también descubrieron que los algoritmos tampoco evaluaban los sesgos inherentes. Esto significa que no tienen forma de saber si estas imágenes contienen muestras representativas de la población, como negros, asiáticos e indígenas estadounidenses.

Según los investigadores, gran parte de la medicina estadounidense ya está cargada de parcialidad hacia determinadas razas, géneros, edades u orientaciones sexuales. Pequeños sesgos en conjuntos individuales de datos podrían amplificarse enormemente cuando cientos o miles de estos conjuntos de datos se combinan en estos algoritmos.

“Estos modelos de aprendizaje profundo pueden diagnosticar cosas que los médicos no pueden ver, como cuándo una persona podría morir o detectar la enfermedad de Alzheimer siete años antes que nuestras pruebas conocidas, tareas sobrehumanas”, dijo el investigador principal Paul Yi, MD, Profesor Asistente de Radiología Diagnóstica y Medicina Nuclear en UMSOM. “Dado que estas técnicas de aprendizaje automático de IA son tan buenas para encontrar agujas en un pajar, también pueden definir el sexo, el género y la edad, lo que significa que estos modelos pueden utilizar esas características para tomar decisiones sesgadas”, agregó.

La IA puede reproducir sesgos

La investigación destaca que gran parte de los datos recogidos en los grandes estudios suelen proceder de personas con recursos que tienen un acceso relativamente fácil a la atención sanitaria. En Estados Unidos, esto significa que los datos tienden a estar sesgados hacia los hombres frente a las mujeres, y hacia las personas de raza blanca en lugar de otras razas. Dado que en EE. UU. se suelen realizar más pruebas de imagen que en el resto del mundo, estos datos se compilan en algoritmos que pueden sesgar los resultados en todo el mundo.

Para el estudio actual, los investigadores decidieron evaluar los conjuntos de datos utilizados en competiciones de ciencia de datos en las que informáticos y médicos recopilan datos de todo el mundo e intentan desarrollar el algoritmo mejor y más preciso. Estas competiciones suelen contar con tablas de clasificación que clasifican cada algoritmo y ofrecen un premio en metálico, lo que motiva a la gente a crear el mejor.

En concreto, los investigadores estudiaron algoritmos de imágenes médicas, como los que evalúan las tomografías computarizadas para diagnosticar tumores cerebrales o coágulos de sangre en los pulmones. De los 23 concursos de datos analizados, el 61% no incluía datos demográficos como la edad, el sexo o la raza. Ninguno de los concursos tenía evaluaciones de sesgos contra grupos infrarrepresentados o desfavorecidos.

“Esperamos que al concienciar sobre este problema en estos concursos de datos -y si se aplica de forma adecuada- exista un enorme potencial para resolver estos sesgos“, afirmó el autor principal Sean Garin, Coordinador de Programas del Centro UM2ii.

Los autores del estudio también animan a que en futuras competiciones se exija no sólo una gran precisión, sino también equidad entre distintos grupos de personas.

Seguir leyendo:

• Inteligencia artificial ofrece mejores y más empáticos consejos que los médicos humanos

• Utilizan voz recreada por inteligencia artificial para fingir el secuestro de una niña y pedir rescate

• Conoce cuál es la respuesta de asistente de voz de Google si detecta que estás triste o deprimido

En esta nota

Inteligencia artificial medicina
Contenido Patrocinado
Enlaces patrocinados por Outbrain