IA ‘perezosa’: los investigadores de la Universidad de Washington descubren que la tecnología puede diagnosticar mal el COVID-19 al tomar atajos

IA 'perezosa': los investigadores de la Universidad de Washington descubren que la tecnología puede diagnosticar mal el COVID-19 al tomar atajos 2
De izquierda a derecha: los investigadores de la Universidad de Washington Alex DeGrave, Su-In Lee y Joseph Janizek. (Foto de la Universidad de Washington)

El uso futuro de la inteligencia artificial en contextos médicos podría ser beneficioso para mejorar la eficiencia, pero un nuevo estudio de investigación de la Universidad de Washington publicado en Nature Machine Intelligence encontró que la IA se basó en atajos en lugar de patología médica real para diagnosticar COVID-19.

Investigadores de la Escuela de Ingeniería y Ciencias de la Computación Paul G. Allen de la Universidad de Washington examinaron las radiografías de tórax utilizadas para detectar COVID-19. Descubrieron que la IA se basaba más en conjuntos de datos específicos que en factores médicos importantes para predecir si un paciente había contraído el virus.

Sin embargo, es poco probable que las máquinas objeto de esta investigación se hayan utilizado ampliamente en un entorno médico, según un informe de la Escuela Allen sobre el estudio. Uno de los modelos, COVID-Net, se implementó en varios hospitales, pero Alex DeGrave, uno de los autores principales del estudio, dijo en el informe que no está claro si las máquinas se utilizaron con fines médicos o de investigación.

Estos atajos son lo que los investigadores DeGrave, Joseph Janizek y Su-In Lee llamaron IA «vaga».

“La IA encuentra atajos porque está capacitada para buscar cualquier diferencia entre las radiografías de pacientes sanos y aquellos con COVID-19”, dijo el equipo de investigación a GeekWire en un correo electrónico. «El proceso de entrenamiento no le dice a la IA que necesita buscar los mismos patrones que usan los médicos, por lo que la IA usa todos los patrones que puede para simplemente aumentar la precisión de la discriminación entre COVID-19 y saludable».

Cuando un médico usa una radiografía de tórax para determinar un diagnóstico de COVID-19, ya tiene información sobre el paciente, como exposición e historial médico, y espera nueva información de la radiografía.

«Si un médico asume que una IA está leyendo una radiografía y proporcionando nueva información, pero la IA en realidad se basa en la misma información que tenía el médico, esto puede ser un problema», dijo el equipo de investigación.

Cuando se puede confiar en la IA para tomar decisiones por las razones correctas, podría beneficiar a la comunidad médica al mejorar la eficiencia y los resultados de los pacientes, dijo el equipo. De manera similar, podría reducir la carga de trabajo de los médicos y brindar apoyo diagnóstico en áreas de bajos recursos.

«Sin embargo, cada nuevo dispositivo de inteligencia artificial debe probarse a fondo para garantizar que realmente ofrezca beneficios», dijo el equipo. «Para ayudar a lograr sistemas de IA útiles y beneficiosos, los investigadores deben probar la IA de manera más rigurosa y refinar las tecnologías de IA explicables que pueden ayudar en las pruebas».

El estudio encontró que mejores datos (datos que contienen menos patrones problemáticos que la IA podría aprender) impedían que la IA usara muchos atajos. De manera similar, es posible penalizar a una IA por usar atajos para que pueda enfocarse en datos relevantes.

El equipo recomendó que la IA se pruebe con nuevos datos de hospitales que nunca ha visto y que utilice técnicas del campo de la “IA explicable” para determinar qué factores influyen en la decisión de la IA.

«Para los proveedores médicos, recomendamos que revisen los estudios realizados en un dispositivo de IA antes de confiar plenamente en él, y que se mantengan escépticos con respecto a estos dispositivos hasta que se demuestren beneficios médicos claros en ensayos clínicos bien diseñados», dijo el equipo.

COMPARTIR:

Deja un comentario