Compartir

Por Henk van Houten

 

Los titulares con frases como “La IA vence a los médicos” o “La IA supera a los radiólogos” están capturando la imaginación del público, presumiendo las impresionantes habilidades de los algoritmos de la Inteligencia Artificial (IA) en tareas que potencialmente salvan vidas, como detectar cáncer de mama o predecir enfermedades cardíacas.

Si bien estos titulares revelan el progreso emocionante que se ha hecho en la IA, de cierta forma también son engañosos – porque sugieren una falsa dicotomía. Es cierto que un algoritmo de IA debe funcionar a la par o incluso mejor que un experto humano en una tarea específica para ser de valor en la asistencia médica. Pero en realidad no se trata de que una “derrote” a la otra.

Muchas de las decisiones que los médicos toman a diario son increíblemente complejas y, requieren algo más que un enfoque basado en la IA o los datos por sí solos. Tanto los médicos como la IA tienen sus fortalezas y limitaciones únicas. Es su inteligencia conjunta lo que cuenta si queremos hacer una diferencia significativa en la atención al paciente.

 

La promesa de la IA: un par de ojos extra y sobrehumanos

Lo que a veces se pasa por alto en el discurso popular es que la IA, como se define aquí, ya ha estado con nosotros por décadas. Irónicamente, los primeros sistemas de IA se basaban en el conocimiento experto, que estaba codificado en el software informático. En los últimos años, sin embargo, un enfoque basado en datos para la IA ha tenido prioridad, gracias a la explosión de datos digitales que ha impulsado la aparición del aprendizaje profundo. Los algoritmos de aprendizaje profundo aprenden de grandes cantidades de datos anotados, a menudo con una precisión superior, pero sin ser explícitamente preprogramados [1].

La principal fortaleza del aprendizaje profundo es que puede detectar, cuantificar y clasificar incluso los patrones más sutiles en los datos, ofreciendo un par extra de ojos “sobrehumanos”. Esto hace que los algoritmos de aprendizaje profundo sean ideales para apoyar disciplinas médicas centradas en patrones, como la radiología y la patología, que se enfrentan a cargas de trabajo en constante crecimiento junto con una grave y creciente escasez de personal en muchas partes del mundo [2].

Los algoritmos de aprendizaje profundo pueden aliviar a los profesionales con presión temporal de tareas repetitivas y laboriosas, como segmentar lesiones en los pulmones en tomografías computarizadas [3], rastrear cómo se desarrollan los tumores cerebrales con el tiempo en las exploraciones por IRM para ayudar a monitorear la progresión de la enfermedad [4], o calificar la gravedad del cáncer de próstata basado en muestras de tejido [5].

Al automatizar las tareas de nivel inferior, la IA puede liberar tiempo para que los médicos se centren en tareas de alto nivel y valor agregado, y en la interacción con el paciente.

Sabemos que incluso los médicos más experimentados pueden pasar por alto algunas cosas. Todavía se producen diagnósticos omitidos o erróneos. De hecho, un estudio realizado por la Academia Nacional de Ciencias en 2015 mostró que la mayoría de las personas experimentarán al menos un error de diagnóstico en su vida [6].

Los algoritmos de IA tampoco serán infalibles; también pueden equivocarse. Incluso si es solo en 1 de cada 100 casos. Claramente, ese es un riesgo que debemos mitigar cuando se usa un algoritmo para evaluar si es probable que un paciente tenga un tumor maligno o no.

Es por eso que la supervisión humana es esencial, incluso cuando un algoritmo es muy preciso. La aplicación de dos pares de ojos a la misma imagen (un par humano, un par de IA) puede crear una red de seguridad, y el médico y la IA compensan lo que el otro puede pasar por alto.

Un estudio reciente publicado en Nature muestra cómo una asociación entre humanos e IA podría funcionar en la detección del cáncer de mama [7]. El cáncer de mama es la segunda causa principal de muerte por cáncer en las mujeres. Afortunadamente, la detección y el tratamiento tempranos pueden mejorar considerablemente los resultados. Sin embargo, la interpretación de las mamografías sigue siendo un desafío, ya que los expertos humanos logran distintos niveles de precisión.

Por lo tanto, la lectura de la misma mamografía por dos radiólogos ha sido una práctica establecida en el Reino Unido y muchos países europeos durante mucho tiempo, lo que resulta en un rendimiento superior en comparación con el paradigma de un solo lector. Sin embargo, este paradigma de doble lectura también se ha cuestionado, argumentando que ocupa una cantidad prohibitiva de recursos, de por sí escasos.

¿Qué pasaría si, en lugar de depender de dos expertos humanos, sustituimos uno con IA, mientras seguimos manteniendo al otro experto al tanto de la supervisión humana?

Según los hallazgos publicados en Nature, esto no conduciría a un rendimiento inferior en comparación con el paradigma tradicional de doble lectura con dos lectores humanos. Eso significa que la carga de trabajo del radiólogo podría reducirse considerablemente con el apoyo de la IA, al tiempo que se conserva el juicio de los expertos como parte del proceso para detectar cánceres que el algoritmo puede haber omitido.

Es un ejemplo convincente del poder de la asociación entre humanos e inteligencia artificial. La IA puede actuar como primer lector, segundo lector o como una herramienta de clasificación que ayuda a priorizar las listas de trabajo en función de la sospecha de los hallazgos [8].

Sin embargo, para comprender realmente por qué no podemos confiar únicamente en los algoritmos cuando se trata de la toma de decisiones clínicas, debemos investigar aún más y examinar dónde pueden fallar.

 

El aprendizaje profundo no es una comprensión profunda

Los algoritmos de aprendizaje profundo pueden descubrir incluso los patrones más sutiles en los datos, sin obstáculos por las limitaciones humanas en la agudeza perceptiva o las limitaciones del conocimiento previo. Eso es lo que los hace tan valiosos, permitiéndonos ver más de lo que podríamos ver con nuestros propios ojos.

Pero hay una otra cara de esa moneda. Por muy precisos que puedan ser los algoritmos de aprendizaje profundo para realizar una tarea claramente definida, como detectar tumores de mama de cierto tamaño o forma, no desarrollan una verdadera comprensión del mundo. No tienen la capacidad de razonar o abstraer más allá de los datos en los que fueron entrenados.

Un ejemplo de advertencia de la literatura sobre IA es un estudio sobre el reconocimiento visual de las señales de tráfico. Se entrenó un algoritmo para reconocer las señales de ALTO en un entorno de laboratorio, y lo hizo admirablemente bien, hasta que encontró señales de ALTO que estaban parcialmente cubiertas con grafitis o pegatinas. De repente, se podría engañar al algoritmo, que de otro modo sería preciso, para clasificar erróneamente la imagen, confundiéndola con un letrero de límite de velocidad 45 en el 67% de los casos cuando estaba cubierto de graffiti, e incluso en el 100% de los casos cuando estaba cubierto con pegatinas [9].

Nosotros nunca confundiríamos una señal de ALTO con una señal de límite de velocidad; porque tenemos una sólida comprensión conceptual de ambos, basada en características definitorias como su forma y color. Pero el algoritmo “vio” solo patrones de píxeles, lo que lo hizo fallar ante las desviaciones de los datos con los que fue entrenado.

Estos intentos deliberados de engañar a un algoritmo pueden no ser motivo de preocupación para las aplicaciones médicas siempre que los datos estén debidamente protegidos. Sin embargo, lo que este ejemplo destaca es cómo una dependencia pura en el reconocimiento de patrones puede llevar a los algoritmos por mal camino cuando encuentran datos desconocidos.

¿Un algoritmo que funciona bien en un hospital será tan preciso en otro hospital? Esta pregunta requiere el juicio y la validación de expertos; demostrando por qué la IA y el conocimiento clínico profundo deben ir de la mano, incluso antes de que un algoritmo se ponga en uso en la práctica clínica.

Con la supervisión humana adecuada y una comprensión adecuada de las fortalezas y limitaciones de un algoritmo, se puede usar de una manera eficaz, segura y justa.

 

La medicina es más que un reconocimiento de patrones

Hemos visto cómo el reconocimiento de patrones se presta bien a la optimización algorítmica, siempre que se establezcan las medidas de seguridad adecuadas. Los médicos, sin embargo, tienen una tarea mucho más amplia que va más allá del mero reconocimiento de patrones.

Tome una tomografía computarizada de los pulmones como ejemplo. Los algoritmos pueden ayudar a detectar y segmentar áreas de los pulmones que muestran una mayor densidad, como las denominadas opacidades vitrales de base o consolidaciones. Sin embargo, estas anomalías pueden indicar una amplia gama de afecciones médicas. Podrían ser el resultado de una infección viral (posiblemente, pero no necesariamente, COVID-19), una enfermedad no infecciosa o una contusión pulmonar, por nombrar solo algunas posibilidades. Para averiguar qué aflige al paciente, el radiólogo o el médico remitente evaluará también otros tipos de datos (que no son de imágenes) y los conectará con el historial del paciente, los síntomas actuales y las posibles comorbilidades.

Es este tipo de interpretación holística donde realmente entra en juego la comprensión contextual del médico. Decidir sobre el diagnóstico y el tratamiento requiere una sensibilidad hacia el paciente como un ser humano único; la capacidad de mirar más allá de los patrones de píxeles y ver a la persona completa en contexto. Es un proceso que es muy difícil de emular algorítmicamente.

El aprendizaje profundo se basa en grandes conjuntos de datos estructurados. Pero cuando se trata de un diagnóstico médico complejo que implica muchos factores diferentes, el número de pacientes para los que se dispone del conjunto completo de datos suele ser demasiado limitado para construir un algoritmo predictivo suficientemente fiable [10].

Por supuesto, a medida que la tecnología evolucione y logremos abordar con éxito algunos de los desafíos de datos en la atención médica, la capacidad de la IA para realizar predicciones significativas a partir de datos complejos y multimodales seguirá creciendo.

En nuestra emoción por las posibilidades del aprendizaje profundo, ¿nos hemos centrado demasiado unilateralmente en el big data como combustible de toda la innovación de la IA? ¿Qué pasa con la obra abundante de conocimientos clínicos y científicos que ya hemos adquirido a lo largo de los siglos? ¿Podemos encontrar formas nuevas y creativas de reunir lo mejor de ambos mundos? Estas son preguntas que exploraré con más detalle en un futuro artículo.

La medicina es compleja. La inteligencia es multifacética. Solo reconociendo esta complejidad podremos avanzar en la atención médica de una manera significativa, combinando lo mejor de lo que los expertos humanos y la inteligencia artificial tienen para ofrecer y, en última instancia, permitiéndoles brindar una mejor atención al paciente juntos.

Henk van Houten, es vicepresidente ejecutivo, director de tecnología de Royal Philips. Galardonado con el premio Royal Dutch Shell.

Puede consultar el artículo original en: https://www.philips.com/a-w/about/news/archive/blogs/innovation-matters/2020/20201006-why-ai-and-deep-clinical-knowledge-need-to-go-hand-in-hand-in-healthcare.html?src=search

 

Referencias

[1] Marcus, G., Davis, E. (2019). Reiniciar la IA: crear inteligencia artificial en la que podamos confiar.

[2] Topol, E. (2019). Medicina profunda: cómo la inteligencia artificial puede hacer que la atención médica vuelva a ser humana.

[3] Aresta, G., Jacobs, C., Araújo, T. et al. (2019). iW-Net: una red profunda de segmentación de nódulos pulmonares interactiva automática y minimalista. Sci Rep 9, 11591.

[4] https://www.fiercebiotech.com/medtech/philips-gets-fda-nod-for-radiology-informatics-platform

[5] Nagpal, K., Foote, D., Liu, Y. (2019). Desarrollo y validación de un algoritmo de aprendizaje profundo para mejorar la puntuación de Gleason del cáncer de próstata. npj Digit Med 2:48

[6] Las Academias Nacionales de Medicina de Ingeniería Científica (2015). Mejora del diagnóstico en la asistencia sanitaria. 

[7] McKinney, SM, Sieniek, M., Godbole, V. et al. (2020) Evaluación internacional de un sistema de inteligencia artificial para la detección del cáncer de mama. Nature 577, 89–94 

[8] Obuchowski, NA, Bullen, JA (2019). Consideraciones estadísticas para probar un algoritmo de IA utilizado para la preselección de imágenes de TC de pulmón. Comunicaciones de ensayos clínicos contemporáneos 16: 100434 

[9] Eykholt, K., Evtimov, I., Fernandes, E. y col. (2018) Robustos ataques del mundo físico a modelos de aprendizaje profundo. preimpresión de arXiv arXiv: 1707.08945 

[10] Van Hartskamp, ​​M., Consoli, S., Verhaegh, W., Petkovic, M., Van de Stolpe, A. (2019). Inteligencia artificial en aplicaciones clínicas de salud: punto de vista. Interact J Med Res, 8 (2): e12100.

Compartir