Todo lo que siempre quiso saber y nunca se atrevió a preguntar sobre… la Inteligencia Artificial en la práctica clínica (I)

Buenos días Carbonian@s,

Esta semana me habéis pillado enfermo. Tranquilos, sólo se trata de un pequeño resfriado. Nada grave. Ya pasé por el médico y, aunque no me han hecho PCR, si que he pasado el test de antígenos. ¡Y sin estudiar! ¿Quién lo iba a decir?

En estos días aciagos, es sorprendente cómo la mayoría de los test se siguen basando en marcadores químicos y biológicos, más o menos fiables.

Como tal vez sepáis, el Dr. Oliver Díaz, que colabora con este blog, y yo, nos dedicamos principalmente a la inteligencia artificial (IA) aplicada a la imagen médica. Así que quería aprovechar este post para hablar sobre la IA en la medicina, pero no desde el punto de vista de la investigación o del ingeniero desarrollador, sino más bien, desde el punto de vista del médico, radiólogo o patólogo y la aplicación de nuestros algoritmos en la práctica clínica.

Se ha escrito mucho, y desde diferentes ámbitos, sobre la aplicación de la inteligencia artificial al campo de la medicina. Hemos visto redes neuronales capaces de detectar enfermedades, por ejemplo en imágenes como radiografía, tomografía, resonancia magnética o ultrasonidos. También están aquellas que pretenden calcular el pronóstico (u outcome) de una enfermedad a partir de datos previos. Incluso alguna utilizada para desarrollar nuevos medicamentos, como exponía en una anterior entrada de este blog. 

Ahora bien, ¿por qué cuando vamos al médico, la inteligencia artificial no está tan desarrollada o se encuentra infrautilizada? ¿Acaso todos los estudios y publicaciones realizados en el ámbito de la IA, con aplicación en medicina, se han quedado en buenas intenciones? Realmente no.

Uno de los principales motivos de que la IA no esté extendida en la práctica clínica, por ejemplo, puede ser económico. Hace poco, los compañeros de mi anterior grupo de trabajo, dedicado a la investigación clínica, me informaron de que “mi puesto”, como analista de imagen y desarrollador de IA, había sido “ocupado” por un software de 40k €. No sé si se trata de una licencia continua o renovable anualmente. Aún así, con respecto a pagar el sueldo de una persona, puede salir rentable, dado que la IA ya está programada y no hay que preocuparse de los problemas de desarrollo, test, pruebas, ensayo, error y validación.  Ya todo viene con el sello de “para utilizarlo directamente” puesto de fábrica y suele conllevar un interfaz amigable que muchas veces, desde el punto de vista del desarrollo, no se tiene. Lo cual me lleva al segundo punto.

Figura 1. Todo lo que siempre quiso saber, y nunca se atrevió a preguntar de la IA en la clínica

¿Se necesita un informático para entender la inteligencia artificial? Bueno, la verdad es que la mayoría de las veces que desarrollamos un software pretendemos que todo sea lo más automático posible. Si cada vez que utilizases la IA, para obtener buenos resultados, tuvieras que empezar a modificar datos, valores o características, por pocos que sean, haría falta un conocimiento básico de la técnica subyacente. Por poner un ejemplo, una de las consultas más comunes que tenía en mi anterior trabajo, con médicos, radiólogos y biólogos, era qué parámetros tengo que modificar en el software para que los resultados mejoren o el proceso sea más rápido. Para mi, era sencillo, dado que conocía la base matemática, es decir los algoritmos sobre el cual el software estaba programado. Sin embargo, para ellos era una constante búsqueda basada en ensayo y error, hasta dar con una solución, si es que se llegaba a encontrar.

Entonces ¿necesitas ser informático para utilizar estos softwares? Pues no, pero sí puede que se necesite una experiencia previa o una formación para que el programa no llegue a «conclusiones erróneas». Tomar los algoritmos como black boxes o cajas negras (que básicamente viene a decir: “no sé qué hacen, pero me vale”) es un error que se comete muy a menudo, incluso entre ingenieros (según mi experiencia previa). Aunque, por desgracia, las nuevas redes convolucionales (CNN) pecan de ser (realmente) black boxes. Por ejemplo, si yo utilizo una red neuronal para localizar el tejido tumoral en una imagen de patología, el patólogo puede pensar que eso es fácil, dado que él también es capaz de ver el patrón celular del tejido que corresponde con el tumor o con el tejido sano. Pero si yo utilizo una red neuronal para predecir la probabilidad de supervivencia a un cáncer, a partir de las mismas imágenes, la curiosidad del patólogo hace que se pregunte en qué se está fijando la red neuronal para predecir esa supervivencia.

Antes podía ser fácil, porque se utilizaban una serie de medidas obtenidas directamente de la imagen, como número de células, tamaño de las mismas, la forma, índice de proliferación celular y cosas parecidas. Pero ahora, con las CNN, esas medidas son extraídas directamente por la red y utilizadas por ella misma, de un modo tan “opaco”, que ni siquiera los desarrolladores podemos saber qué factores y con qué peso (con qué importancia) la red neuronal toma esos factores en cuenta para predecir el resultado. Esto nos llevaría horas discutirlo.  Sólo os digo que es un tema de actualidad (hot topic) entre los creadores de inteligencia artificial,  que lleva por nombre “explicabilidad de las redes convolucionales” (CNN’s explainability, por si alguno tiene interés de buscarlo en internet).

De todos modos, por si alguno tiene sus dudas a la hora de utilizar esta opacidad en la práctica clínica (la palabra de la década pasada fue “transparencia”, al menos en el ámbito político), sólo deciros que la última palabra  en cualquier caso es la del médico o la del patólogo. 

A ver, ¡quieto parao! Pero si la última palabra la tiene el biólogo o el patólogo, ¿para qué sirve la Inteligencia artificial? Por ahora, la inteligencia artificial es, más bien, orientativa. Gran parte del trabajo desarrollado hasta ahora se trata de los conocidos como programas CAD (computer assisted diagnosis o diagnóstico asistido por ordenador). La idea de estos programas es orientar a los médicos y radiólogos para realizar un diagnóstico más acertado y preciso, reduciendo el error humano en el proceso. Pero jamás deben ser tomados como la panacea del diagnóstico ni como palabra de Dios.

La inteligencia artificial sirve para resolver problemas, quizá más rápido y automáticamente, pero no puede suplir la experiencia y los años de estudio de los médicos. 

Por ahora lo voy a dejar aquí. En mi próximo post, dentro de un par de semanas, os hablaré de la aceptación de la IA por parte de los médicos, patólogos o radiólogos para que os vayáis haciendo una idea. 

Buen fin de semana Carbonian@s, y cuidaos.

Compártelo ...Share on Facebook
Facebook
0Tweet about this on Twitter
Twitter
Share on LinkedIn
Linkedin

Deja un comentario

Tu dirección de correo electrónico no será publicada.