Todo lo que siempre quiso saber y nunca se atrevió a preguntar sobre… la Inteligencia Artificial en la práctica clínica (II)

Buenos días Carbonian@s,

Hace un par de semanas, en mi última entrada (IA en la practica clínica (I)), os dejé con la miel en los labios, hablando de Inteligencia artificial (IA) y su aceptación en la práctica clínica. Muy bien, hoy vamos a hablar un poco más, comenzando por aquellos que han de utilizarla. Los médicos, radiólogos o patólogos.

Entre todos estos profesionales siempre existen believers (no de Justin Bieber, si no  de la IA) y no-believers. Creyentes y no creyentes. Gente que opina que la IA puede conseguir hacerles la vida más fácil y aumentar su precisión (la humana) en el diagnóstico, y otros que prefieren tener básicamente en cuenta la experiencia propia y ahorrarse los problemas de estar lidiando todo el día con el ordenador. Muchas veces depende de los años de profesión y su aceptación de las nuevas tecnologías en general.

Podríamos hablar también de una tercera clase, los agnósticos. Gente que ve lo que hacen los modelos de IA pero que los miran con recelo. Por ejemplo, entre los radiólogos, una de las preguntas más frecuentes que se suele contestar es: ¿la inteligencia artificial va a ocupar nuestros puestos de trabajo?

Nada más lejos de nuestra intención. Vivimos en una época de IA débil. Los algoritmos solo sirven para resolver problemas pre-programados y no para tomar decisiones independientemente. Esto nos llevaría a hablar sobre lo que se conoce como el Test de Turing y si las máquinas pueden pensar o tener conciencia propia, como hice en mi anterior post (Are you human?), pero no es el tema que nos ocupa.

¿La inteligencia artificial va a ocupar nuestros puestos de trabajo?

¿Son las nuevas tecnologías, y en particular la IA, útiles en la práctica clínica? Por supuesto que sí. Esa es la idea, que sean útiles. Que sirvan para hacer la vida más fácil a los profesionales. Que no sólo sirvan para detectar enfermedades sino también para predecir, de un modo más preciso, las posibilidades de sobrellevar una enfermedad o de aconsejar un determinado tratamiento a un paciente en concreto. Es lo que se llama, y escucharéis hablar mucho sobre ello, la medicina personalizada. Cada paciente, según las particularidades de su enfermedad, puede ser tratado de un modo particular, sin que las decisiones se basen en que su cuñado tuvo lo mismo. Y digo lo del cuñado para advertir que, aunque os aconsejen un medicamento porque alguien tuvo síntomas similares y les fue bien, ¡NO lo hagáis! Cada persona es un mundo y puede reaccionar de mil maneras diferentes a un mismo producto.

Por otra parte, en nuestro tiempos pandémicos del Covid, se han desarrollado numerosos algoritmos para detección de la enfermedad y de pronóstico, para saber cuándo puede llevar a un Covid grave o persistente. 

¿Por qué hay tan poco software de IA en la práctica clínica? Bueno, todo software tiene que pasar unas pruebas, tiene que cumplir unos criterios y requerimientos que vienen impuestos desde los organismos de salud pública. Por ejemplo, en Estados Unidos tenemos la FDA (la Administración de Medicamentos y Alimentos, en español), y en Europa la EMA (la Agencia Europea del Medicamento), famosas en estos días por aprobar el uso de las vacunas contra la Covid. Pero estas organizaciones no sólo se dedican a los medicamentos. 

Cada vez que desarrollamos un software, ya sea de inteligencia artificial para detectar una enfermedad como el cáncer, o un simple gestor de datos para un hospital, antes de ser incluído como parte del trabajo tiene que tener el beneplácito de las agencias de regulación para que no suponga un perjuicio para el paciente. Ya sea porque el software forma parte de una máquina y puede producir un daño físico para el paciente, o simplemente para proteger la intimidad y cumplir con las leyes de protección de datos vigentes.

Pasar estas pruebas supone papeleo y tiempo de burocracia. Un software, como cualquier otro medicamento, necesita ser probado. En los medicamentos conocemos bien el proceso o, por lo menos, hemos escuchado hablar de los ensayos clínicos. La finalidad de un ensayo clínico es muy sencilla: 1) probar que el medicamento en cuestión es útil, y 2) probar que los riesgos no superan los beneficios. Pues bien, con respecto al software, existe un proceso similar. Las agencias no quieren que los pacientes puedan resultar dañados por algún error del programa, por ejemplo que haga un mal diagnóstico, o que pueda ser susceptible a ciberataques, dejando al descubierto los datos personales de los pacientes. Por eso, necesitan ser probados de un modo similar a cualquier otro producto.

Tal vez, o al menos me da la sensación mientras voy escribiendo, me he dedicado a pintar un futuro (o un presente) muy oscuro para la inteligencia artificial en la práctica clínica. Pero no es del todo cierto. 

Aunque, cuando vamos a nuestro médico de cabecera, no vemos que utilice ningún software especial para diagnosticarnos, muchos centros tiene en la trastienda algún software que los ayuda en diversas tareas. Es más probable que sea el radiólogo o el cirujano el que más beneficio le saque, pudiendo acercarse (virtualmente) con más precisión al problema. De ese modo existen sistemas que permiten la simulación de cirugías o probar distintos abordajes a una intervención.

Yendo un paso más allá, también existen grupos de investigación, dentro de los hospitales y centros sanitarios, que tratan de desarrollar herramientas personalizadas que puedan ser de utilidad en sus rutinas diarias. 

Nosotros, el Dr. Oliver Diaz y yo, a pesar de trabajar en la universidad, conocemos (y de vez en cuando hemos colaborado) con grupos que pretenden incluir la IA en su práctica habitual.

Aunque parezca algo lejano, el futuro es ahora.

Un saludo Carbonian@s, y disfrutad del fin de semana.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *