En enero del 2020 un equipo liderado por investigadores liderado por Google Health publicó en Nature que un sistema de IA que analizaba mamografías para detectar signos de cáncer de mama era más eficaz reduciendo los falsos positivos y los falsos negativos que los propios radiólogos. La explicación te la dan los bioestadísticos, el problema de analizar imágenes anormales no es una cuestión estadística. Es una cuestión de “maching learning”. El problema estuvo en replicar los resultados. Cuando se pidió detalles del código del algoritmo empleado, se dijo que no podía ser compartido. La reproducibilidad es la esencia del método científico. Es la base de los ensayos clínicos. Si no se hace público, el riesgo de falsificación está a la vuelta de la esquina. Los resultados se tienen que reproducir antes de hacer un uso clínico de una nueva tecnología, del tipo que sea.

La velocidad de innovación en este terreno con el creciente número de  start ups, talentosos ingenieros, ingente poder de computación, … es enorme. Pero ojo en el empleo de datos con poca calidad que llevan a algoritmos segados que dañan a pacientes y rompen expectativas de la IA en muchos campos de la medicina: imagen, laboratorio, dermatología, … aunque su potencial más grande es, seguramente, en salud pública. Ponemos algún ejemplo: análisis de tweets con localización geográfica de millones de personas expresando síntomas de gripe … o malnutrición en niños o polución del aire y pobres resultados de salud. Aunque en asistencia sanitaria las cantidades de datos que generamos son gigantescas: historias clínicas, imágenes digitales, biobancos, teléfonos móviles, dispositivos portables, … IA y big data tienen un futuro trepidante. Estas toneladas de datos pueden ser utilizadas en entrenar modelos complejos con “deep learning” Serán muy buenos reconociendo patrones, pero y si no todos esos datos son buenos. El resultado puede ser horrendo.

El sesgo algorítmico es otro gran problema. Se necesitan poblaciones de pacientes auténticamente representativas, y todos sabemos que esto no es fácil. Vamos a un ejemplo, las historias clínicas tienen datos sucios: pues pueden no ser exactos, además de incompletos y hasta duplicados. Otro problema es el sesgo de escritura en el algoritmo: preguntas pobremente diseñadas y con poca lógica por falta de diversidad entre los que escriben los códigos.

Ayuda que la innovación tecnológica sea inteligentemente conducida con la creación de ecosistemas donde la innovación en política sanitaria es clave, incluyendo una regulación que no frene, pero ponga orden. No hacer daño como guía hipocrática está en primera fila. La FDA en su labor de regular algoritmos de IA para uso médico señala que la información pública es todavía insuficiente en la validación de datos lo que hace que sea difícil justificar su aplicación clínica ya que no aseguran ni generalización de resultados ni control de sesgos.

¿Puede la IA sobrepasar a la inteligencia humana? El toque humano es imbatible, pero el potencial de transformar los sistemas de salud con la IA es una realidad, especialmente en salud mental, consiguiendo indicadores que detecten patrones tempranos de comportamiento. Hay más promesas que peligros, pero éstos tienen que ser estrechamente monitorizados, y probados en ensayos clínicos, antes de lanzar las campanas al vuelo.

Un comentario sobre “Inteligencia artificial (IA) en Medicina: promesas y peligros

Deja un comentario