domingo, 18 mayo 2025

La IA de Google estudia medicina: es capaz de diagnosticar enfermedades con fotos

La IA de Google no está yendo a ninguna facultad de medicina a nutrirse de conocimiento, pero como si lo hiciera. Tras haber realizado un interesante prueba de su capacidad de diagnóstico ha arrojado inquietantes resultados, por excelentes, a la hora de diagnosticar erupciones de la piel a partir de meras imágenes «mejor que los médicos humanos» tal y como ha publicado la prestigiosa revista científica Nature. La IA del buscador ha analizado imágenes de atención medica y resultados de pruebas en simples archivos PDF, y ha sido precisa y acertada en el diagnóstico de varias afecciones médicas. Google no es médico, pero está «estudiando» para serlo.

Publicidad

La IA médica de Google es decir, Articulate Medical Intelligence Explorer (AMIE) era puramente experimental hace ahora algo más de un año, y ya entonces asombró al mundo al haber sido capaz de realizar entrevistas médicas con pacientes e igual o, incluso, superar a los médicos humanos a la hora de conversar con pacientes, eso sí, simulados, y lanzar posibles diagnósticos en función de los datos que recogía de los historiales de los pacientes, incluso en áreas tan delicadas como las enfermedades respiratorias y cardiovasculares.

La IA médica de Google es decir, Articulate Medical Intelligence Explorer (AMIE) era puramente experimental hace ahora algo más de un año y ya supera a los médicos en conversación con clientes y diagnósticos

Ahora ha ido un paso más allá, como si estuviera con su entrenamiento superando cursos en una facultad de medicina. Se trata de una última actualización de AMIE, por supuesto todavía en una fase experimental, que desarrolla sistemas que integran imágenes e información clínica y que según la directora del Centro de Salud Digital de la Universidad de Stanford en California, Eleni Linos, que según Nature no ha tenido nada que ver con la investigación «nos acerca a un asistente de IA que refleja el pensamiento real de un profesional clínico.

La IA de Google estudia medicina: es capaz de diagnosticar enfermedades con fotos
Una IA ataviada con indumentaria médica. Fuente: Agencias

GOOGLE PRACTICA MEDICINA CON ACTORES

Los responsables del programa AMIE de Google han publicado un artículo que describe estos avances el pasado 6 de mayo y, lógicamente, han probado previamente los avances descritos, pero no con pacientes reales. De simular ese rol se han encargado 25 actores que han mantenido consultas virtuales con la IA y con un médico de atención primaria. Los y las actrices simularon para la inteligencia artificial un total de 105 afecciones con síntomas e historiales médicos distintos y dispares.

Como si se tratara de un concurso, después de cada una de las consultas, la IA por un lado y el médico «de cabecera» por otro sugerían cada uno su propio diagnóstico y un tratamiento para la afección. Según la revista científica, después, un equipo de 18 especialistas en dermatología, cardiología y medicina interna, como si se tratara de un jurado, pudo evaluar tanto las transcripciones de las consultas celebradas como los informes que ambos «concursantes» habían elaborado.

La sorpresa fue mayúscula cuando comprobaron que la IA AMIE había conseguido mayor precisión en sus diagnósticos que los médicos humanos, e incluso superó problemas de precisión por culpa de, por ejemplo, la baja precisión de las imágenes que utilizó para las evaluaciones.

25 actores han mantenido consultas virtuales con la IA y con un médico de atención primaria. Los y las actrices simularon para la inteligencia artificial un total de 105 afecciones con síntomas e historiales médicos distintos

AMIE se basa en la IA Gemini 2.0 de Google, versión que ya es capaz de procesar imágenes. A Gemini la han adaptado para estos fines médicos que han probado al añadirle «un algoritmo que mejora la capacidad del Modelo de Gran Lenguaje (LLM) para realizar conversaciones de diagnóstico y razonamiento clínico». Han comprobado que ese algoritmo iba bien y superaba al Gemini básico obligando a la IA a mantener conversaciones entre médico y paciente.

AMIE tenía que interpretar todos los papeles, desde el del paciente hasta el del médico o el de una tercera persona «que evalúa el diálogo de los dos anteriores». El científico de Google DeepMind en Londres y coautor del estudio, Ryutaro Tanno, ha explicado que de esta manera, «se puede dotar al modelo de los comportamientos adecuados y deseables al mantener una conversación diagnóstica«.

Es un método distinto al habitual a la hora de entrenar una IA. Hasta ahora se reentrenaban los modelos con bases de datos especializadas, lo que suponía procesos más engorrosos, por tiempo y por coste. Para Tanno esto es «mucho más económico y potencialmente más accesible».

AMIE tenía que interpretar todos los papeles, desde el del paciente hasta el del médico o el de una tercera persona «que evalúa el diálogo de los dos anteriores»

Y, además, no es tan tan extraño, porque según la especialista de la Universidad de Stanford, Linos, a los médicos humanos también se les suele entrenar y evaluar con actores. Pero marca un raya roja: «las interacciones simuladas no pueden capturar la complejidad de la atención médica en el mundo real», porque según explica, «los médicos aportan experiencia, intuición y la capacidad de examinar físicamente a un paciente, elementos difíciles de replicar en un guion simulado».

No obstante en Nature otros expertos señalan que los resultado son prometedores, aunque lamentan que todavía no se haya publicado ni los códigos ni las indicaciones utilizadas por los desarrolladores, por lo que todavía no puede reproducir o replicar el sistema, y mucho menos desarrollarlo. También apuntan las numerosas complicaciones o desafíos que se pueden dar en el mundo real a la hora de implementar un modelo como la AMIE de Google, aunque la científica de la de IA de la Escuela de Medicina Icahn del Monte Sinaí de Nueva York, Xueyan Mei, entiende que «los modelos de lenguaje extensos para el diagnóstico serán la mejor opción en el futuro».


Publicidad