La IA en la medicina: ¿Un aliado o un obstáculo en el diagnóstico?
La IA en la medicina puede ser un aliado, pero también un obstáculo en el diagnóstico

La inteligencia artificial (IA) ha avanzado significativamente en los últimos años, y su aplicación en la medicina ha generado gran expectación. Sin embargo, un estudio reciente ha puesto a prueba a los 21 chatbots de IA más populares en realizar un diagnóstico diferencial, y los resultados son preocupantes.
El estudio, llevado a cabo por el Mass General Brigham, una red de médicos y hospitales estadounidenses sin fines de lucro, evaluó la capacidad de los chatbots para establecer un diagnóstico temprano en decenas de casos clínicos. Los resultados mostraron que, aunque los modelos de IA más avanzados lograron puntuaciones más altas que otros más simples, la conclusión general es que los LLM (Modelos de Lenguaje de Última Generación) siguen siendo limitados para esta tarea.
El examen
A cada uno de los modelos se le entregó 29 casos clínicos que representan más de 16.200 respuestas en total. El resultado fue que las versiones más recientes de los chatbots más potentes no pudieron producir un diagnóstico diferencial adecuado en alrededor del 80% de los casos cuando solo tenían información básica del paciente.
El problema es que la edad, el sexo y los síntomas son información muy vaga, pero con la que ‘juegan’ por primera vez los profesionales humanos que tienen que realizar ese diagnóstico diferencial. Poco a poco, a medida que van haciendo otras pruebas y obteniendo más información, afinan el resultado, pero es ese primer tratamiento de ‘descarte’ el que marca la diferencia muchas veces.
No te fíes de ChatGPT
Los investigadores tienen claro que ‘estos modelos son muy buenos para identificar un diagnóstico final cuando los datos están completos, pero tienen dificultades al inicio de un caso abierto’, lo que les lleva a enfatizar que no hay que fiarse de ellos en casa. La industria de la IA está empujando su producto en el circuito médico, pero desde el estudio apuntan que ‘a pesar de las mejoras continuas, los LLM comerciales no están listos para su implementación clínica sin supervisión’.
Afirman que se necesita un humano en la operación y ‘una supervisión muy estrecha’ para poder escalar el uso de un LLM en el ámbito sanitario. Y ahí están hablando en todo momento del uso profesional, pero cada vez más se ven casos de personas que antes se autotrataban confiando en Google y que ahora lo hacen fiándose de lo que le dice ChatGPT.
Lo de El Salvador
De la manera que sea, es evidente que, al final, la IA médica es un ayudante más, una herramienta, y aquí lo que se ha puesto a prueba es un chatbot ‘común’ que sabe de todo, pero no está especializado en nada. En medicina, como en otras industrias, el uso de una IA puede ayudar en tareas como eliminación de posibilidades u ordenación de miles de datos, pero un chatbot aún no es un buen compañero en ese diagnóstico diferencial porque, sencillamente, no se puede confiar en él.
Quienes sí van a tener que confiar en la IA para cualquier tipo de tratamiento son los salvadoreños. El Salvador ha sido un país pionero a la hora de adoptar nuevas tecnologías, y el presidente, Nayib Bukele, acaba de emprender otro experimento: 500 millones de dólares para dejar la sanidad en manos de Gemini. La población tendrá acceso a la app Dr.SV que ejercerá de médico de familia.
Explora más noticias en nuestra sección: Salud



