Hay pequeños cambios que llegan sin que apenas los notemos. Antes, cuando algo raro aparecía en el cuerpo —un dolor de cabeza, una molestia en el pecho— lo normal era llamar al médico o comentarlo con alguien cercano.
Ahora muchas veces ocurre otra cosa.
Abrimos el móvil. Escribimos unas palabras. Y esperamos una respuesta.
Así de simple.
En cuestión de segundos, la pantalla nos devuelve posibles causas, explicaciones, sugerencias. A veces incluso recomendaciones bastante concretas. Y sin darnos cuenta, la inteligencia artificial se convierte en algo muy parecido a un médico improvisado que nunca duerme.
No es una exageración. Se calcula que más de 230 millones de personas en todo el mundo consultan cada semana a herramientas como ChatGPT para describir síntomas y buscar orientación médica. Una cifra enorme. Y lo más llamativo es que sigue creciendo.
La razón, si lo pensamos bien, es bastante lógica. En muchos lugares conseguir una cita médica puede tardar días o semanas. Frente a esa espera, la inteligencia artificial ofrece algo tremendamente seductor: una respuesta inmediata.
Pero esa rapidez también tiene su lado incómodo.
La trampa de las respuestas rápidas

Cuando uno está preocupado por su salud, cualquier información parece valiosa. Y si llega rápido, mejor.
El problema es que la medicina no funciona como un buscador de internet.
Un médico no solo escucha lo que el paciente dice. También observa, pregunta, revisa antecedentes, interpreta pequeños detalles. A veces incluso algo tan simple como la forma en la que una persona se mueve o respira ya ofrece pistas importantes.
La inteligencia artificial, en cambio, trabaja con palabras. Con patrones. Con probabilidades.
Y eso, aunque impresionante desde el punto de vista tecnológico, tiene límites muy claros.
De hecho, ya se han documentado casos en los que la IA ha dado recomendaciones equivocadas. Por ejemplo, sugerir aplicar frío a una dolencia cuando en realidad necesitaba calor. Puede parecer un detalle menor… pero en medicina esos pequeños matices pueden cambiar bastante las cosas.
Por eso muchos especialistas repiten una idea que conviene recordar:
la medicina no es solo información, también es interpretación.
Una ayuda informativa, pero no un médico

El presidente del Colegio de Médicos de Madrid, Manuel Martínez Sellés, lo ha explicado de forma bastante directa: la inteligencia artificial puede ser útil como apoyo informativo, pero no debería utilizarse para diagnosticar enfermedades ni para decidir tratamientos.
Y tiene sentido.
Un diagnóstico médico real no se basa solo en describir síntomas. También incluye exploración física, análisis clínicos, pruebas de imagen y el conocimiento acumulado del profesional que evalúa el caso.
Es un proceso complejo. Mucho más de lo que parece cuando lo vemos desde fuera.
Por eso muchos médicos aceptan que estas herramientas puedan servir para resolver dudas generales, pero insisten en algo importante: nunca deberían sustituir una consulta médica real.
El detalle que muchos pasan por alto: nuestros datos de salud

Hay otro aspecto que empieza a generar debate y del que quizá no se habla tanto: la privacidad de la información médica.
La nueva función conocida como ChatGPT Health, desarrollada con la colaboración de más de 260 profesionales sanitarios de 60 países, busca mejorar la precisión de las respuestas médicas. Para ello, pide a los usuarios compartir parte de su historial de salud.
Y aquí aparece una pregunta incómoda:
¿qué ocurre con esos datos una vez que los compartimos?
Especialistas en salud digital recomiendan prudencia. No porque necesariamente haya un problema inmediato, sino porque la información médica es uno de los datos más sensibles que existen.
Y muchas personas, al buscar respuestas rápidas, no siempre son conscientes de lo que están compartiendo.




