El uso de herramientas de inteligencia artificial en el ámbito cotidiano se ha normalizado a gran velocidad. Muchas personas recurren a plataformas conversacionales como ChatGPT para resolver dudas, interpretar información compleja o buscar explicaciones rápidas sobre cuestiones de salud.
Sin embargo, cuando esa interacción incluye datos clínicos personales, el riesgo para la privacidad aumenta de forma considerable, especialmente si no se es plenamente consciente de dónde acaba esa información.
En los últimos meses, el debate sobre el uso de ChatGPT en contextos sanitarios ha ganado relevancia. El atractivo de obtener respuestas inmediatas puede llevar a compartir historiales médicos completos, pruebas diagnósticas o síntomas detallados. Esta práctica, lejos de ser inocua, plantea interrogantes legales, técnicos y éticos relacionados con la protección de los datos personales más sensibles.
La advertencia sobre la pérdida de control de los datos clínicos
“Compartir el historial médico con ChatGPT es un riesgo para nuestros datos personales”, advierte ASHO. La compañía catalana especializada en health-tech alerta de que introducir información clínica en plataformas de inteligencia artificial supone sacar esos datos de los entornos sanitarios protegidos.
El principal problema no es la tecnología en sí, sino el contexto en el que se utiliza, ya que se eluden las barreras diseñadas específicamente para salvaguardar la confidencialidad de los pacientes.
En hospitales y centros sanitarios, los historiales médicos se almacenan bajo estrictos marcos normativos como el Reglamento General de Protección de Datos y sistemas alineados con el Esquema Nacional de Seguridad.

Estas infraestructuras garantizan control de accesos, trazabilidad y auditorías constantes. Cuando un usuario decide copiar esa información en ChatGPT, esas garantías dejan de aplicarse de forma inmediata.
Plataformas globales frente a sistemas sanitarios regulados
Uno de los factores que incrementa el riesgo es la naturaleza internacional de las plataformas de inteligencia artificial. Al tratarse de servicios gestionados por grandes compañías tecnológicas, los servidores pueden estar distribuidos en distintos países, con legislaciones diversas.
“Aunque residamos en España y demos nuestros datos a ChatGPT, la información clínica deja de estar bajo control hospitalario y queda fuera de todas esas salvaguardas”, explican desde ASHO.
En este escenario, el control efectivo sobre los datos pasa a manos de la empresa propietaria de la plataforma. En el caso de OpenAI, los usuarios son quienes introducen voluntariamente la información, lo que limita la capacidad de los centros sanitarios para protegerla una vez sale de sus sistemas. Esta cesión implícita genera un vacío de responsabilidad difícil de revertir.
Consentimiento implícito y reutilización de la información
Otro aspecto relevante es el consentimiento. Al compartir datos médicos en ChatGPT, el usuario acepta unas condiciones de uso que permiten a la plataforma gestionar esa información según sus propios criterios técnicos y legales. No es necesario solicitar permisos adicionales a terceros, ya que la transferencia se produce de forma voluntaria.
Como consecuencia, los hospitales certificados en protección de la información pierden cualquier capacidad de supervisión sobre esos datos.
Este escenario preocupa especialmente a los expertos en ciberseguridad sanitaria, ya que los historiales médicos contienen información de alto valor, tanto desde el punto de vista económico como personal. Su exposición puede derivar en usos no deseados, desde perfiles de riesgo hasta fraudes más complejos.
La codificación sanitaria como barrera de protección
La directora gerente de la compañía, Ruth Cuscó, subraya que la codificación sanitaria tiene precisamente la función de impedir que terceros puedan interpretar los datos clínicos sin autorización. Estos sistemas transforman la información médica en formatos seguros que solo pueden ser descifrados dentro de entornos controlados.
Compartir el historial fuera de esas infraestructuras rompe ese modelo de protección y abre la puerta a accesos indebidos.
“Quienes comparten sus datos pueden ver su intimidad gravemente comprometida sin ser plenamente conscientes de ello”, advierte Cuscó. El problema no es inmediato ni visible, pero sus consecuencias pueden manifestarse a medio y largo plazo, cuando la información ya ha sido replicada o almacenada fuera del control del paciente.
Riesgos añadidos por errores de la IA generativa
Más allá de la privacidad, existen riesgos asociados a la fiabilidad de las respuestas. Los sistemas de inteligencia artificial generativa pueden ofrecer información incorrecta o malinterpretar los datos proporcionados. Desde el departamento de IA se recuerda que las denominadas alucinaciones no son excepcionales, incluso en contextos especializados.
Aunque ChatGPT pueda manejar grandes volúmenes de información médica, sus respuestas no sustituyen el criterio clínico profesional. Una interpretación errónea de un síntoma o un historial incompleto puede generar una falsa sensación de seguridad o, por el contrario, una alarma injustificada.
El papel insustituible de los profesionales sanitarios
Desde la compañía insisten en que, aunque OpenAI haya aclarado que ChatGPT no está diseñado para reemplazar a los médicos, existe el riesgo de que algunos usuarios lo utilicen como referencia principal. Todas las consultas relacionadas con diagnósticos, tratamientos o decisiones clínicas deben realizarse en un entorno sanitario adecuado y con profesionales cualificados.
El uso responsable de la tecnología pasa por entender sus límites. ChatGPT puede servir como herramienta informativa general, pero nunca debe convertirse en un repositorio de datos médicos personales ni en un sustituto de la atención clínica. La protección de la privacidad y la seguridad de la información sanitaria sigue siendo un pilar fundamental para preservar la confianza en el sistema de salud.








