Alerta en ChatGPT y Claude: El estudio de Imdea Networks destapa que filtran datos a redes publicitarias

Un equipo de investigadores españoles acaba de confirmar lo que muchos sospechaban pero nadie podía demostrar. Tu asistente personal no es un búnker de secretos, sino un escaparate para las empresas de publicidad. Descubre cómo los rastreadores de gigantes tecnológicos están infiltrados en tus conversaciones más privadas y qué significa esto para la seguridad de tus datos en el nuevo orden digital de 2026.

¿De verdad crees que lo que escribes en la ventana de ChatGPT se queda únicamente entre la máquina y tú como si fuera una confesión privada? La realidad técnica dictaminada por los expertos en redes demuestra que esa sensación de confidencialidad es una ilusión peligrosa que ignora los procesos de rastreo en segundo plano.

El prestigioso instituto Imdea Networks ha publicado una investigación que confirma la presencia de rastreadores publicitarios de terceros operando activamente mientras consultas a tu asistente. No es una sospecha paranoica, sino una transferencia de metadatos verificada que llega directamente a las bases de datos de la industria del marketing.

Publicidad

La brecha invisible en la interfaz de ChatGPT

YouTube video

Muchos usuarios asumen que al pagar una suscripción o usar un entorno de trabajo profesional, los procesos de recolección de datos de navegación se detienen por completo. Sin embargo, el estudio detalla que la interfaz web de ChatGPT integra scripts que permiten a entidades externas conocer el momento y la frecuencia de tus interacciones.

Esta fuga de información ocurre de forma silenciosa a través de peticiones HTTP que se lanzan a dominios de terceros sin que el usuario reciba una advertencia clara. La privacidad se ve comprometida no solo por el contenido del texto, sino por la huella digital que dejas al interactuar con la herramienta.

Rastreadores de Meta y TikTok en tu inteligencia artificial

Lo más alarmante del informe es la identificación de códigos pertenecientes a gigantes como Meta o TikTok dentro de las plataformas de IA generativa. Resulta contradictorio que herramientas que prometen eficiencia y seguridad utilicen las mismas tecnologías de seguimiento que una red social de entretenimiento.

Estos rastreadores pueden capturar títulos de conversaciones y otros identificadores que permiten a las empresas publicitarias perfilar tus intereses actuales. Si usas ChatGPT para investigar sobre una patología médica o un problema financiero, esa intención de búsqueda podría estar alimentando tu perfil comercial externo.

El vacío legal del RGPD ante la IA generativa

YouTube video

La normativa europea de protección de datos parece ir un paso por detrás de la velocidad a la que estas plataformas de inteligencia artificial implementan sus funciones. El uso de ChatGPT en entornos corporativos supone ahora un riesgo legal que muchas empresas españolas no habían contemplado en sus auditorías de riesgos.

Los investigadores señalan que estas prácticas rozan el incumplimiento de la transparencia informativa exigida por la ley. Al no ser evidente que existen terceros «escuchando» la sesión de navegación, el consentimiento del usuario sobre ChatGPT podría considerarse viciado o insuficiente.

Impacto en la confidencialidad profesional y médica

Cuando un profesional utiliza ChatGPT para resumir un informe o un médico consulta una dosis, la presencia de scripts de seguimiento convierte una herramienta de trabajo en una vulnerabilidad. La filtración de enlaces abiertos o metadatos de la sesión facilita la reconstrucción de actividades que deberían ser estrictamente confidenciales.

La comunidad técnica advierte que la seguridad perimetral de las empresas se vuelve inútil si el empleado introduce datos en una web que tiene fugas hacia redes publicitarias. El estudio de Imdea pone el foco en la necesidad de usar interfaces limpias o aplicaciones de escritorio que limiten estas conexiones externas.

Plataforma de IAPresencia de RastreadoresTerceros IdentificadosRiesgo de Perfilado
ChatGPTSí (Web)Google, MetaAlto
ClaudeVariosMedio-Alto
PerplexityPublicitariosMuy Alto
GrokX (Twitter)Alto

Previsión de mercado y el giro hacia la privacidad real

La tendencia para los próximos meses indica que veremos un auge de las versiones locales de modelos de lenguaje para evitar el uso de interfaces web comprometidas. El mercado de la inteligencia artificial se dividirá entre servicios gratuitos «pagados con datos» y soluciones soberanas donde el tráfico esté cifrado de punto a punto.

Mi consejo como experto es que, mientras persistan estas prácticas en ChatGPT, evites proporcionar nombres propios, datos financieros específicos o detalles de proyectos sensibles en la versión de navegador. La higiene digital dictamina que debemos tratar a estos asistentes con la misma cautela que a una red social abierta hasta que las auditorías externas confirmen una limpieza total de rastreadores.

El fin de la inocencia en la era de los asistentes

La investigación de Imdea Networks marca un antes y un después en nuestra relación con la tecnología, obligándonos a cuestionar la ética corporativa de los desarrolladores. No podemos permitir que el avance de la inteligencia artificial suponga el retroceso definitivo de nuestros derechos fundamentales a la intimidad.

El caso de ChatGPT es solo la punta del iceberg de un modelo de negocio que sigue priorizando la monetización de datos sobre la seguridad del usuario. Mantenerse informado y exigir herramientas transparentes es la única forma de navegar en un 2026 donde el silencio de los datos es el bien más escaso.


Publicidad