Escándalo en Anthropic: Acusan a Claude Desktop de instalar spyware para controlar a los clientes sin permiso

- Anthropic, la empresa pionera en IA ética, está bajo fuego tras revelarse que su aplicación Claude Desktop instala silenciosamente componentes de vigilancia en los navegadores de los usuarios.
- El informe técnico de "That Privacy Guy" describe esta práctica como spyware, permitiendo a la IA acceder a datos privados de navegación sin permiso.

En el mundo de la ciberseguridad, existe una regla de oro: la transparencia es la base de la confianza. Cuando instalas una aplicación de una empresa valorada en miles de millones de euros, esperas que se comporte según los estándares que ella misma promulga. Pero, según la investigación de «That Privacy Guy», la versión para macOS de Claude Desktop está realizando maniobras en la sombra que recuerdan más al comportamiento de un troyano que al de un asistente de productividad.

El hallazgo principal se centra en una tecnología llamada Native Messaging (Mensajería Nativa). Tras una instalación aparentemente normal de Claude, el sistema registra silenciosamente archivos de configuración (manifiestos) en los directorios de soporte de aplicaciones de prácticamente todos los navegadores basados en el motor Chromium: desde Google Chrome hasta Brave, Edge, Vivaldi e incluso Opera.

Publicidad

El «Puente» hacia tu vida digital

Para entender la gravedad del asunto, hay que comprender qué es este «puente». Normalmente, los navegadores funcionan como cajas de arena (sandboxes): lo que ocurre dentro de una pestaña no debería poder afectar al resto de tu ordenador. Sin embargo, la Mensajería Nativa es una función diseñada para que aplicaciones externas se comuniquen directamente con el navegador, saltándose gran parte de esas restricciones de seguridad.

Lo que Anthropic ha hecho, presuntamente, es pre-posicionarse en tu sistema. Al instalar estos manifiestos de forma automática y sin previo aviso, Claude Desktop obtiene la capacidad técnica de «escuchar» y «hablar» con tu navegador. Esto significa que podría acceder a tus sesiones abiertas, leer el contenido de las pestañas o incluso interceptar datos de navegación bajo privilegios de usuario. Lo más inquietante es que todo esto sucede sin que aparezca ninguna ventana emergente pidiendo permiso al usuario, un estándar básico en la protección de la privacidad moderna.

¿Funcionalidad futura o vigilancia presente?

Desde un punto de vista técnico, existe una explicación pragmática: Anthropic está preparando a Claude para su función de «Computer Use» (Uso del Ordenador). Esta capacidad permite a la IA realizar tareas por ti, como rellenar formularios, navegar por la web o gestionar correos. Para que una IA haga esto de forma fluida, necesita esa conexión directa con el navegador.

Sin embargo, el problema no es la función, sino la forma. Instalar una herramienta con capacidades de vigilancia masiva antes de que el usuario decida usar esa función es una extralimitación flagrante. Como señala el informe, esto viola los principios fundamentales del RGPD en Europa, que exige transparencia total y consentimiento explícito antes de cualquier recolección de datos o preparación técnica para la misma. Si Claude Desktop está «listo para espiar» desde el minuto uno, la ética de Anthropic queda en entredicho.

Un riesgo para las empresas

Para los entornos corporativos, donde el manejo de datos sensibles es crítico, este descubrimiento es una pesadilla de seguridad. Muchas empresas que han adoptado Claude como su herramienta de IA corporativa podrían estar exponiendo sus secretos comerciales de forma inadvertida. Si una aplicación tiene un «puente» abierto hacia el navegador, cualquier vulnerabilidad en esa aplicación se convierte en una puerta abierta hacia toda la infraestructura de la empresa.

Resulta fascinante —y a la vez aterrador— observar cómo las empresas de IA están dispuestas a sacrificar la privacidad del usuario en su carrera por la dominación del mercado. Anthropic ha pasado de ser el «hermano responsable» de OpenAI a ser señalado por prácticas que muchos expertos consideran malware funcional.

La necesidad de auditar la IA

Este escándalo de 2026 marca un punto de inflexión. No podemos permitir que las aplicaciones de escritorio de IA tengan carta blanca para instalar componentes en nuestros navegadores sin supervisión. La investigación de «That Privacy Guy» es un recordatorio de que, incluso detrás de la interfaz más amigable y «ética», pueden esconderse líneas de código diseñadas para la vigilancia.

Concluyo que, hasta que Anthropic no dé una explicación satisfactoria y ofrezca un método de instalación transparente, el uso de Claude Desktop en entornos que requieran alta privacidad es un riesgo innecesario. En la era de la inteligencia artificial, nuestra mejor defensa sigue siendo el escepticismo técnico y la auditoría constante de quienes pretenden «ayudarnos».


Publicidad