España exige acceso a Claude Mythos, la IA que temen los gobiernos

El Gobierno reclama un acceso coordinado de la UE al modelo de Anthropic para evaluar riesgos financieros y de infraestructuras. La Comisión estudia retrasar la IA Act para no quedarse atrás en la carrera tecnológica.

El Gobierno español exige a la Unión Europea un acceso coordinado al modelo de inteligencia artificial Claude Mythos ante las vulnerabilidades que podría explotar en sistemas financieros y críticos. El temor no es una hipótesis de laboratorio: la capacidad del modelo para hallar puertas traseras en software ha disparado todas las alarmas en el sector bancario. Carlos Cuerpo, vicepresidente y ministro de Economía, ha pedido que Bruselas lidere la solicitud ante Anthropic, la empresa creadora del modelo.

Claves de la operación

  • Riesgo financiero y sistémico. Mythos puede identificar puertas traseras en sistemas bancarios y de infraestructura, lo que representa una amenaza para la estabilidad de cualquier economía moderna.
  • División geopolítica del acceso a la IA. Estados Unidos y Reino Unido ya colaboran en pruebas del modelo, mientras Europa queda rezagada por sus propias restricciones regulatorias.
  • Bruselas valora retrasar la IA Act. La Comisión Europea estudia aplazar hasta diciembre de 2027 los requisitos de alto riesgo, única vía para que modelos como Mythos operen en el continente.

Anthropic ha mantenido Mythos bajo llave desde su desarrollo, argumentando que su capacidad de análisis podría ser utilizada por actores maliciosos. Esta precaución, sin embargo, ha generado suspicacias en los mercados: algunos analistas creen que la compañía podría estar inflando los riesgos para justificar una falta de capacidad de cómputo real.

Publicidad

El modelo que da miedo a la banca española

Carlos Cuerpo fue tajante este martes: “Europa no puede ser una región de segunda”. El ministro advirtió de que la amenaza de Mythos va mucho más allá de las entidades financieras. Infraestructuras críticas como redes eléctricas, telecomunicaciones o sistemas de defensa están igualmente expuestas a vulnerabilidades que la IA podría detectar en cuestión de horas. “Afecta a prácticamente todos los sectores”, subrayó.

El sector financiero fue el primero en dar la voz de alarma, pero la preocupación se ha extendido a otros ámbitos. De hecho, el propio Eurogrupo y el Banco Central Europeo ya están analizando el alcance del peligro en colaboración con supervisores nacionales. El Gobierno español considera que la única forma de anticiparse es obtener acceso al modelo antes de que caiga en manos hostiles.

La tensión es comprensible. Los sistemas financieros operan sobre arquitecturas complejas y a menudo antiguas, donde una puerta trasera inadvertida podría desencadenar pérdidas millonarias. Cuerpo insiste en que la petición debe ser coordinada por la Comisión Europea, porque “no podemos los Estados miembros ir cada uno por nuestra cuenta de manera descoordinada”. Lo que está en juego no es menor: la confianza en la solvencia de la economía digital europea.

Pero los números no mienten. Anthropic no ha revelado cifras concretas, pero los expertos apuntan a que el modelo supera en varios órdenes de magnitud a sus predecesores en tareas de ciberseguridad ofensiva.

La misma ley que protege a Europa de los riesgos de la IA es la que le impide acceder a la herramienta que necesita para blindarse.

Bruselas contra su propia ley: ¿un retraso necesario?

La IA Act europea, aprobada hace dos años, clasifica a sistemas como Mythos como de alto riesgo y exige estrictas auditorías antes de su despliegue. Pero ahora la Comisión Europea estudia retrasar hasta diciembre de 2027 la entrada en vigor de esos requisitos, consciente de que la regulación podría dejar al continente fuera de la carrera tecnológica. Una decisión que muchos interpretan como un reconocimiento implícito de que la ley fue un tiro en el pie.

El debate no es nuevo. La Eurocámara ha recibido presiones de empresas tecnológicas y de algunos estados miembros que ven en la IA Act un freno a la innovación. En España, la Agencia Española de Supervisión de Inteligencia Artificial (AESIA) ha abogado por un equilibrio entre seguridad y desarrollo, pero la realidad es que la burocracia avanza a un ritmo mucho más lento que la tecnología. Lo reconoció la propia Unión Europea en un informe reciente.

acceso temprano IA

Soberanía digital, la batalla que se libra en Bruselas

La petición de Cuerpo tiene un trasfondo geopolítico imposible de ignorar. En los últimos años, la Unión Europea ha intentado construir una capa de soberanía digital que no dependa exclusivamente de proveedores estadounidenses. La negativa de Anthropic a compartir su modelo con Europa, cuando Reino Unido sí ha obtenido acceso, ahonda la brecha transatlántica y confirma que la IA avanzada se ha convertido en una herramienta de influencia. En España, compañías como Indra llevan años trabajando en blindar las infraestructuras críticas, pero la amenaza de un modelo externo tan potente desborda cualquier previsión.

Hay quien ve en todo esto una maniobra de marketing. Varias voces críticas citadas por El Mundo sugieren que Anthropic estaría utilizando el miedo a su propio modelo para ocultar un problema de capacidad de cómputo: la compañía no tendría recursos suficientes para atender una demanda masiva, por lo que opta por restringir su acceso alegando riesgos desmedidos. Si efectivamente Mythos es tan letal, la AI Act no es el problema, sino la solución; si no lo es, Europa estaría cediendo ante un bluff comercial. La inteligencia artificial europea está en juego.

La contrarreloj regulatoria es clara. Bruselas debe decidir si cede a la presión y aplaza las exigencias de la IA Act o si se mantiene firme y pierde la oportunidad de evaluar una tecnología que ya circula entre aliados. Mientras, la AESIA prepara su propio marco supervisor, que se espera para el próximo año. La junta general de accionistas de Anthropic prevista para este otoño podría aclarar si el secretismo responde a miedo real o a cálculos de mercado.


Publicidad