La Unión Europea prohíbe los modelos de IA capaces de generar deepfakes sexuales tras un acuerdo alcanzado este viernes. La decisión, adelantada por El País, golpea de lleno a OpenAI, Meta o Google y marca un nuevo capítulo en la regulación europea de la inteligencia artificial.
Claves de la operación
- Prohibición expresa de modelos de IA entrenados para crear contenido sexual falso. La nueva norma complementa el Reglamento de Inteligencia Artificial y afecta tanto a desarrolladores como a plataformas.
- Sanciones de hasta el 6% de la facturación global. Las multas podrían superar los 7.000 millones de euros en el caso de Meta, siguiendo la estela del RGPD y la Ley de Servicios Digitales.
- Las startups españolas de IA, bajo la lupa de la AESIA. La Agencia Española de Supervisión de la Inteligencia Artificial deberá coordinar la vigilancia, lo que añade un coste de cumplimiento que las empresas emergentes temen.
El acuerdo, alcanzado en el seno del Consejo de la Unión Europea, llega apenas dos años después de la entrada en vigor del Reglamento de Inteligencia Artificial y supone un endurecimiento de las restricciones que ya limitaban ciertas prácticas de alto riesgo. El acuerdo complementa el Reglamento de Inteligencia Artificial y apunta directamente contra los modelos generativos multimodales que pueden crear imágenes y vídeos realistas sin consentimiento.
La medida afecta directamente a sistemas como GPT-4o o Gemini, que integran capacidades capaces de producir contenidos sintéticos con un realismo perturbador. Aunque estos modelos incluyen filtros de seguridad, Bruselas considera que no bastan. La UE exige una arquitectura que impida por defecto la creación de deepfakes sexuales, lo que obligará a las tecnológicas a rediseñar parte de sus motores de generación.
El pulso regulatorio que tensiona a las grandes tecnológicas
Las reacciones de las empresas no se han hecho esperar. Fuentes del sector, citadas por El País, señalan que la prohibición choca con los intereses comerciales de compañías que invierten miles de millones en modelos de propósito general. Google y Meta ya expresaron su temor a que la regulación frene la innovación en Europa, un argumento recurrente en las batallas antimonopolio del continente.
Sin embargo, Bruselas parece decidida a no repetir los errores del pasado. La experiencia con el RGPD, cuyas multas tardaron años en materializarse, ha enseñado a los reguladores a incluir obligaciones de transparencia inmediata. Según el borrador, las empresas deberán notificar cualquier modelo sospechoso en en un plazo de 24 horas y someterse a auditorías externas semestrales. Las empresas deberán notificar modelos sospechosos en 24 horas y pasar auditorías semestrales.
La prohibición llega cuando la tecnología de deepfakes ya está tan extendida que su control efectivo parece más un acto de voluntad política que una solución técnica.
Fianzas y obligaciones de transparencia: el coste de operar en la UE

Los analistas consultados estiman que el coste de adaptación para una gran tecnológica podría oscilar entre 200 y 500 millones de euros, incluyendo la reingeniería de modelos y los equipos de compliance. El coste de adaptación para una gran tecnológica se estima entre 200 y 500 millones de euros. Para las startups, el impacto será aún más severo, ya que muchas carecen de los recursos para implantar los sistemas de detección que la nueva norma impone.
Aun así, hay quienes ven una oportunidad. El vacío que dejan los gigantes estadounidenses podría ser aprovechado por compañías europeas que desarrollen modelos etiquetados como «seguros» desde el diseño, un nicho en el que la española Sherpa.ai o la francesa Mistral AI ya trabajan. La prohibición acelera la demanda de soluciones de IA confiables, un segmento en el que Europa aspira a liderar.
Análisis: lo que se juega el ecosistema español de IA
En España, la noticia coincide con un momento de efervescencia regulatoria. La Ley de creación de la AESIA, publicada en septiembre de 2022, otorga al organismo la facultad de inspeccionar y sancionar a las empresas que incumplan la normativa europea. La AESIA carece de la musculatura técnica necesaria para evaluar modelos generativos en tiempo real, una debilidad que el Ministerio de Transformación Digital pretende corregir con nuevas contrataciones este mismo año.
Telefónica, como principal exponente tecnológico del IBEX 35, ha integrado IA en sus soluciones de ciberseguridad y en Movistar+, y podría verse arrastrada por las nuevas obligaciones de vigilancia de contenidos, aunque su exposición directa es limitada. La medida eleva el listón de exigencia para cualquier empresa que utilice inteligencia artificial en territorio europeo.
Observamos un patrón claro: cada nueva prohibición europea refuerza la soberanía digital del continente pero añade un coste regulatorio que las empresas españolas no siempre pueden asumir con agilidad. La prueba de fuego llegará en el primer semestre de 2027, cuando las primeras denuncias por deepfakes sexuales generados con IA pongan a prueba la capacidad sancionadora de Bruselas y de la AESIA.




