viernes, 4 julio 2025

ASML, Mistral, Airbus, Total Energies o Siemens: la IA europea quiere crecer sin Ley

Empresas europeas, entre las que se encuentran ASML, Mistral, Airbus, Total Energies o Siemens han pedido a la Unión Europea que suspenda la implementación de su avanzada e histórica regulación sobre inteligencia artificial (IA) al menos durante dos años, porque según aseguran esta «pone en riesgo las ambiciones del continente en materia de IA. La petición se ha realizado mediante una carta firmada con nombres y apellidos por los representantes de más de 45 organizaciones y empresas, líderes tecnológicas de la región de los 27, dirigida a la presidenta de la Comisión Europea, Ursula von der Leyen. La Ley de IA, aprobada el año pasado, establece un conjunto de controles para prevenir los peores abusos de la tecnología.

Publicidad

Junto a ASML, Mistral, Airbus, Total Energies o Siemens, han firmado la misiva un total de 45 empresas europeas, entre las que también se encuentran Mercedes-Benz Group AG, Philips. BNP Paribas, Deutsche Lufthansa, Publicis Groupe SA, Prosus NV, Carrefour, Celonis, Siemens Energy AG o las asociaciones alemanas de IA y de Startups. En el escrito solicitan el aplazamiento de los conjuntos de normas aplicables a los modelos de IA de propósito general y a los modelos de IA de alto riesgo.

Hay que tener en cuenta que en cuanto a la legislación sobre la IA, entre las empresas existe la preocupación de que las normas pueda sofocar la innovación, particularmente en Europa, donde las empresas tienen equipos de cumplimiento más pequeños que sus homólogas estadounidenses.

la Comisión Europea no ha proporcionado «directrices y estándares clave» con un «código de prácticas» con instrucciones claras para que las empresas que trabajan con IA avanzada y la desarrollan en Europa puedan cumplir con la regulación

Las reglas para los modelos de IA de propósito general (GPAI) entrarán en vigor el 2 de agosto y comenzarán a producirse sanciones un año después, es decir, el 2 de agosto de 2026. Algunas disposiciones importantes que recoge, incluidas las reglas para modelos base como los elaborados por Google, Mistral y OpenAI, estarán sujetas a requisitos de transparencia, como la elaboración de documentación técnica, el cumplimiento de la legislación de derechos de autor de la UE y la provisión de resúmenes detallados sobre el contenido utilizado para el entrenamiento de algoritmos. Las compañías también tendrán que realizar pruebas de sesgo, toxicidad y solidez antes del lanzamiento de sus modelos.

Para las empresas de IA, la aplicación de la ley implica costos adicionales de cumplimiento. Y para quienes crean modelos de IA, los requisitos son más estrictos. El problema que evidencian con la carta es que la Comisión Europea, como organismo regulador, no ha proporcionado «directrices y estándares clave», entre las que se deberían incluir un «código de prácticas» que contenga las instrucciones claras para que las empresas que trabajan con IA avanzada y la desarrollan en Europa puedan cumplir con la regulación de la región.

Así, en la carta indican que «para abordar la incertidumbre que esta situación está creando, instamos a la Comisión a proponer un ‘paréntesis’ de dos años en la Ley de IA antes de que las obligaciones clave entren en vigor«.

Curiosamente hay que tener en cuenta que las normas proteccionistas europeas en materia de tecnologías rara vez son bien vistas entre las grandes corporaciones tecnológicas, principalmente estadounidense, porque les limitan a la hora de hacer lo que sea necesario para desarrollar una tecnología y que sea rentable lo antes posible, sin pararse a prever los aspectos más perniciosos para los ciudadanos de la ciudadanía.

En este sentido, hay que tener en cuenta que el grupo que ha organizado la carta, denominada «Iniciativa de Campeones de IA de la UE», está liderado por el fondo estadounidense de capital riesgo General Catalyst, que tiene importantes inversiones en Europa. Dos de las empresas tecnológicas más grandes de nuestra región, como son SAPy Spotify, son miembros de la iniciativa, pero no han firmado la carta.

Según fuentes de la Comisión Europea, retraso sí que va a haber, porque el Comité Europeo de IA está discutiendo el momento de implementar el ‘Código de Prácticas’ y considera su publicación para el final de 2025.

ASML, Mistral, Airbus, Total Energies o Siemens: la IA europea quiere crecer sin Ley
Mistral AI, la desarrolladora de IA francesa, en una de las empresa firmantes de la carta a la Comisión Europea. Fuente: Mistral

DESDE ASML A MISTRAL CONTRA EL CÓDIGO DE PRÁCTICAS

La redacción del código de prácticas en cuestión, inicialmente previsto para el pasado mes de mayo, ya acumula retraso y, además, ha sido criticado porque según las empresas tecnológicas este sobrepasa los límites de la Ley de la IA de la Unión Europea, y crea su propio conjunto de normas especialmente engorrosas y gravosas. No obstante, a menos de un mes de que entren en vigor partes de la Ley de IA de la Unión Europea, las empresas están pidiendo una pausa en las disposiciones.

Como las normas también pueden afectar a las compañías americanas que desarrollan la disruptiva tecnología, el gobierno estadounidense intervino el pasado mes de abril, cuando hizo llegar también varias cartas a la Comisión Europea y a varios países comunitarios instando a la región a que desechara el código que redactaba con la forma que tiene en la actualidad.

Entre carta y carta, los retrasos en la concepción legislativa amenazan seriamente con retrasar totalmente la implementación de la Ley, que inicialmente contaba con un plazo escalonado pensado inicialmente por el gobierno comunitario. En función de esos plazos, los modelos de IA más potentes, como ChatGPT de OpenAI, deberían cumplir ya con las normas determinadas este próximo mes agosto. No va a ser posible, porque los grupos de trabajo del Gobierno de la UE, que están formados por desarrolladores de IA, académicos y activistas de los derechos digitales, van con retraso; estamos a principios del mes de julio y todavía están trabajando en el desarrollo de directrices detalladas.

el grupo que ha organizado la carta, denominada «Iniciativa de Campeones de IA de la UE», está liderado por el fondo estadounidense de capital riesgo General Catalyst, que tiene importantes inversiones en Europa.

Como se recordará la Ley de IA (IA Act) de la Unión Europea se aprobó el pasado año, y fue la primera de sus características a nivel mundial. Con ella se establece un conjunto de controles para prevenir los peores abusos de esta tecnología. La norma deja claro que los desarrolladores de inteligencia artificial deben «proporcionar información sobre cómo se entrenan sus modelos» y contar con políticas que respeten las leyes relativas a los derechos de autor.

También establece que los modelos más sofisticados deberán tomar medidas adicionales para mitigar riesgos, reforzar la seguridad y reportar información sobre la arquitectura de su sistema, e impone restricciones a algunos tipos de uso, como el caso de la identificación de personas en espacios públicos en tiempo real, por ejemplo.

Es una Ley, sí, pero el código de prácticas que se está redactando es voluntario. No obstante, está voluntariedad queda en suspensión porque ese código de prácticas proporciona el marco en el que se deben fijar las empresas para cumplir con la Ley. Y si no lo hacen, pueden ser multadas con hasta el 7% de las ventas anuales de la compañía, o el 3% en el caso de empresas que se dediquen específicamente a desarrollar modelos avanzados de inteligencia artificial.

El código de prácticas ha sido duramente criticado por los directivos de Meta, por ejemplo, que calificaron en su día el código como «impracticable e inviable», y ya entonces anunciaron que la empresa de redes sociales norteamericana no lo firmaría en su forma actual. También le han llovido críticas desde Alphabet, la matriz de Google, por cuestiones como la exigencia en la Ley de realizar pruebas de modelos de terceros y los requisitos de protección de derechos de autor. En su opinión «van demasiado lejos».

Publicidad

Publicidad