La AEPD, modelo español de lucha contra los efectos nocivos de ChatGPT y la IA

La Agencia Española de Protección de Datos (AEPD) ha sido señalada como ejemplo de organización gubernamental que lucha contra los efectos nocivos de ChatGPT y el resto de las IAs generativas a los largo y ancho del mundo. Así, de todas las actividades regulatorias e investigadoras de los problemas y usos ilícitos que puede acarrear el uno masivo de esta tecnología, destaca la investigación de los posibles incumplimientos que la agencia española realiza de manera preliminar sobre las posibles violaciones de datos por parte de ChatGPT.

El 13 de abril de este año, desde la AEPD informaban del inicio «de oficio» de actuaciones de investigación a OpenAI, propietaria de ChatGPT, por un posible incumplimiento de la normativa en materia de protección de datos. Pese a haber pasado ya seis meses, el organismo español no cuenta todavía con resultados de su investigación que pueda hacer públicos, porque según asegura, el conocimiento público de los mismos puede afectar negativamente a las pesquisas que llevan a cabo.

España se une así a los gobiernos del mundo entero que se han puesto manos a la obra todo lo rápido que los mecanismos legislativos les permiten, para frenar los aspectos negativos que el uso de esta tecnología puede acarrear a los seres humanos, si no se regula cada aspecto de su uso presente e, incluso, futuro. En el caso de España, además de la investigación que desde el mes de abril lleva a cabo la agencia, dirigida por Mar España Martí desde julio de 2015, como Estado miembro de la Unión Europea contribuye al desarrollo, ya muy avanzado, de la normativa que regulará el uso y aplicación de la IA una vez sea aprobada a finales de este año.

el organismo español no cuenta todavía con resultados de su investigación que pueda hacer públicos, porque según asegura, el conocimiento público de los mismo puede afectar negativamente a las pesquisas

Los legisladores europeos acordaron el 24 de octubre una parte crítica de las nuevas reglas de IA que describen los tipos de sistemas que serán designados como «alto riesgo», acercándose cada vez más a un acuerdo más amplio sobre la histórica Ley de IA que se espera para diciembre. Además de la garantista normativa que se que elabora Bruselas, la Unión Europea ha participado en la primera Cumbre Mundial de Seguridad de la IA, celebrada en en Gran Bretaña, durante los primeros dos días de este mes de noviembre.

La AEPD, modelo español de lucha contra los efectos nocivos de ChatGPT y la IA
La AEPD es la institución española que investiga a ChatGPT y sus posibles incumplimientos en materia de protección de datos.

CUMBRE PARA QUE LOS ESTADOS CONTROLEN LA IA

En la cumbre de más de 25 países, incluidos Estados Unidos y China, el día 1 de noviembre se ha firmado la llamada «Declaración Bletchley», en la que se afirmaba que los países debían trabajar juntos y establecer un enfoque común en materia de supervisión. El segundo día de la extraordinaria reunión acordó trabajar con los gobiernos para probar nuevos modelos de freno, antes del lanzamiento de cualquier nuevo proyecto de IA, para así ayudar a gestionar los riesgos de la tecnología en desarrollo, lo que se ha considerado todo un «logro histórico».

En la reunión Gran Bretaña aseguró que que triplicaría a 300 millones de libras (364 millones de dólares) su financiación para el «Recurso de Investigación de IA», que comprende dos supercomputadoras que apoyarán la investigación para hacer seguros los modelos avanzados de inteligencia artificial que salgan al mercado. Antes de la cumbre, el primer ministro Rishi Sunak dijo el 26 de octubre que Gran Bretaña crearía el primer instituto de seguridad de IA del mundo para «comprender de qué es capaz cada nuevo modelo, explorando todos los riesgos, desde daños sociales como prejuicios y desinformación hasta los riesgos más extremos».

LA Declaración Bletchley afirma que los países deben trabajar juntos y establecer un enfoque común en materia de supervisión de la IA generativa

Precisamente los británicos ya ha emitido un aviso de aplicación preliminar de su normativa contra Snapchat por una posible falla en evaluar adecuadamente los riesgos de privacidad de su chatbot generativo de IA para los usuarios, particularmente los niños.

Durante la reunión de primeros de noviembre, China también se comprometió a aumentar la colaboración en materia de seguridad de la IA para ayudar a construir un «marco de gobernanza» internacional. El gigante asiático ya presentó el pasado mes de octubre una propuesta de requisitos de seguridad para las empresas que ofrecen servicios impulsados ​​por IA generativa, incluida una lista negra de fuentes que no se pueden utilizar para entrenar modelos de IA y la exigencia a los proveedores de servicios que presente evaluaciones de seguridad, y de no poder lanzar nuevos productos al mercado sin previa autorización.

LA AEPD TODAVÍA NO TIENE RESULTADOS

Además de España, países como Francia, Italia, Japón, Polonia y Estados unidos han lanzado programas de investigación de posible incumplimiento, sobre todo en materia de protección de datos y de los consumidores. Desde la prohibición, como la de principios de año de Italia contra ChatGPT, ya disponible allí desde abril, hasta advertencias como las de Japón y USA a OpenAI, o la investigación de quejas contra el uso del chatbot en Francia, todos los Estados presentes en la cumbre están moviendo ficha para conocer y frenar lo que la IA generativa no hace bien.

La AEPD todavía no puede facilitar ni un solo dato del trabajo que realiza para porque «en este punto de la investigación la Agencia no puede comentar sobre este tema, ya que podría perjudicar la investigación», nos indican. El 13 de abril de este año desde la AEPD informaban del inicio «de oficio» de actuaciones de investigación a OpenAI, propietaria de ChatGPT, por un posible incumplimiento de la normativa en materia de protección de datos. Un mes después, las autoridades de la Red Iberoamericana de Protección de Datos Personales inició también una acción coordinada en relación con el servicio ChatGPT, tutelada por la AEPD como secretaria permanente que es de la red.

la aepd inició actuaciones de investigación a OpenAI, propietaria de ChatGPT, por un posible incumplimiento de la normativa en materia de protección de dato

La agencia solicitó a primeros de abril al Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés), -del que la AEPD forma parte junto a otras autoridades de protección de datos del EEE- que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria. La institución española consideraba que los tratamientos globales que podían tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo, en aplicación del Reglamento General de Protección de Datos.

El Comité en cuestión decidió lanzar un grupo de trabajo (task force) para fomentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos. Tanto la agencia española como el comité europeo han aclarado desde el primer momento de que tratan de «abogar por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial», pero desde el pleno respeto a la legislación vigente, para que el desarrollo tecnológico sea «compatible con los derechos y libertades de las personas».

Marian Alvarez
Marian Alvarez
Periodista con más de 30 años de experiencia, desde la Gaceta del Norte, Diario 16 Aragón, Tele 5, Localia, About.com del New York Times y Computer World. Informadora corporativa en BQ y consultora de comunicación. Ahora cuento el presente y el futuro tecnológico en Merca2.