OpenAI se verá obligada a conservar todas las conversaciones de ChatGPT según una orden judicial en EE.UU, donde la privacidad de los datos no son una preocupación legal, ni mucho menos.
Nos afecta porque el mero hecho de que la herramienta tiene esa capacidad de guardar conversaciones es en -sí mismo- peligroso. Además, aunque su empresa matriz, OpenAI, aplique en Europa las normas de privacidad marcadas por el Reglamento General de Protección de Datos (RGPD), las razones judiciales que ha establecido la medida podrían extenderse a otros países y regiones. Se trata, según los expertos en privacidad, de un bombazo legal, porque el «gran hermano» estadounidense obligará a conservar, incluso, aquellas conversaciones que el usuario elimine manualmente.
Esta decisión se ha producido en la segunda semana de este mes de junio como resultado de la demanda por derechos de autor que el periódico presentó contra OpenAI y Microsoft en 2023 por presunta infracción de derechos de autor. El periódico alegó que una parte significativa del corpus de entrenamiento de IA consistía en sus artículos. El caso puso de relieve cómo los grandes modelos lingüísticos se benefician del contenido de los medios de comunicación. Aunque la intención de la orden judicial es «preservar pruebas para el juicio», está claro que el impacto en la privacidad de los usuarios es profundo y global.
Hasta ahora, y desde que saliera al mercado en noviembre de 2022, si se borraba una conversación mantenida con la inteligencia artificial generativa ChatGPT, esta se eliminaba de los servidores de OpenAI una vez transcurrieran 30 días, porque la compañía de IA aplicaba políticas claras en materia de retención de datos que era mínimamente invasivas.
la decisión se ha producido en la segunda semana de este mes de junio como resultado de la demanda por derechos de autor que el periódico presentó contra OpenAI y Microsoft en 2023 por presunta infracción de derechos de autor.
Pero si la publicación periódica estadounidense quiere probar que sus contenidos están siendo utilizados por la máquina a cambio de nada, el juez ha visto la necesidad de que la política de destrucción de conversaciones cambie. Así, si utilizamos ChatGPT en EEUU, por muy europeos que seamos, todas las conversaciones que mantengamos con la herramienta serán conservadas de manera indefinida, incluso si las eliminamos en nuestro panel de usuario, porque se van a almacenar en un sistema aislado, eso sí, supuestamente al que solo van a poder acceder el equipo legal autorizado por OpenAI.
La medida afecta a todos los usuarios de ChatGPT; los que tienen una cuenta gratuita, y a los de las versiones Plus, Pro, Team o API, por lo que están afectados por este riesgo sobre su privacidad los individuos de a pie, pequeñas empresas, startups, desarrolladores y profesionales que usan la IA a diario. La medida judicial no afecta a los clientes «Enterprise» o del programa Edu (ChatGPT) para la educación.

CHATGPT Y LA CONFIANZA EN LA IA
La cuestión parece que se circunscribe a una mero asunto de derechos de autor, pero es preocupante porque según los expertos en legislación sobre la IA «se rompe un principio de confianza clave en las herramientas de IA: la posibilidad de controlar y eliminar tus propios datos».
También se establece un precedente legal donde la privacidad de tus interacciones con una IA puede ser suspendida judicialmente, incluso si no estás directamente implicado en el caso y abre la puerta a un debate más amplio sobre los límites entre privacidad, propiedad intelectual, responsabilidad algorítmica y regulación estatal, según ha publicado en un post profesional la responsable de implementación de IA de la compañía Netretina AI, Barbara Regina Ribeiro.
Para esta experta, la cuestión abre la puerta a un debate más amplio sobre los límites entre privacidad, propiedad intelectual, responsabilidad algorítmica y regulación estatal.
si utilizamos ChatGPT en EEUU, por muy europeos que seamos, todas las conversaciones que mantengamos con la herramienta serán conservadas de manera indefinida
En Open AI están indignados. Su COO, Brad Lightcap, ha calificado la orden como «una violación de los principios de privacidad que los usuarios esperan» y de ser una «demanda generalizada e innecesaria… sin fundamento contra nosotros», y Sam Altman, el CEO, ha exigido que las conversaciones con IA tengan el mismo nivel de confidencialidad que una consulta con un médico o abogado.
Por supuesto, Open AI va a apelar esta decisión. Y en general el mundo entiende este tipo de litigios como determinantes cara a diseñar la normativa de regule la IA y preserve los derechos de los ciudadanos ante la herramienta. Tal y como indica Ribeiro, «estamos ante un momento decisivo, porque las reglas del juego de la privacidad digital están cambiando, y las decisiones judiciales de hoy están dibujando el marco ético de la IA del futuro«.
se establece un precedente legal donde la privacidad de tus interacciones con una IA puede ser suspendida judicialmente
Los expertos se preguntan cuestiones como quién va a proteger nuestros datos cuando una IA aprende de nosotros, qué peso legal tiene una conversación con una inteligencia artificial, y si estamos preparados para un nuevo escenario donde lo «privado» ya no depende de lo que eliges borrar.
Coinciden también en que este asunto es una señal de alerta más, por lo que insisten en utilizar la IA en entornos controlados dentro de las organizaciones, cuando se utiliza en el trabajo. No obstante, la mayoría de los expertos insisten en que OpenAI no puede guardar las conversaciones en Europa debido a nuestra legislación, por mucho que en ellas aparezcan contenidos del periódico estadounidense, porque en nuestra región hay normas más claras y poderosas sobre la privacidad, y la Justicia norteamericana no tiene jurisdicción.
Pero, tecnológicamente, puede perfectamente guardar todas nuestras interacciones con ChatGPT sin que lo sepamos. Y lo puede hacer ChatGPT, como lo pueden hacer el resto de compañías tecnológicas. Y si en algún momento se produce un dilema judicial similar en Europa, por orden judicial todo puede revertirse.