Zuckerberg prohíbe la publicidad política con IA en Facebook e Instagram

El creador de Facebook, Mark Zuckerberg, ha prohibido que campañas políticas y anunciantes de otras industrias reguladas utilicen sus nuevos productos publicitarios de inteligencia artificial generativa. Así lo ha revelado esta misma semana un portavoz de Meta, la empresa matriz, quien advirtió que esas herramientas, por ejemplo, podrían incluso acelerar la peligrosa difusión de información errónea sobre las elecciones.

La empresa de Facebook reveló públicamente la decisión a través de su centro de ayuda a principios de esta semana, tras haber aparecido las primeras publicaciones sobre la posibilidad de que la empresa terminara por establecer esta prohibición. Sus estándares publicitarios prohíben anuncios con contenido que haya sido desacreditado por los socios de verificación de datos de la compañía, pero hasta ahora no tienen reglas específicas sobre IA generativa que están empezando a probar en sus redes.

«Mientras seguimos probando las nuevas herramientas de creación de anuncios de IA generativa en Ads Manager, los anunciantes que realicen campañas calificadas como anuncios de vivienda, empleo, crédito, asuntos sociales, elecciones o política, o bien relacionados con salud, productos farmacéuticos y servicios financieros, no están autorizados actualmente a utilizar estas funciones de IA», ha señalado la empresa en una nota adjunta a varias páginas, en las que concretamente explica el funcionamiento de las herramientas.

los anunciantes que realicen campañas calificadas como anuncios de vivienda, empleo, crédito, asuntos sociales, elecciones o política, o bien relacionados con salud, productos farmacéuticos y servicios financieros, no están autorizados a utilizar la IA

«Creemos que este enfoque nos permitirá comprender mejor los riesgos potenciales y establecer las salvaguardias adecuadas para el uso de la IA generativa en anuncios relacionados con temas potencialmente delicados en sectores regulados», ha especificado el representante de Meta.

La actualización de la política de la empresa se produce un mes después de que la empresa cabecera de Facebook e Instagram, como segunda plataforma de anuncios digitales del mundo, anunciara que estaba empezando a ampliar el acceso de los anunciantes a herramientas publicitarias basadas en IA, que pueden crear instantáneamente fondos, ajustes de imagen y variaciones del texto de los anuncios en respuesta a simples instrucciones de texto.

En un principio, estas herramientas sólo se pusieron a disposición de un pequeño grupo de anunciantes a partir de la pasada primavera. La empresa declaró entonces que que pretendían dar acceso a estas herramientas a todos los anunciantes del mundo a partir de 2024.

deep fake
Facebook va a luchar contra las deepfakes políticas generadas con IA, como esta de Donald Trump, supuestamente detenido.

A FACEBOOK SE UNEN GOOGLE Y TIKTOK

En los últimos meses, Meta y otras empresas tecnológicas se han apresurado a lanzar productos publicitarios y asistentes virtuales basados en IA generativa, para dar respuesta al frenesí suscitado desde que el año pasado irrumpiera en el mundo ChatGPT de OpenAI, capaz de ofrecer respuestas escritas similares a las humanas a preguntas y otras peticiones.

Hasta ahora, las empresas han facilitado poca información sobre las salvaguardas de seguridad que piensan imponer a esos sistemas, lo que convierte la decisión de los gestores Facebook sobre los anuncios políticos en una de las decisiones políticas sobre IA más importantes del sector que han salido a la luz hasta la fecha.

Google, de Alphabet, la mayor empresa de publicidad digital, anunció la semana pasada el lanzamiento de herramientas similares de anuncios de IA generativa para la personalización de imágenes. Un portavoz de Google ha reconocido que la compañía planea mantener la política fuera de sus productos, mediante el bloqueo de una lista de «palabras clave políticas» para que no se utilicen como sugerencias.

Google ha reconocido que planea mantener la política fuera de sus productos, mediante el bloqueo de una lista de «palabras clave políticas» para que no se utilicen como sugerencias

Google también ha planeado una actualización de la política a mediados de este mismo mes de noviembre, y exigirá que los anuncios relacionados con las elecciones incluyan una divulgación si contienen «contenido sintético que representa de manera no auténtica personas o eventos reales o de aspecto realista«.

TikTok prohíbe los anuncios políticos, mientras que Snapchat los bloquea en su chatbot de IA. Snapchat también utiliza la revisión humana para comprobar los hechos de todos los anuncios políticos, lo que incluye la investigación del uso engañoso de la IA. X, antes conocida como Twitter, no ha puesto en marcha ninguna herramienta publicitaria de IA generativa.

Por su parte, la multinacional tecnológica Microsoft, el mayor inversor en Open AI, la empresa creadora de Chat GPT, acaba de ofrecerse para ayudar a los políticos para combatir las deepfakes y fake news que se generen mediante IA generativa.

Ya el mes pasado, el máximo responsable político de Meta, Nick Clegg, declaró que el uso de IA generativa en publicidad política era «claramente un área en la que necesitamos actualizar nuestras normas».

Antes de una reciente cumbre sobre la seguridad de la IA en el Reino Unido, Clegg ya declaró que los gobiernos y las empresas tecnológicas, por igual, deben prepararse para que la tecnología se utilice para interferir en las próximas elecciones que se celebren ya en 2024, (para empezar, las estadounidenses), y pidió poner el foco en especial en el contenido relacionado con las elecciones «que se mueve de una plataforma a otra.

TikTok prohíbe los anuncios políticos, mientras que Snapchat los bloquea en su chatbot de IA. Twitter no ha puesto en marcha ninguna herramienta publicitaria de IA generativa

Clegg ha reconocido que ya con anterioridad Meta había ya bloqueando su asistente virtual Meta AI para que los usuarios pudieran crear imágenes fotorrealistas de personajes públicos. La empresa de Mark Zuckerberg se comprometió este pasado verano a desarrollar un sistema de «marca de agua» para los contenidos generados por IA.

Meta prohíbe terminantemente los vídeos engañosos generados por IA en todos los contenidos, incluidas las publicaciones orgánicas no remuneradas, con solo una excepción; la parodia o la sátira. El Consejo de Supervisión independiente de la empresa ya estableció el pasado mes de octubre que examinaría la idoneidad de ese enfoque, para lo que retomaría un caso relacionado con un vídeo trucado del Presidente de EE.UU., Joe Biden, que Meta dijo que había dejado colgado porque no había sido generado por IA.