OpenAI frena Voice Engine ante el temor de clones perversos: Descubre los riesgos ocultos

Pocas noticias habían generado tanta alerta en el mundo tecnológico durante las últimas semanas como el posible lanzamiento de Voice Engine, herramienta de inteligencia artificial (IA) de la compañía OpenAI que permite clonar voces con pruebas de audio de tan solo 15 segundos.

Su creación, aunque novedosa, supuso un riesgo para la sociedad en general debido a la posibilidad de que las personas la utilizaran para suplantar identidades, fomentar las noticias falsas, entre otras situaciones que están lejos de ser positivas.

OpenAI suspendió el lanzamiento de Voice Engine

Creadores de OpenAI
Foto: WIRED

Ante este panorama, la empresa OpenAI tomó la decisión de suspender el lanzamiento al público de Voice Engine. Esto debido a que reconocen los riesgos de la herramienta si no se le da un uso adecuado. Especialmente durante un año electoral en Estados Unidos, cuyas elecciones están pautadas para noviembre de 2024.

«Reconocemos que generar un discurso que se parezca a las voces de las personas tiene serios riesgos, que son especialmente importantes en un año electoral», detalló la compañía en un comunicado.

En este sentido, destacaron que son conscientes de que debe haber cambios importantes antes de que esta herramienta esté disponible. “Cualquier implementación amplia de tecnología de voz sintética debe ir acompañada de experiencias de autenticación de voz que verifiquen que el hablante original está agregando conscientemente su voz al servicio y una lista de voces prohibidas que detecte y evite la creación de voces que sean demasiado similares a voces prominentes”.

¿Cuáles son los riesgos ocultos de Voice Engine?

OpenAI
Foto: OpenAI

El principal riesgo, y el que más preocupa a los expertos, es la clonación de voces a partir de esos 15 audios grabados que sirven como prueba para generar el nuevo audio. Esta posibilidad podría ocasionar un aumento de estafas bancarias, electrónicas, noticias falsas sobre temas relevantes a nivel mundial, incluso podría ser de apoyo para la realización de delitos aún más graves como trata de personas o secuestros.

El caso de la clonación de voces y las cuentas bancarias es uno de los puntos que más preocupa a los expertos, pues hay bancos que emplean la autentificación de voz en los usuarios para acceder a dichas cuentas.

Los peligros que podría generar Voice Engine han hecho entonces que OpenAI retroceda en su intención de lanzar la herramienta a la brevedad. Aunque solo se trata de una pausa en el proyecto, pues la compañía sigue trabajando en un conjunto de normas para optimar su nueva creación y hacerla más segura.