miércoles, 8 octubre 2025

«Con tu voz de un audio de WhatsApp de 3 segundos puedo estafar a toda tu familia»: Iván Peña (29), experto en IA, demuestra la nueva clonación de voz.

La estafa consiste en una llamada falsa de un familiar pidiendo dinero urgente, usando la voz clonada para engañar a la víctima. La mejor protección es colgar, verificar la llamada contactando tú mismo al familiar y pactar una palabra de seguridad secreta.*

Un simple audio de WhatsApp de tres segundos puede ser el arma perfecta para un ciberdelincuente que busca arruinarte la vida. Lo que parece un inocente mensaje de voz, con la nueva inteligencia artificial generativa se convierte en una herramienta para vaciar las cuentas bancarias de tus seres queridos. El experto en IA Iván Peña, de 29 años, lo ha demostrado de forma escalofriante, lanzando una advertencia que hiela la sangre y que nos afecta a todos. ¿Estamos preparados para este nuevo nivel de engaño?

Su frase es demoledora: «Con tu voz de un audio de WhatsApp de 3 segundos puedo estafar a toda tu familia». Parece ciencia ficción, pero es la cruda realidad que nos presenta la tecnología actual; la clonación de voz ya no requiere largos discursos, sino fragmentos minúsculos de nuestra habla cotidiana. Este avance, que afecta a la app de mensajería más popular del mundo, abre la puerta a estafas mucho más sofisticadas y difíciles de detectar. La pregunta ya no es si ocurrirá, sino cuándo.

Publicidad

LA TECNOLOGÍA QUE OBRA EL ‘MILAGRO’

YouTube video

El corazón de este engaño reside en los nuevos modelos de inteligencia artificial generativa. No hablamos de robots con voces metálicas, sino de algoritmos que analizan el tono, el ritmo y el timbre de tu voz; estos sistemas aprenden a replicar las particularidades de una persona con una precisión pasmosa en cuestión de segundos. El propio Iván Peña subraya que esta tecnología, antes reservada a laboratorios de élite, ahora es accesible para cualquiera con malas intenciones y un ordenador.

Esos audios que mandas a diario son un tesoro para los estafadores. Cada «hola», «luego te llamo» o «estoy llegando» enviado a través de esta plataforma de Meta es un entrenamiento perfecto para la IA; la naturalidad y espontaneidad de los mensajes de voz cotidianos proporcionan a los delincuentes el material ideal para crear un clon creíble. La advertencia del joven experto es clara: nuestra huella vocal está más expuesta que nunca en las redes que usamos cada minuto.

EL ‘SECUESTRO VIRTUAL’: ASÍ FUNCIONA LA ESTAFA

El método de ataque aprovecha la urgencia y el vínculo familiar, utilizando una llamada falsa generada a partir de un audio de WhatsApp. Fuente: Freepik
El método de ataque aprovecha la urgencia y el vínculo familiar, utilizando una llamada falsa generada a partir de un audio de WhatsApp. Fuente: Freepik

Imagina recibir una llamada de un número desconocido. Al otro lado escuchas la voz de tu hijo, angustiada, pidiendo dinero para una emergencia terrible, como un accidente o un problema legal repentino; el shock inicial y el instinto de protección anulan por completo el pensamiento racional de la víctima. Es el llamado ‘timo del hijo en apuros’, pero elevado a una nueva y terrorífica potencia gracias a la inteligencia artificial que clona la voz.

La clave del éxito del timo es la inmediatez que exigen los delincuentes. No hay tiempo para pensar, solo para actuar y enviar el dinero a través de una transferencia rápida o un Bizum; la credibilidad que aporta una voz clonada es el factor que desactiva las alarmas que sí saltarían con un simple mensaje de texto. Como demostró Iván Peña en su experimento, la estafa se consuma en minutos, antes de que la víctima pueda verificar la situación real.

¿POR QUÉ AHORA? LA DEMOCRATIZACIÓN DEL PELIGRO

YouTube video

Hasta hace muy poco, estas herramientas eran complejas y costosas, al alcance de grandes empresas o servicios de inteligencia. Hoy, la situación ha cambiado radicalmente; existen plataformas online y software de código abierto que permiten clonar una voz con conocimientos técnicos mínimos. La barrera de entrada para convertirse en un ciberdelincuente de este calibre se ha desplomado por completo, multiplicando el riesgo para todos los usuarios de la popular aplicación.

No solo los audios privados son un riesgo, sino cualquier contenido público con nuestra voz. Un vídeo en Instagram, un ‘story’, un pódcast o incluso un mensaje en un grupo numeroso de WhatsApp puede ser la fuente; la sobreexposición digital en la que vivimos ha creado un gigantesco banco de voces a disposición de quien quiera utilizarlo para el mal. La demostración de Iván Peña es un recordatorio de que nuestra identidad digital es cada vez más vulnerable y frágil.

¿ESTAMOS INDEFENSOS? CÓMO PROTEGER A LOS TUYOS

A pesar de la sofisticación del engaño, existen estrategias para protegerse y evitar caer en estas estafas que usan tu voz de WhatsApp. Fuente: Freepik
A pesar de la sofisticación del engaño, existen estrategias para protegerse y evitar caer en estas estafas que usan tu voz de WhatsApp. Fuente: Freepik

La primera barrera es la desconfianza y la calma. Ante una llamada de emergencia que solicita dinero, por muy real que parezca la voz, hay que detenerse a pensar antes de actuar; la recomendación de los expertos en ciberseguridad es colgar y contactar directamente con el familiar a su número de teléfono habitual. Este simple gesto de verificación es la forma más eficaz de desmontar el engaño en el acto y evitar el desastre económico.

Una táctica preventiva que está ganando popularidad es pactar una ‘palabra de seguridad’ con la familia. Se trata de una pregunta o frase secreta que solo vosotros conocéis y que nadie más podría adivinar; en una situación de duda, preguntar por esa clave es un método infalible para confirmar la identidad de la persona al otro lado. Es una solución sencilla, casi analógica, para un problema profundamente tecnológico, como bien expone el caso de WhatsApp.

EL FUTURO YA ESTÁ AQUÍ Y SUENA COMO TÚ

YouTube video

Esta tecnología no se detendrá en la voz. El siguiente paso lógico son las videollamadas falsas en tiempo real, algo que ya es técnicamente posible y que veremos extenderse pronto; la sociedad necesita desarrollar un escepticismo digital saludable y aprender a cuestionar lo que vemos y oímos. La advertencia de Iván Peña sobre la clonación de voz es un aviso para navegantes sobre las tormentas que se avecinan en el océano digital.

La próxima vez que envíes una nota de voz, quizás recuerdes esta historia. No se trata de vivir con miedo, sino de ser conscientes del valor que tiene algo tan nuestro como la voz en un mundo hiperconectado; la mejor defensa siempre será la información y la precaución, especialmente al usar una herramienta tan cotidiana como WhatsApp. Porque en tres segundos puede cambiarlo todo, y saberlo es ya el primer paso para estar a salvo del engaño.


Publicidad