Pau Garcia Milá, experto en inteligencia artificial: “La IA no debería ser tu novia; si dependes de ella, te tiene secuestrado”

El experto Pau Garcia Milá alerta sobre los riesgos invisibles de la Inteligencia Artificial: dependencia emocional, manipulación y fraudes avanzados en un entorno donde la tecnología avanza más rápido que la regulación y la conciencia social.

La inteligencia artificial no es una promesa del futuro, sino una realidad que transforma cada rincón de la vida cotidiana. Pau Garcia Milá, experto barcelonés con años de investigación en el sector, advierte sobre los riesgos que nadie quiere ver: la dependencia emocional, el fraude sofisticado y la velocidad vertiginosa de una tecnología que avanza sin frenos ni fronteras.

Cuando alguien con tres hijos y más de una década investigando los límites de la inteligencia artificial habla, conviene prestar mucha atención. García Milá dirige un centro de investigación dedicado a imaginar qué puede salir mal cuando la IA se desprende de sus capas de ética y seguridad.

Publicidad

El peligro de enamorarse de la inteligencia artificial: dependencia, chantaje y privacidad en juego

El peligro de enamorarse de la inteligencia artificial: dependencia, chantaje y privacidad en juego
Fuente: agencias

Uno de los argumentos más provocadores que lanza García Milá tiene que ver con el uso afectivo de la inteligencia artificial. Para él, convertir a una IA en psicólogo, confidente o pareja sentimental es una trampa con fecha de vencimiento. «Si tú te enamoras de mi software, te tengo secuestrado», afirma.

La lógica es simple y demoledora: quien controla la tecnología controla también la relación. Subir una tarifa mensual de cien a mil euros se convierte en una decisión trivial cuando el usuario ha depositado en esa herramienta su bienestar emocional. Matar a la novia virtual, en ese contexto, es solo cuestión de voluntad comercial.

La privacidad es otro flanco desprotegido. García Milá señala que la gente entrega sus contraseñas bancarias, sus agendas y sus datos más íntimos a sistemas de inteligencia artificial con una alegría que debería inquietar. Él mismo relata cómo un agente de IA completó por él un curso de formación online, módulo a módulo, y obtuvo una matrícula de honor en el examen final sin haber visto un solo vídeo.

El sistema de méritos del empleo público español, que incluye plazas de médicos, docentes y jueces, descansa sobre logros que la inteligencia artificial puede replicar o fabricar en una noche. Nadie, por ahora, sabe distinguirlos.

Clonar una voz en nueve segundos: cuando la estafa sofisticada llama a tu puerta

YouTube video

La demostración más impactante de la conversación con García Milá no viene de un gráfico ni de un informe técnico, sino de un experimento en directo. Con apenas catorce segundos de audio grabados con el micrófono de un iPhone, clonó la voz de un voluntario y la hizo decir lo que quiso. Hace cuatro años, ese proceso requería ochocientas horas de material sonoro y meses de trabajo. Hoy, la inteligencia artificial lo resuelve en segundos y el resultado es indistinguible del original.

Las consecuencias prácticas son escalofriantes. Él mismo describe cómo grupos criminales combinan bases de datos filtradas con voces clonadas para llamar a familiares en nombre de sus seres queridos, pedir transferencias urgentes y aprovechar el instinto protector de padres y madres.

El experimento que realizó con cuatro colegios de Barcelona lo ilustra con crudeza: llamaron a recepción usando voces clonadas de padres reales y los cuatro centros bajaron a los menores una hora antes del horario de salida, listos para ser recogidos por un desconocido.

La inteligencia artificial, insiste García Milá, también está redibujando los límites de la verdad jurídica. En un ejercicio con una fiscal de violencia de género en Barcelona, presentó dos audios, uno real y uno generado con inteligencia artificial, y el perito forense no pudo determinar cuál era falso.

En procedimientos de separación, eso significa que cualquiera puede fabricar una prueba de audio incriminatoria. La fiscal reconoció que, ante la duda, priorizaría la seguridad del menor. Una decisión comprensible, pero que abre una puerta peligrosa a la manipulación judicial.

Lo que García Milá asegura que más allá de los casos concretos, es que la velocidad de evolución de la inteligencia artificial ya no se mide en porcentajes anuales sino en saltos de escala. Si antes la tecnología avanzaba al doble cada dos años, ahora lo hace diez veces más rápido cada doce meses. Ningún país quiere frenar esa carrera porque hacerlo equivale a ceder terreno al rival. Y en ese contexto, la responsabilidad de entender los riesgos recae, por ahora, en cada usuario.


Publicidad