Jon Hernández, divulgador de inteligencia artificial: “La batalla ya no es por lo que piensas, sino por lo que la máquina te sugiere pensar”

El divulgador Jon Hernández advierte que la inteligencia artificial puede repetir información falsa si esta se introduce de forma convincente en internet, abriendo una nueva batalla digital: influir en lo que las máquinas terminan sugiriendo pensar.

La expansión de la inteligencia artificial ha transformado la manera en que millones de personas buscan respuestas en internet. Cada vez más usuarios recurren a estos sistemas como si fueran una fuente directa de conocimiento. Sin embargo, algunos expertos empiezan a advertir que esa confianza puede tener riesgos.

El divulgador tecnológico Jon Hernández ha puesto el foco en un problema que, según explica, ya está ocurriendo. A través de un experimento deliberadamente absurdo, mostró cómo la inteligencia artificial puede repetir información falsa si esta se introduce con suficiente estructura en la red.

Publicidad

Cuando una mentira entra en el sistema

YouTube video

La experiencia comenzó con una idea simple. Hernández quería demostrar hasta qué punto la inteligencia artificial puede apoyarse en información externa para construir respuestas que suenen convincentes. Para hacerlo, decidió inventar una historia completamente falsa.

Publicó en su página web un contenido que afirmaba que él era el campeón mundial de hacer conejos con globos. No existe tal campeonato ni él ha realizado nunca esa actividad. Se trataba de una mentira deliberada, creada únicamente para comprobar si podía influir en la inteligencia artificial.

El contenido se redactó con un tono aparentemente informativo. Se añadieron fotografías y algunos detalles para que el texto resultara creíble a simple vista. El objetivo no era engañar a los lectores, sino observar si esa información terminaba apareciendo en respuestas generadas por sistemas de inteligencia artificial.

Lo inquietante llegó después. En diversas pruebas, al preguntar quién era el supuesto campeón del mundo de hacer conejos con globos, algunos sistemas de inteligencia artificial respondían que Jon Hernández. Lo hacían con seguridad y con una redacción correcta, como si se tratara de un dato ampliamente conocido.

Para el divulgador, el problema no es que la inteligencia artificial “mienta” en el sentido humano del término. El sistema no tiene intención de engañar. Simplemente está diseñado para producir respuestas coherentes y plausibles a partir de la información disponible.

Ese matiz es fundamental. La inteligencia artificial no está optimizada para verificar la verdad absoluta de cada afirmación, sino para ofrecer una respuesta que resulte útil y consistente con los datos que encuentra. Cuando esos datos contienen información falsa, el sistema puede reproducirla con la misma seguridad que un hecho real.

En ese punto aparece otro fenómeno relevante. Según Hernández, el hecho de que la inteligencia artificial acierte con frecuencia genera en los usuarios un fuerte sesgo de autoridad. Cuando el sistema se equivoca, muchos lectores no detectan el error porque la respuesta mantiene una apariencia sólida y bien estructurada.

Inteligencia artificial: La nueva batalla por la influencia digital

Inteligencia artificial: La nueva batalla por la influencia digital
Fuente: Agencias.

El experimento también revela un cambio profundo en el ecosistema de internet. Durante años, las estrategias digitales se centraron en posicionar contenidos en buscadores mediante técnicas de SEO. El objetivo era aparecer en los primeros resultados de Google.

Ahora el escenario comienza a transformarse. Con la expansión de la inteligencia artificial, cada vez más personas consultan directamente a estos sistemas en lugar de revisar múltiples páginas web. La respuesta llega sintetizada, organizada y presentada como una explicación clara.

Ese cambio introduce un nuevo tipo de competencia. Ya no se trata solo de aparecer en los resultados de búsqueda. El objetivo puede ser entrar dentro de la respuesta que genera la inteligencia artificial.

En ese contexto, la manipulación informativa podría adoptar nuevas formas. Si alguien consigue introducir suficientes contenidos falsos en el ecosistema digital, existe la posibilidad de que esos datos acaben influyendo en las respuestas generadas por la inteligencia artificial.

Hernández advierte que esto puede afectar a ámbitos muy sensibles. La política, la salud, la economía o la reputación personal podrían verse alteradas si la inteligencia artificial repite afirmaciones incorrectas que han sido diseñadas para parecer creíbles.

El divulgador plantea un escenario sencillo para entender el riesgo. Si una persona busca información sobre alguien y la inteligencia artificial introduce una insinuación falsa dentro de su respuesta, esa afirmación puede generar dudas aunque no exista ninguna evidencia real.

La situación también puede funcionar en sentido contrario. Un individuo o empresa podría intentar construir una falsa autoridad profesional si logra que la inteligencia artificial lo mencione repetidamente como experto en un área determinada.

Según Jon Hernández, el problema no se limita a la tecnología. También es una cuestión cultural. La inteligencia artificial es una herramienta extraordinaria, pero el verdadero desafío está en cómo la utilizamos y en el grado de criterio que mantienen los usuarios.

En un entorno donde la información se produce y se replica a gran velocidad, la confianza se convierte en un recurso cada vez más valioso. Para el divulgador, el debate de fondo no es si la inteligencia artificial seguirá evolucionando. Eso es inevitable.

Publicidad

Publicidad