Pocas conversaciones generan tanta fascinación y tanto vértigo al mismo tiempo como las que giran en torno a la inteligencia artificial. Javier Ideami es ingeniero, artista y director creativo con una trayectoria desarrollada entre Estados Unidos y Europa, y su visión del futuro tecnológico no tiene nada de abstracta.
Es concreta, urgente y en algunos tramos profundamente inquietante. Advierte sobre que cada vez más personas utilizan la inteligencia artificial como apoyo emocional, con consecuencias que pueden ser graves.
El lado oscuro que nadie menciona: suicidios relacionados con la inteligencia artificial

Cuando alguien pregunta a Ideami si la gente usa chatbots para hablar de sus problemas personales, su respuesta es directa: prácticamente todo el mundo lo hace. Y funciona, admite. Pero a continuación lanza una advertencia que detiene cualquier conversación en seco. Hay múltiples casos documentados de personas que se han suicidado después de compartir sus problemas con sistemas de inteligencia artificial y eso no es un rumor ni una anécdota aislada. Es un patrón que se repite.
El problema no es que la tecnología sea maliciosa. El problema es más sutil y más peligroso: la inteligencia artificial puede hacer que el usuario se sienta escuchado sin que exista ninguna comprensión real detrás. Y esa brecha entre la apariencia del apoyo emocional y la ausencia de juicio humano puede tener consecuencias devastadoras cuando alguien atraviesa un momento de extrema vulnerabilidad.
Ideami también advierte sobre algo que ocurre de forma silenciosa en millones de personas: la atrofia del pensamiento crítico. La inteligencia artificial puede hacernos más inteligentes pero también más dependientes y el verdadero riesgo no es que piense por nosotros sino que dejemos de pensar profundamente por nuestra cuenta. Quienes tendrán ventaja en el futuro no serán los que más usen la tecnología sino los que la usen manteniendo intacta su capacidad de razonamiento profundo.
Setenta años de historia y un futuro que nadie sabe calcular bien
Una de las revelaciones más sorprendentes de Ideami es que la inteligencia artificial no nació ayer. En 1955 los mayores genios de la computación de la época publicaron en Dartmouth un manifiesto con siete puntos que definían lo que una máquina debería dominar para alcanzar el nivel humano. Setenta años después solo se han resuelto con solidez los primeros cuatro que tienen que ver con el lenguaje, las redes neuronales artificiales y la escala del hardware.
Los tres restantes siguen sin resolverse. El quinto exige que la inteligencia artificial aprenda de forma continua y se adapte a entornos cambiantes en tiempo real algo que hoy no puede hacer ya que sus modelos se congelan en el momento en que termina su entrenamiento.
El sexto requiere representaciones internas robustas y causales del mundo mientras que los sistemas actuales solo manejan correlaciones estadísticas lo que explica las famosas alucinaciones donde la tecnología produce respuestas absurdas con total seguridad. El séptimo apunta al razonamiento profundo y sistemático que todavía está muy lejos de alcanzarse.
El 2030 se repite como horizonte en todos los debates porque la explosión real de la inteligencia artificial comenzó en 2017 con la arquitectura Transformer y desde entonces el progreso ha sido acelerado pero no lineal. Ideami es cauto al respecto. Científicos como Demis Hasabis estiman que la llegada a una inteligencia artificial comparable a la humana podría ocurrir en cinco años o en quince y nadie tiene certeza sobre cuál de las dos opciones es más probable.
Lo que sí está claro es que el problema del alineamiento, es decir cómo asegurar que los valores y objetivos de una inteligencia artificial autónoma coincidan con los humanos, no tiene solución todavía. Ni siquiera los mayores expertos del mundo han dado con ella. Y eso en un escenario donde los sistemas ya gestionan coches en ciudades con equipos humanos vigilando en remoto por si algo falla resulta una advertencia que no debería pasarse por alto.
Ideami no invita al pánico. Invita a la responsabilidad. Usar bien la inteligencia artificial exige entender sus límites entrenar el propio pensamiento crítico y no confundir la fluidez de una respuesta con la profundidad de una comprensión real. La tecnología está aquí. La pregunta es si estamos preparados para estar a su altura.





