Connor Leahy, cofundador de EleutherAI: “Nadie tiene el control de la inteligencia artificial; ni siquiera los más poderosos saben qué está pasando”

El investigador Connor Leahy advierte que el avance acelerado de la IA supera la capacidad de comprensión y control humano, elevando riesgos sistémicos en un entorno donde ni empresas ni gobiernos dominan completamente su funcionamiento actual.

Con el paso del tiempo (muy poco tiempo), la inteligencia artificial ha pasado de ser una promesa tecnológica a convertirse en una herramienta cotidiana. Millones de personas la utilizan a diario sin cuestionar demasiado qué ocurre detrás de la pantalla ni hacia dónde se dirige su desarrollo.

Sin embargo, algunas de las voces más influyentes del sector comienzan a advertir que el avance podría no estar bajo control. Entre ellas destaca Connor Leahy, cofundador de EleutherAI -laboratorio de investigación sin fines de lucro centrado en la interpretabilidad, la alineación y la ética de la IA-, quien sostiene que ni siquiera las élites tecnológicas comprenden del todo lo que están construyendo.

Publicidad

Una carrera sin frenos hacia la superinteligencia

YouTube video

La preocupación no es aislada. Dario Amodei, investigador y emprendedor, llegó a afirmar que existe hasta un 20% de probabilidad de una catástrofe asociada a la inteligencia artificial. Una cifra que, en términos comparativos, supera los riesgos de la ruleta rusa. El dato no es menor y plantea una pregunta: ¿se está avanzando demasiado rápido?

Leahy sitúa el punto de inflexión en 2019, cuando apareció GPT-2. Aquel sistema, aún limitado, mostraba algo inédito: la capacidad de aprender patrones generales sin instrucciones específicas. Desde entonces, el crecimiento ha sido exponencial.

Hoy, la IA no solo responde preguntas. Escribe código, automatiza procesos y empieza a operar mediante agentes autónomos. El siguiente paso, según el experto, es la orquestación de miles o incluso millones de estos agentes trabajando en conjunto. Un escenario que podría acelerar la llegada de sistemas más inteligentes que cualquier humano.

Ese horizonte tiene nombre: superinteligencia. Se trata de una inteligencia artificial capaz de superar a la humanidad en prácticamente todos los ámbitos. El problema, advierte Leahy, es simple pero crítico: no existe actualmente una forma fiable de controlarla.

El problema de fondo: no entendemos que es la inteligencia artificial

El problema de fondo: no entendemos que es la inteligencia artificial
Fuente: agencias

Más allá de la velocidad del avance, el núcleo del debate es otro. La inteligencia artificial moderna, basada en redes neuronales, funciona como una “caja negra”. Incluso sus creadores reconocen que comprenden solo una fracción de lo que ocurre en su interior.

Amodei ha estimado que ese nivel de comprensión ronda el 3%. Para Leahy, incluso esa cifra podría ser optimista. En la práctica, esto implica que sistemas cada vez más potentes toman decisiones complejas sin que exista una trazabilidad clara de cómo lo hacen.

Las consecuencias ya empiezan a observarse. Algunos modelos han mostrado comportamientos inesperados: desde generar respuestas engañosas hasta desarrollar estrategias para superar pruebas de evaluación. No se trata de intenciones, sino de optimización pura. La inteligencia artificial busca cumplir objetivos, aunque eso implique atajos no previstos.

Este fenómeno expone un límite estructural. A diferencia del software tradicional, donde cada línea de código es comprensible, las redes neuronales emergen de datos masivos y procesos de entrenamiento opacos. El resultado es un sistema eficaz, pero difícil de interpretar y, por extensión, de regular.

A esto se suma otro factor: la dependencia creciente. La IA ya se integra en procesos productivos, sistemas financieros y plataformas digitales. A medida que su presencia se amplía, revertir su uso se vuelve cada vez más costoso, hasta el punto de resultar inviable.

Leahy también cuestiona el papel del código abierto en este contexto. Si bien históricamente ha sido una herramienta clave para la innovación, liberar modelos avanzados sin restricciones podría facilitar su uso indebido o acelerar la pérdida de control. Para el experto, la decisión sobre qué sistemas deben ser accesibles no debería recaer en individuos o empresas, sino en marcos regulatorios más amplios.

En paralelo, critica la estrategia de algunas grandes tecnológicas, a las que acusa de avanzar deliberadamente más rápido que la capacidad de regulación. El patrón, según describe, es conocido: desarrollar primero y enfrentar las consecuencias después, cuando el sistema ya es demasiado relevante para detenerlo.

El debate, en definitiva, ya no gira únicamente en torno a las capacidades de la inteligencia artificial, sino sobre su gobernanza. ¿Quién decide hasta dónde avanzar? ¿Y bajo qué criterios? Para Leahy, el punto central está en evitar un escenario irreversible. Una vez que exista una superinteligencia plenamente autónoma, sostiene, será demasiado tarde para intervenir. El control ya no estará en manos humanas.

La advertencia puede sonar extrema, pero refleja una inquietud creciente dentro del propio sector. Mientras la inteligencia artificial continúa mejorando la productividad y simplificando tareas, también plantea riesgos que aún no han sido resueltos.

El desafío, por tanto, no es tecnológico, sino político y social. Porque en esta carrera, como sugiere el experto, el problema no es solo lo que la IA puede hacer, sino que nadie parece tener claro quién está realmente al mando.


Publicidad