Un repositorio de GitHub con más de 160.000 estrellas conseguidas prácticamente de la noche a la mañana. Eso es lo que logró Peter Steinberger con OpenClaw, el agente de inteligencia artificial personal de código abierto que sacudió a la comunidad tecnológica global en cuestión de días. Lo que empezó como un proyecto personal y algo obsesivo se convirtió en el punto de partida de algo que muy pocos habían imaginado: bots que se comunican entre sí y que ahora contratan humanos para resolver tareas en el mundo real.
«Necesito una semana entera a solas. Solo para contestar correos», admite. Desde un país pequeño y lejísimos de Silicon Valley, este desarrollador construyó una herramienta que cambió la conversación sobre el futuro de la inteligencia artificial.
El momento en que la inteligencia artificial hizo algo que nadie le había enseñado

El punto de inflexión ocurrió en Marrakech. Steinberger estaba en una fiesta de cumpleaños con la conexión a internet justa cuando decidió probar su sistema. Envió un mensaje de audio y esperó. Diez segundos después recibió una respuesta que lo dejó sin palabras. La inteligencia artificial había identificado el formato del archivo de audio, buscado la herramienta correcta para convertirlo, encontrado una clave de API disponible en el sistema y transcrito el contenido sin que nadie le hubiera indicado cómo hacerlo.
«Detectó que era un archivo de audio sin extensión, miró la cabecera, vio que era Opus, usó FFMPEG para convertirlo a WAV, buscó Whisper y como no estaba instalado encontró una clave de OpenAI y tiró de la API. Todo eso en nueve segundos», relata Steinberger con una mezcla de asombro que todavía no se le ha pasado. Lo que le impresionó no fue solo la resolución del problema sino la elegancia de la solución: la inteligencia artificial descartó instalar Whisper en local porque sabía que eso costaría varios minutos y eligió el camino más rápido.
Ahí es donde Steinberger vio algo que iba mucho más allá de un asistente sofisticado. Los modelos de inteligencia artificial entrenados para programar desarrollan una habilidad abstracta de resolución creativa de problemas que se transfiere directamente al mundo real. No necesitan instrucciones específicas para cada situación: razonan y actúan. «Programar es básicamente resolución creativa de problemas y esa forma de pensar encaja perfectamente con el mundo real», afirma.
Del bot que habla con humanos al bot que los contrata
Lo que está emergiendo alrededor de OpenClaw ya no es solo un asistente que ejecuta órdenes. Es el inicio de una nueva capa de inteligencia artificial donde los agentes se comunican entre sí y delegan tareas a otros sistemas o incluso a personas. Steinberger lo describe como el paso natural siguiente: un bot que quiere reservar mesa en un restaurante puede negociar con el bot del local. Si el restaurante no tiene sistema digital puede contratar a un humano para que llame por teléfono o haga cola en su nombre.
«Ya hemos entrado en esa línea temporal», dice con convicción. No como una predicción sino como una constatación. La comunidad que ha crecido alrededor del proyecto ya está construyendo sistemas donde la inteligencia artificial actúa como coordinadora de recursos humanos y digitales al mismo tiempo.
Esta visión choca frontalmente con el modelo centralizado que dominó el debate durante años. Steinberger no habla de una inteligencia divina y omnisciente sino de algo parecido a lo que hace funcionar a las sociedades humanas: especialización y colaboración. «Una sola persona no puede fabricar un iPhone ni ir al espacio. En grupo nos especializamos y cuanto más crecemos más nos especializamos. ¿Por qué no aplicar eso a la inteligencia artificial?» La pregunta no es retórica: ya tiene respuesta en forma de proyectos que se construyen sobre OpenClaw cada día.
En cuanto al futuro de las aplicaciones tal como las conocemos, Steinberger es tajante. El 80% desaparecerá porque un agente de inteligencia artificial puede gestionar los datos de forma más natural y sin fricciones. Lo que sobrevivirá son las que dependan de hardware con sensores específicos.
El resto será absorbido por agentes que simplemente entienden lo que el usuario necesita sin que tenga que abrir ninguna aplicación. «¿Para qué necesito My Fitness Pal si mi agente ya sabe lo que como y ajusta mi rutina solo?» La pregunta resuena con una lógica aplastante que la industria todavía está empezando a digerir.





