The Economist alerta: la IA se queda sin chips y energia

Las grandes tecnológicas se enfrentan a un cuello de botella inesperado: faltan GPU, transformadores y energía. The Economist disecciona por qué construir capacidad lleva años y qué papel juegan Nvidia, TSMC y la Terafab de Musk.

La promesa de una inteligencia artificial cada vez más rápida, barata y omnipresente choca con un muro físico. Las grandes tecnológicas están topándose con una escasez real de chips, energía y hasta de transformadores eléctricos para alimentar el boom. Y la cosa va para largo.

Cuando la demanda de IA supera al hardware disponible

Lo que más me ha llamado la atención del reportaje es el detalle con el que la cabecera británica describe cómo las propias compañías están racionando el acceso a sus herramientas. Anthropic, según explican, ha modificado las condiciones de servicio para desincentivar el uso intensivo en horas punta. Y OpenAI llegó a apagar Sora, su generador de vídeo, simplemente porque prefería destinar esa potencia de cálculo a productos más rentables.

Publicidad

El cuello de botella, recuerdan en el vídeo, son las GPU, esos procesadores gráficos que se conectan por miles dentro de enormes centros de datos a través de redes ópticas. Cada vez que un usuario lanza una consulta a un modelo —lo que en el sector llaman inferencia— consume una porción de esa capacidad. Y la demanda crece de forma exponencial, mientras que la oferta de potencia avanza a paso de tortuga.

700.000 millones de dólares para construir más rápido

La respuesta de la industria, según el análisis, es la previsible: tirar de chequera. The Economist cifra en cerca de 700.000 millones de dólares el gasto previsto este año por los cinco mayores proveedores cloud estadounidenses —Amazon, Meta y Microsoft entre ellos— en levantar nuevos centros de datos. A esa cifra se suman los desembolsos de Anthropic y OpenAI, que firman acuerdos millonarios para asegurarse cómputo.

El presentador de la pieza lo resume con una frase que se le queda a uno grabada: «build, build, build». Construir, construir y construir más. Pero eso requiere tiempo, y bastante. Muchos proyectos en Estados Unidos están encontrando oposición vecinal por el consumo de electricidad, suelo y agua, lo que retrasa los permisos. La capacidad llegará, sí, pero no este trimestre ni el siguiente.

El problema oculto: faltan transformadores y conmutadores

Aquí viene el dato que más me ha sorprendido. La industria, dice The Economist, se está quedando sin equipamiento eléctrico clásico —transformadores, conmutadores— con plazos de entrega que oscilan entre tres y cinco años. Hablamos de aparatos de los que nadie se acuerda hasta que faltan, y ahora mismo faltan.

A eso se suma la escasez de chips de última generación. Algunas empresas están recurriendo a GPU de hace dos o tres años, algo casi inaudito en un sector donde el hardware envejece a velocidad de vértigo.

Hay una desconexión fundamental entre el ritmo del software, que mejora cada pocos meses, y el del hardware, que necesita entre dos y cuatro años para levantar capacidad nueva.

— The Economist

Nvidia y TSMC, los dos cuellos de botella inevitables

El análisis identifica dos puntos críticos en la cadena. El primero es Nvidia, que controla más de dos tercios de la potencia mundial de procesamiento para IA y cuyas tarjetas están sencillamente agotadas. El segundo es TSMC, la fundición taiwanesa que fabrica la mayoría de esos chips. The Economist apunta que la compañía ampliará su CapEx en 60.000 millones de dólares este año, una cifra enorme que aun así se queda corta frente a lo que reclama el sector.

La frustración entre los fabricantes de modelos es evidente. Sam Altman, fundador de OpenAI, ha pedido públicamente a TSMC que acelere. Y Elon Musk ha ido un paso más allá: planea levantar su propia fábrica, bautizada como Terafab, con la ambición de que en 2030 supere por sí sola la capacidad de todas las fundiciones actuales juntas. Algunos analistas calculan que el proyecto requeriría entre cinco y trece billones de dólares en inversión, una cifra que el propio reportaje considera difícilmente alcanzable, pero que ilustra hasta qué punto la situación desespera al sector.

Qué significa todo esto para el usuario y para los precios

Aquí entra la lectura editorial. Llevamos años acostumbrados a que el coste de inferencia caiga cada seis meses. Esa caída, recuerdan en el vídeo, se ha sostenido en gran medida porque las compañías están quemando caja para ganar cuota de mercado. Si la escasez se prolonga, la presión para subir precios se vuelve casi inevitable, y eso podría frenar la adopción de la IA en empresas y hogares.

Hay quien lo ve incluso como algo positivo: una especie de freno natural a un gasto que muchos consideran imprudente. Otros temen que si el problema se enquista, ralentizará la difusión real de estas herramientas justo cuando empezaban a colarse en los flujos de trabajo cotidianos. La paradoja es interesante: la tecnología que prometía romper todos los límites se topa, al final, con la realidad mundana del cobre, el silicio y la red eléctrica.

¿Estamos ante una pausa saludable o ante el primer aviso serio de que la curva de la IA no es infinita? La respuesta, probablemente, llegará antes que los transformadores que faltan.

Puedes ver el análisis completo en el vídeo original de The Economist en YouTube.


Publicidad