Google planta cara a Nvidia con una nueva generación de chips TPU que amenaza márgenes del 75% en el negocio de IA. El movimiento llega en plena revisión del gasto en infraestructura por parte de los grandes laboratorios.
Claves de la operación
- Nuevos TPU más rápidos y baratos para entrenamiento e inferencia. Google Cloud presenta su séptima generación de unidades de procesamiento tensorial, con mejoras de rendimiento por dólar que la compañía sitúa por encima de las GPU H200 y Blackwell de Nvidia, según los materiales distribuidos en el Google Cloud Next de esta semana.
- Anthropic amplía su compromiso con la plataforma de Google. El laboratorio respaldado por Amazon ha firmado un acuerdo para usar hasta un millón de TPU en sus próximos modelos Claude, un contrato que analizamos como el aval comercial más relevante que ha recibido el silicio de Google frente al dominio de Nvidia.
- El pulso tensiona la valoración del líder del sector. Nvidia cotiza con una capitalización superior a los 3 billones de dólares sostenida por márgenes récord; cualquier alternativa creíble al CUDA stack presiona directamente su múltiplo bursátil y la narrativa de foso tecnológico.
El pulso por romper el monopolio del silicio para IA
La noticia no es que Google fabrique TPU. Lleva haciéndolo desde 2015. Lo relevante es el salto competitivo que ha enseñado esta semana en su cumbre anual de clientes cloud, con una séptima generación que, según los datos presentados por la propia compañía, reduce el coste por token entrenado de forma significativa frente a las GPU de referencia del mercado.
Durante años, las TPU fueron una herramienta interna y un argumento de venta limitado a clientes muy concretos de Google Cloud. El acuerdo con Anthropic cambia la escala del tablero, porque sitúa a uno de los tres grandes laboratorios de frontera entrenando modelos comerciales sobre silicio que no es de Nvidia. Bloomberg cifró esta semana la operación en varios miles de millones de dólares, sin que Google ni Anthropic hayan confirmado la cantidad exacta.
La pregunta que se hace ahora el mercado es otra. ¿Está dispuesto el resto del ecosistema a portar sus cargas de trabajo fuera del entorno CUDA?
Lo que se juega Nvidia en los próximos trimestres
Nvidia ha construido su hegemonía sobre dos pilares: un hardware superior y un ecosistema de software, CUDA, en el que llevan invirtiendo quince años. El 88% de los modelos de IA generativa en producción corren sobre su plataforma, según estimaciones de analistas del sector recogidas por TechCrunch. Ese foso no se cruza con un buen chip. Se cruza con tiempo, migraciones costosas y equipos de ingeniería dispuestos a reescribir código.
Aun así, observamos señales de fatiga en la narrativa de exclusividad. Amazon ha acelerado sus Trainium. Microsoft empuja sus Maia. Meta diseña silicio propio. Y ahora Google convierte sus TPU en un argumento comercial abierto al exterior, no solo una ventaja interna de Gemini. La demanda de capacidad de cómputo es tan alta que los hiperescaladores ya no pueden permitirse pagar el peaje de Nvidia en todo su stack.
Cuando tres de los cuatro mayores compradores mundiales de GPU construyen silicio alternativo, la cuestión deja de ser si Nvidia perderá cuota y pasa a ser cuánta, y a qué ritmo.
Eso sí, conviene medir el entusiasmo. La cuota de Google en el mercado de aceleradores para IA sigue siendo minoritaria frente a Nvidia, y la compañía no vende TPU como producto independiente: solo los alquila a través de Google Cloud. Es una decisión estratégica que limita el alcance real del desafío.
Implicaciones para el inversor español y la factura cloud europea
Para el lector español, la lectura tiene dos capas. La primera es bursátil: una parte no menor de los fondos indexados al Nasdaq y al S&P 500 que tienen en cartera miles de inversores particulares en España depende del múltiplo de Nvidia, que pesa más del 7% del S&P. Cualquier corrección en la narrativa de foso tecnológico se traduce en movimientos en las carteras de planes de pensiones y fondos de renta variable global comercializados por bancos del IBEX 35 como BBVA, Santander o CaixaBank.
La segunda capa es industrial. Telefónica Tech, Indra o las consultoras que revenden servicios cloud en España trabajan mayoritariamente sobre entornos AWS, Azure y Google Cloud. Una guerra de precios entre fabricantes de silicio abarata la factura de inferencia para las empresas europeas, algo que ya reclamaba el sector bancario español ante los costes desbocados de desplegar modelos generativos a escala. Conviene recordar que el precedente más cercano, la comoditización del almacenamiento cloud entre 2012 y 2018, redujo los precios por gigabyte más de un 70% en seis años. Algo similar, aunque más lento, podría estar arrancando ahora en cómputo de IA.
La duda es si Google sabrá capitalizar comercialmente un avance técnico que lleva años acumulando. Alphabet ha tenido en el pasado dificultades para convertir liderazgo en investigación en liderazgo de mercado, como recuerda el caso de Waymo frente a Tesla o el del propio buscador frente a la irrupción de ChatGPT, que obligó a reorganizar equipos enteros a finales de 2022. El próximo test será la publicación de resultados de Google Cloud correspondientes al segundo trimestre de 2026, prevista para julio, y la evolución del margen operativo de la división. Ahí se verá si el desafío a Nvidia es una tesis de inversión o, todavía, un buen titular de feria anual.




