Google acelera sus chips de IA y amenaza el dominio de Nvidia

La compañía negocia acuerdos con Meta y Anthropic para escalar sus procesadores TPU fuera de su ecosistema. Nvidia, que controla el 80% del mercado, afronta su primer desafío serio en infraestructura de IA generativa.

Google acelera el desarrollo de sus chips de IA propios tras cerrar acuerdos estratégicos con Meta y Anthropic, un movimiento que amenaza directamente el dominio de Nvidia en el mercado de semiconductores para inteligencia artificial. La compañía de Mountain View busca reducir su dependencia del fabricante que controla más del 80% del mercado de aceleradores para centros de datos.

Claves de la operación

  • Google negocia con dos de los mayores consumidores de chips de IA. Los acuerdos con Meta y Anthropic permitirían a la compañía escalar la producción de sus TPU y competir con Nvidia en el mercado externo.
  • Nvidia pierde exclusividad en los grandes contratos cloud. Si Google logra captar clientes que hoy dependen de las GPU H100 y B200, el margen del líder podría resentirse a partir de 2027.
  • El movimiento llega en plena tensión regulatoria en Estados Unidos. Washington ha restringido la exportación de chips avanzados a China, lo que obliga a los hyperscalers a diversificar proveedores y tecnologías.

El pulso por la infraestructura que mueve la IA generativa

El mercado de semiconductores para inteligencia artificial alcanzará los 400.000 millones de dólares en 2027, según estimaciones de Gartner publicadas en marzo de 2026. Nvidia domina hoy ese mercado con una cuota superior al 80%, gracias a su arquitectura CUDA y a la adopción masiva de sus GPU en los centros de datos de Amazon, Microsoft, Google y Meta. Pero ese dominio empieza a mostrar grietas.

Publicidad

Google lleva años desarrollando sus propios procesadores TPU (Tensor Processing Unit), diseñados específicamente para cargas de trabajo de aprendizaje automático. La sexta generación, TPU v6, presentada en el evento Google Cloud Next de abril de 2025, multiplicó por cuatro el rendimiento en inferencia respecto a su predecesora. Ahora, la compañía negocia para que esos chips salgan de sus propios centros de datos y lleguen a terceros.

El acuerdo con Anthropic, la startup fundada por ex empleados de OpenAI y valorada en más de 60.000 millones de dólares tras su última ronda, supone un golpe de efecto. Anthropic ha sido hasta ahora cliente preferente de Amazon Web Services, que invirtió 4.000 millones en la compañía en 2023. Que Google logre atraer a Anthropic hacia su infraestructura propia indica que los TPU empiezan a ser competitivos fuera del ecosistema cerrado de Mountain View.

¿Puede Google competir en precio con Nvidia?

La cuestión no es solo técnica. Nvidia ha construido un foso competitivo basado en su ecosistema de software: CUDA, cuDNN, TensorRT y las librerías asociadas que los desarrolladores llevan una década utilizando. Cambiar de proveedor implica reescribir código, reentrenar modelos y asumir meses de transición.

Google lo sabe. Por eso su estrategia pasa por ofrecer los TPU a precios significativamente inferiores y con integración nativa en su plataforma cloud. Según fuentes del sector consultadas por Bloomberg, los primeros contratos con Meta incluirían descuentos de hasta el 30% respecto a las tarifas equivalentes con Nvidia. El mercado no se lo ha creído del todo: las acciones de Nvidia apenas cedieron un 1,2% en la sesión del viernes.

La batalla por la IA generativa ya no se libra solo en los laboratorios de investigación: se decide en las fábricas de chips y en los contratos de suministro a largo plazo.

Meta, por su parte, tiene incentivos claros para diversificar. La compañía de Mark Zuckerberg ha invertido más de 30.000 millones de dólares en infraestructura de IA solo en 2025, y cualquier reducción de costes en chips repercute directamente en su cuenta de resultados. La empresa ya desarrolla su propio chip de inferencia, MTIA, pero su rendimiento aún no alcanza el de las soluciones de Nvidia.

Implicaciones para el ecosistema y el inversor europeo

Observamos que este movimiento tiene lecturas relevantes para el mercado europeo. Las grandes tecnológicas españolas con exposición a servicios cloud —Telefónica Tech, Indra— dependen de la disponibilidad y el precio de los chips de IA para competir en el mercado de soluciones empresariales. Una guerra de precios entre Google y Nvidia podría abaratar el acceso a capacidad de cómputo, pero también complica la planificación de inversiones a medio plazo.

Indra, por ejemplo, ha apostado por alianzas con hyperscalers para su oferta de defensa e inteligencia artificial aplicada. Si el mercado de chips se fragmenta entre varios proveedores, la compañía tendrá que evaluar qué plataforma ofrece mayor estabilidad de suministro. La experiencia de la crisis de semiconductores de 2021-2022 pesa: entonces, Indra sufrió retrasos en proyectos de defensa por falta de componentes.

Para el inversor, la lectura es doble. Nvidia cotiza a múltiplos exigentes —PER de 35 veces según datos de FactSet a cierre de abril de 2026— que descuentan un dominio prolongado. Cualquier erosión de cuota de mercado puede provocar una corrección significativa. Alphabet, matriz de Google, ofrece una exposición más diversificada: aunque los chips propios ganen peso, la compañía no depende de ellos para generar el grueso de sus ingresos publicitarios.

Eso sí, conviene recordar que Google ha intentado antes competir en hardware con resultados mixtos. El Pixel nunca amenazó a Apple ni a Samsung en móviles. Los Chromebook tienen nicho educativo, pero cuota marginal en el mercado empresarial. Que los TPU logren escalar fuera de su ecosistema nativo es una promesa, no un hecho consumado.

El próximo hito a vigilar será la conferencia de desarrolladores Google I/O, prevista para mayo de 2026, donde se espera que la compañía anuncie detalles de disponibilidad comercial de los TPU v6 para clientes externos. Si los acuerdos con Meta y Anthropic se confirman con cifras, Nvidia tendrá que responder. Y el mercado, ajustar valoraciones.


Publicidad