Guerra de chips de IA 2025: Nvidia, AMD y la carrera por dominar los centros de datos

Si 2023 fue el año en el que todo el mundo descubrió ChatGPT, 2024 y 2025 son los años en los que el mundo se da cuenta de que la verdadera batalla es la batalla por los chips. Ya no basta con “solo” crear un modelo grande. Hay que entrenarlo, mantenerlo y servirlo a millones de usuarios, y eso significa cientos de miles de GPU, toneladas de memoria y una red muy seria que conecte todo.

En el centro de esta guerra están:

  • Nvidia, que sigue llevando la corona en el mercado de GPU para IA,
  • AMD, que intenta saltarse varios escalones de golpe,
  • Arm, que empuja con fuerza hacia los centros de datos de IA gracias a una nueva alianza con Nvidia,
  • y los grandes proveedores de nube (Google, Amazon, Meta, Microsoft, OpenAI) que desarrollan sus propios chips de IA personalizados para depender menos de Nvidia.

Este artículo es un pequeño “mapa de batalla”: qué está pasando, por qué es importante y cómo afecta a los gamers y a los pequeños equipos de IA.

Ilustración de tarjetas gráficas de Nvidia y AMD dentro de un centro de datos de IA

La noticia de hardware más importante de estos días viene de Nvidia y Arm. Arm se ha unido oficialmente al ecosistema NVLink Fusion, lo que significa que sus diseños de CPU para servidores Neoverse pueden conectarse directamente a las GPU de Nvidia sin el clásico cuello de botella de PCIe.

En la práctica esto implica:

  • Arm puede ofrecer diseños de CPU con un interconector NVLink Fusion integrado que se enchufa directamente a los aceleradores de IA de Nvidia.
  • Las GPU y las CPU comparten memoria de forma mucho más eficiente, como si fuera un único gran pool, en lugar de pasar por una capa PCIe más lenta.
  • Los hyperscalers (AWS, Google, Microsoft, Meta…) pueden construir servidores Arm personalizados adaptados específicamente a cargas de trabajo de IA con Nvidia.

El resultado: Nvidia ya no vende “solo” tarjetas gráficas, sino racks de IA y plataformas de superchips completas, mientras que Arm gana un argumento muy fuerte para convertir a Neoverse en la base de la próxima generación de centros de datos.

En otras palabras, es una alianza win–win: Nvidia amplía su dominio y Arm entra a los centros de datos de IA por la puerta grande.

AMD FSR Redstone: reescalado con IA como arma para gamers

Mientras Nvidia construye infraestructura para centros de datos, AMD intenta luchar en dos frentes a la vez: en los servidores y en casa, en las pantallas de los gamers.

La novedad más fresca para los usuarios es FSR Redstone, la siguiente generación de FidelityFX Super Resolution. AMD ha confirmado que Redstone llegará el 10 de diciembre de 2025, con soporte inicial en la nueva serie Radeon RX 9000.

A diferencia de versiones anteriores de FSR, Redstone apuesta por completo por el aprendizaje automático:

  • Reescalado con IA: la imagen se renderiza a menor resolución y luego se reescala a 4K (o más) mediante un modelo de ML, con mucha mejor calidad que el reescalado clásico.
  • Generación de fotogramas con IA: inserta fotogramas “sintéticos” entre fotogramas reales, aumentando los FPS sin cargar la GPU en la misma proporción.
  • Neural Radiance Caching: almacenamiento inteligente de iluminación indirecta y reflejos para que el path tracing sea utilizable en equipos “normales”.
  • Ray Regeneration: un denoiser basado en IA que limpia el ruido de la iluminación con ray tracing antes de reescalar la imagen.

El primer gran título que recibe soporte de Redstone es Call of Duty: Black Ops 7, donde Ray Regeneration ya demuestra cuánto ruido puede eliminar en reflejos y sombras.

Para los gamers esto significa:

  • más FPS sin destrozar la calidad de imagen,
  • mejor iluminación con ray tracing en tarjetas AMD, que hasta ahora solían ir por detrás de la serie RTX de Nvidia,
  • una “vida útil” potencialmente más larga para la GPU: con buen reescalado y frame generation, una tarjeta de gama media puede mover juegos que antes parecían reservados a la gama alta.

Chips de IA personalizados: cuando la nube dice “lo construimos nosotros”

Mientras Nvidia y AMD libran una batalla pública, en segundo plano ocurre otra revolución: los gigantes de la nube construyen sus propios chips de IA para reducir costes y su dependencia de Nvidia.

Algunos actores clave:

  • Google lleva años utilizando sus propios aceleradores TPU (Tensor Processing Unit), que impulsan Gemini y una gran parte de los servicios de Google (Search, Photos, Maps).
  • Amazon AWS dispone de chips Inferentia y Trainium, optimizados para inferencia y entrenamiento de modelos grandes con un coste por token más bajo.
  • Meta desarrolla su propio MTIA (Meta Training and Inference Accelerator) y compra start-ups de chips para acelerar su estrategia de silicio personalizado.
  • OpenAI ha firmado una alianza plurianual con Broadcom con el objetivo de disponer, para 2029, de una enorme capacidad de aceleradores de IA personalizados diseñados específicamente para sus modelos.

El mensaje es claro: las empresas de IA más grandes quieren:

  • controlar toda la pila, desde el silicio hasta el modelo,
  • optimizar rendimiento y eficiencia exactamente para sus cargas de trabajo,
  • y, por supuesto, pagar menos que comprando GPU de terceros con margen de terceros.

Para Nvidia esto es un desafío serio. Sigue dominando el ecosistema de software (CUDA, cuDNN, TensorRT), pero cada vez más cómputo se mueve a aceleradores ASIC que nunca se ven como una “tarjeta gráfica” clásica.

¿Qué significa todo esto para gamers, desarrolladores y pequeños equipos?

Vale, todo suena enorme, pero ¿dónde estamos nosotros en esta historia?

Para gamers

La buena noticia: una guerra entre Nvidia y AMD casi siempre significa mejor tecnología por el mismo dinero (o parecido).

  • Nvidia seguirá impulsando DLSS y sus soluciones de generación de fotogramas.
  • AMD, con Redstone, tendrá que responder de forma agresiva, así que probablemente veremos:
    • más juegos con soporte para FSR/DLSS,
    • mejor calidad de imagen al usar reescalado,
    • una posibilidad real de que las tarjetas de gama media se vean “premium” con un buen pipeline de IA.

Si no actualizas de GPU cada año, el reescalado con IA básicamente le regala a tu tarjeta actual unos cuantos años extra de juego decente.

Para pequeños equipos de IA y desarrolladores indie

Aquí el panorama es un poco más complejo:

  • Nvidia sigue teniendo el ecosistema de desarrollo más cómodo: la mayoría de bibliotecas de ML se optimizan primero para CUDA.
  • Al mismo tiempo, los proveedores de nube empujan sus propios chips (TPU, Trainium, MTIA…), así que el futuro probablemente será multiplataforma.

Consecuencias prácticas:

  • será cada vez más importante usar frameworks y herramientas que puedan ejecutarse en varios backends (GPU, TPU, ASIC),
  • los pequeños equipos elegirán plataforma por precio y disponibilidad: a veces será Nvidia, a veces Trainium, a veces TPU,
  • casarse demasiado con un solo proveedor puede convertirse en un error caro.

Para inversores y la foto global

La guerra de chips de IA es uno de los grandes motores detrás de la posible burbuja de la IA:

  • las empresas están invirtiendo cientos de miles de millones de dólares en centros de datos, chips y electricidad,
  • si parte de esa capacidad acaba sobrando, alguien se quedará con una infraestructura muy cara y poco trabajo real.

Por otro lado, la demanda de cómputo para IA probablemente no desaparecerá; simplemente se redistribuirá entre GPU, ASIC y nuevos tipos de aceleradores. La verdadera pregunta es quién sobrevivirá a esta carrera, no si la IA va a desaparecer.

Conclusión

El año 2025 deja muy claro que la verdadera guerra de la IA es la guerra por los chips:

  • Nvidia, gracias a su alianza con Arm y a NVLink Fusion, convierte sus GPU en la columna vertebral de la próxima generación de centros de datos de IA.
  • AMD, con FSR Redstone, intenta recortar distancias en el segmento gaming y demostrar que la IA no es solo cosa de salas de servidores, sino también de PC domésticos.
  • Los gigantes de la nube como Google, AWS, Meta y OpenAI desarrollan sus propios chips de IA para reducir dependencia, recortar costes y ganar control total sobre el rendimiento.

Para los usuarios y los pequeños equipos esto se traduce en más opciones, mejor rendimiento y, seguramente, más confusión a la hora de elegir hardware y proveedor de nube. En InfoHelm Tech seguiremos esta historia con pruebas, guías de compra de GPU para proyectos de IA y análisis sobre cómo la “guerra de chips de IA” se traduce en el mundo real, desde los setups gaming hasta los pequeños startups.