Nvidia presentará un Chip de Inferencia basado en tecnología de Groq en GTC 2026

Nvidia prepara un anuncio clave para el mercado de la inteligencia artificial: un nuevo chip especializado en inferencia de IA que debutará en la conferencia Nvidia GTC, del 16 al 19 de marzo en San José.

El movimiento llega tras la adquisición de Groq por aproximadamente 20.000 millones de dólares (cerrada el 24 de diciembre de 2025) en la que Nvidia incorporó su propiedad intelectual y a la mayor parte de su equipo técnico; incluido su fundador Jonathan Ross, arquitecto original de la TPU de Google.

Todo apunta a que el nuevo procesador, ampliamente anticipado bajo el nombre LPX, marcará el mayor giro estratégico de Nvidia hacia la fase de inferencia en la cadena de valor de la IA.

El giro estratégico: del entrenamiento a la inferencia

Hasta ahora, Nvidia ha dominado el mercado de entrenamiento de modelos de IA gracias a sus GPUs de alto rendimiento.

Aunque el verdadero crecimiento a largo plazo está en la inferencia, es decir, en la fase en la que los modelos ya entrenados generan respuestas en tiempo real.

Aquí es donde entra la tecnología de Groq.

La ventaja técnica: LPU y SRAM integrada

El corazón del nuevo sistema es la Language Processing Unit (LPU) desarrollada por Groq. A diferencia de las GPU tradicionales, que dependen en gran medida de memoria externa (HBM), la arquitectura de Groq integra SRAM directamente en el chip.

Esto permite:

  • Latencias extremadamente bajas.
  • Flujo de datos determinista.
  • Velocidades de inferencia de entre 500 y 750 tokens por segundo.
  • Frente a los ~100 tokens por segundo típicos en configuraciones GPU estándar.

En aplicaciones como chatbots, asistentes en tiempo real, generación de código o sistemas financieros automatizados; esa diferencia es crítica.

LPX: cómo encaja en el ecosistema Nvidia

Según avances del sector, Nvidia planea presentar un rack LPX que incorporará:

  • 256 LPU por rack.
  • Cuatro veces más que la configuración inicial de 64 LPU.
  • Integración total con el ecosistema CUDA.

El objetivo no es reemplazar las GPUs, sino complementarlas:

  1. Entrenamiento → GPUs Nvidia tradicionales.
  2. Despliegue de modelos → Infraestructura LPX con LPU.
  3. Operación en tiempo real → Inferencia de ultra baja latencia.

Esto permitiría a empresas como OpenAI y otros desarrolladores entrenar y desplegar modelos dentro de un mismo entorno tecnológico, reduciendo fricciones y dependencia de hardware externo.

El mensaje de Jensen Huang

El CEO de Nvidia, Jensen Huang, ha señalado que el nuevo chip “sorprenderá al mundo”. Más allá del marketing, la estrategia es clara:

  • Defender cuota ante hyperscalers que desarrollan chips propios.
  • Reducir la amenaza de silicio personalizado de Amazon, Google y Microsoft.
  • Expandir margen en un segmento de inferencia con enorme crecimiento proyectado.

La adquisición de Groq no fue solo tecnológica, fue defensiva y estratégica.

El mercado no reacciona como se esperaba

Paradójicamente, el anuncio llega en una semana complicada para Nvidia en bolsa.

Resultados recientes:

  • Ingresos trimestrales: 68.130 millones de dólares.
  • Crecimiento interanual: +73%.
  • Proyección Q1: 78.000 millones de dólares.

A pesar de cifras récord, las acciones cayeron aproximadamente un 7% en dos sesiones.

¿Por qué?

  1. Temor a que el gasto en IA se desacelere.
  2. Preocupación por el desarrollo de chips propios por parte de hyperscalers.
  3. Dudas sobre sostenibilidad del ciclo alcista.

El mercado parece exigir no solo crecimiento, sino dominancia estructural a largo plazo.

¿Qué significa LPX para el panorama global de la IA?

Si el rendimiento prometido se confirma, LPX podría:

  • Redefinir la arquitectura estándar de inferencia.
  • Reducir el coste por token generado.
  • Aumentar significativamente la eficiencia energética.
  • Consolidar a Nvidia como proveedor integral: entrenamiento + despliegue.

Además, posiciona a Nvidia frente a:

  • ASIC personalizados.
  • Chips internos de Big Tech.
  • Competidores emergentes en inferencia dedicada.

La clave será la adopción real en centros de datos.