Samsung inicia los Envíos de Memoria HBM4 a Nvidia y AMD: un hito clave de la IA

Samsung Electronics ha dado un paso crucial en la carrera por la memoria de alto ancho de banda (HBM) para inteligencia artificial, anunciando el inicio de la producción en masa de sus chips HBM4 de sexta generación.

Los envíos a gigantes tecnológicos como Nvidia y AMD están programados para el próximo mes, consolidando a Samsung como un competidor serio frente a SK Hynix, su rival surcoreano.

Durante la llamada de resultados del cuarto trimestre de 2025, los ejecutivos de Samsung destacaron que sus chips HBM4 alcanzan velocidades de 11.7 gigabits por segundo, situándose entre los más rápidos de la industria.

La eficiencia energética también se ha incrementado aproximadamente un 40% en comparación con la generación HBM3E, lo que es clave para los centros de datos de IA que demandan memoria de alto rendimiento y bajo consumo energético.

Carrera por el Dominio del Mercado HBM para la Inteligencia Artificial

La memoria HBM4 es un componente crítico para acelerar la computación de inteligencia artificial, especialmente en aplicaciones de modelos de lenguaje y aprendizaje profundo que requieren un flujo masivo de datos entre chips de memoria y procesadores gráficos.

Actualmente, SK Hynix domina el 55% del mercado global de HBM, mientras que Samsung se mantiene con un 27% de cuota. La llegada de HBM4 representa una oportunidad para que Samsung recupere terreno, y sus ejecutivos esperan que las ventas de HBM se tripliquen en 2026.

Kim Jae-june, vicepresidente ejecutivo de la división de memoria de Samsung, afirmó:

“Desde el principio, fijamos nuestra mirada más allá de las especificaciones convencionales. A pesar de los mayores requisitos de rendimiento de los clientes, entregamos muestras sin ninguna modificación de diseño”.

Tecnología de punta en HBM4

El HBM4 de Samsung combina DRAM 1c de sexta generación basada en 10 nanómetros con un chip lógico fabricado en 4 nm, lo que coloca a la compañía un paso adelante frente a sus competidores. Entre las mejoras clave se incluyen:

  • Mayor ancho de banda: 11.7 Gb/s por pin, ideal para aceleradores de IA de próxima generación.
  • Eficiencia energética mejorada: hasta 40% más eficiente que HBM3E.
  • Compatibilidad sin rediseño: probado y aprobado por Nvidia y AMD sin ajustes adicionales.

Estas características permiten que la memoria HBM4 alimente GPU de alto rendimiento y sistemas de centros de datos con menor consumo eléctrico y mayor velocidad de procesamiento, fundamentales para entrenamiento de modelos de IA gigantescos.

Impacto en la industria de IA y centros de datos

Los chips HBM4 de Samsung se integrarán en los aceleradores de IA Rubin de Nvidia y plataformas equivalentes de AMD. Estos chips son esenciales para tareas que requieren:

  • Procesamiento de grandes volúmenes de datos
  • Entrenamiento de modelos LLM y multimodales
  • Inferencia de alta velocidad en tiempo real

Se espera que los primeros envíos de Samsung se utilicen en demos de rendimiento de la plataforma Rubin de Nvidia antes de la conferencia GTC 2026 en marzo, con un suministro a gran escala proyectado para junio, sujeto a la programación de producción de los clientes.

Competencia y resultados financieros récord

El anuncio llega tras reportes financieros históricos para Samsung y SK Hynix:

  • Samsung: ganancia operativa de 20.1 billones de wones en el cuarto trimestre, más del triple interanual.
  • SK Hynix: utilidad operativa anual de 47.2 billones de wones en 2025, superando por primera vez la combinación de ingresos de las divisiones de smartphones y electrodomésticos de Samsung.

Los analistas proyectan que estas dos compañías surcoreanas controlarán aproximadamente el 80% del mercado global de HBM a medida que la demanda de memoria para IA siga creciendo por encima de la oferta. JP Morgan estima que los envíos de bits HBM de Samsung aumentarán más del 128% en 2026 respecto a 2025.

SK Hynix vs Samsung: una batalla tecnológica

SK Hynix ha defendido su liderazgo en el mercado y se proyecta que capture aproximadamente el 70% de los pedidos de HBM4 para los aceleradores Rubin de Nvidia, basándose en su éxito con generaciones anteriores.

Sin embargo, Samsung ha logrado posicionar su HBM4 como una alternativa competitiva y avanzada, con ventajas en:

  • Proceso de fabricación de 10 nm y 4 nm
  • Eficiencia energética superior
  • Compatibilidad lista para producción sin rediseños

La competencia entre ambos gigantes surcoreanos es crítica, ya que la demanda global de memoria de alto ancho de banda para IA crece exponencialmente, impulsada por la adopción de modelos LLM, servicios de nube y plataformas de computación avanzada.

Perspectiva global y futuro de HBM4

El HBM4 no solo fortalece la posición de Samsung y Nvidia/AMD en centros de datos y GPUs de alto rendimiento, sino que también:

  • Reducirá cuellos de botella en IA: más velocidad y ancho de banda por pin permite entrenar modelos más grandes en menor tiempo.
  • Favorece la eficiencia energética: crítico para reducir costos operativos en data centers globales.
  • Acelera innovación en supercomputación: ideal para entornos HPC y computación científica.

Se espera que la memoria HBM4 se convierta en un estándar para aceleradores de IA de próxima generación, marcando una nueva etapa en la carrera tecnológica por dominar el hardware de inteligencia artificial.