Según los informes, la memoria HBM4 de próxima generación ha aumentado significativamente el ancho de banda

Según los informes, la memoria HBM4 de próxima generación ha aumentado significativamente el ancho de banda


Según DigiTimes, el HBM4 tiene el potencial de alcanzar tamaños de bus de memoria de hasta 2048 bits, lo que tiene un enorme potencial para las GPU y el mercado de la IA.

Se espera que en el futuro las GPUs de IA generen un gran rendimiento de HPC, ya que, según se informa, Samsung y SK Hynix están trabajando en «2000 puertos I/O» para la HBM4

DigiTimes, citando a Seoul Economy, afirma que la memoria HBM de próxima generación podría experimentar un aumento significativo en el ancho de banda de la memoria, con un aumento previsto del doble. Esto tiene un impacto considerable en el sector y, desde esta perspectiva, es importante tener en cuenta que la memoria de HBM no ha registrado ninguna mejora en la interfaz de memoria desde 2015.

Si bien esta evolución parece fantástica sobre el papel, hay que tener en cuenta muchas dudas, sobre todo en lo que respecta a la forma en que los fabricantes van a controlar la velocidad de transferencia de datos y a las modificaciones necesarias en las distintas pilas de memoria. El sector ha sido testigo recientemente de la integración de la HBM3e con las nuevas GPU de IA, que tienen una capacidad de ancho de banda de hasta 5 Tb/s por chip, lo que ha supuesto notables mejoras de rendimiento en los populares H100 AI GT de Nvidia.

SK hynix Lands In NVIDIA's Request To Sample Next-Gen HBM3E DRAM For Future AI GPUs 1

Según DigiTimes, Samsung y SK Hynix están optando por integrar puertos de «2000 I/O» en su estándar de memoria HBM4 de próxima generación. En pocas palabras, esto significa que el proceso admitirá LLM mucho más grandes y tendrá capacidades computacionales mucho más altas, lo cual es importante para el enfoque de próxima generación del desarrollo de GenAI. Con el tiempo iremos al grano, a pesar de que el informe no ha revelado ningún avance oficial. Sin embargo, por el momento, el hito aún está lejos, y hablaremos de por qué más adelante.

Los gigantes de la tecnología están actualmente inmersos en un cambio de paradigma en la industria de la IA, ya que las capacidades de GenAI se incorporan a las aplicaciones de consumo. Los fabricantes de memorias se centran actualmente en proporcionar un suministro adecuado para responder a la enorme demanda de GPU de IA, que requieren HBM como componente principal. No me malinterpreten, pronto habrá innovaciones en el mercado de HBM, pero no hasta dentro de unos años, a menos que haya algo que se esté «cocinando» y que aún no sepamos.