Durante su Memory Tech Day de 2023, Samsung presentó formalmente sus tecnologías de memoria de próxima generación, incluidas la HBM3E, la GDDR7, la LPDDR5x CAMM2 y más.
Samsung lanza tecnologías de memoria de próxima generación, como la HBM3E, la GDDR7, la LPDDR5x CAMM2 y más
Para las aplicaciones de inteligencia artificial, juegos y centros de datos de próxima generación, ya se han actualizado los códigos de memoria HBM3E «Shine Bolt» y GDDR7 de Samsung. Estos dos eventos pueden considerarse los dos más importantes del Memory Tech Day de 2023, pero Samsung, sin duda, tiene mucho más por delante.
Memoria «Shinebolt» para inteligencia artificial y centros de datos Samsung HBM3E
Samsung ha presentado hoy su DRAM HBM3E de próxima generación, denominada Shinebolt, basándose en su éxito en la comercialización del primer HBI2 del mercado y estableciendo el mercado de la computación de alto rendimiento (HPC) en 2016. Las aplicaciones de IA de próxima generación contarán con la tecnología Shinebolt de Samsung, lo que aumentará el coste total de propiedad (TCO) y acelerará el aprendizaje y la inferencia de modelos de IA en el centro de datos.

El HBM3E tiene una velocidad extraordinaria de 9,8 gigabits por segundo (Gbps) por pin, lo que le permite alcanzar velocidades de transferencia de más de 1,2 terabytes (Tbps). Samsung ha optimizado su tecnología de película no conductora (NCF) para cerrar los huecos entre las capas de los chips y maximizar la conductividad térmica, a fin de permitir el apilamiento de capas más altas y mejorar las características térmicas. Se están enviando muestras de Shinebolt a los clientes, y los productos HBM3 8H y 12H de Samsung se producen actualmente en grandes cantidades.
La empresa pretende ofrecer un servicio personalizado llave en mano que combine la próxima generación de HBM, tecnologías de embalaje de vanguardia y ofertas de fundición, al tiempo que aprovecha su posición como proveedor líder de soluciones de semiconductores.
Comparación de las especificaciones de las memorias de HBM
DRAM | HBM1 | HBM2 | HBM2e | HBM3 | HBM3 de segunda generación | HBM4 (HBMnext) |
---|---|---|---|---|---|---|
Interfaz de bus I/O | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
(I/O) Captura previa | 2 | 2 | 2 | 2 | 2 | 2 |
Ancho máximo | 128 GB/s | 256 GB/s | 460,8 GB/s. | 819,2 GB/s | 1,2 Tb/s | De 1,5 a 2,0 TB/s |
Pila de circuitos integrados DRAM | 4 | 8 | 8 | 12 | 8-12 | 8-12 |
Máxima eficacia | 4 GB | 8 GB | 16 GB | 24 GB | 24 a 36 GB | 36 – 64 GB |
tRC | 48ns | 45ns | 45ns | TBA | TBA | TBA |
tCCD | 2 ns (= 1 cK) | 2 ns (= 1 cK) | 2 ns (= 1 cK) | TBA | TBA | TBA |
VPP | VPP externo | VPP externo | VPP externo | VPP externo | VPP externo | TBA |
VDD | 1.2V | 1.2V | 1.2V | TBA | TBA | TBA |
Ejecución de comandos | comando dual | comando dual | comando dual | comando dual | comando dual | comando dual |
32 Gbps y 32 GB de DRAM en la GDDR7 de Samsung para gráficos de juegos de próxima generación
La DRAM DDR5 de 32 GB, que tiene la mayor capacidad del mercado, la primera GDDR7 de 64 Gbps de la industria y la PBSSD a escala de petabytes recibieron una gran atención en el evento. Estos productos también proporcionan un aumento significativo de la capacidad de almacenamiento para las aplicaciones de servidor.
En comparación con la DRAM GDDR6 de 24 Gbps más rápida de la actualidad, que puede soportar hasta 16 Gb de capacidad, Samsung afirma que la nueva memoria aumentará el rendimiento en un 40% y mejorará la eficiencia energética en un 20%. Los primeros productos alcanzarán un ancho de banda de hasta 1,5 Tb/s, lo que se logrará con una solución de interfaz de bus de 384 bits, y tendrán velocidades de transferencia de hasta 32 Gbps, lo que representa una mejora del 33% con respecto a la memoria GDDR6.

El ancho de banda que proporcionarían las velocidades de pin de 32 Gbps en diversas configuraciones de bus es el siguiente:
- 512 bits: 2048 GB (2,2 Tb/s)
- 384 bits – 1536 GB (1,5 Tb/s)
- 1280 GB/s (1280 Tb/s) 320 bits
- 256 bits – 1024 GB/s (1,0 Tb/s)
- 768 GB/s de 192 bits
- 128 bits – 512 GB/s
Aunque no creemos que estén listas en cantidades suficientes para su fabricación en serie como para ser compatibles con las gamas de GPU de IA y juegos de próxima generación, la empresa también ha probado las primeras muestras que funcionan a velocidades de hasta 36 Gbps.
Además, la memoria GDDR7 proporcionará una eficiencia un 20% mayor, lo cual es fantástico dado que la memoria consume mucha energía en las GPU de gama alta. Según los informes, la DRAM GDDR7 de Samsung contará con una tecnología diseñada específicamente para cargas de trabajo de alta velocidad y una opción de bajo voltaje operativo diseñada para aplicaciones que consumen energía de forma consciente, como las computadoras portátiles. El nuevo estándar de memoria utilizará un compuesto de moldeo epoxídico (EMC) de alta conductividad térmica para el tratamiento térmico, que puede reducir la resistencia térmica hasta en un 70%. Según se informa, Samsung probó su DRAM GDDR7 con NVIDIA en agosto para realizar una evaluación temprana de sus tarjetas gráficas para juegos de próxima generación.
Evolución de la memoria en los gráficos GDDR:
RECUERDO GRÁFICO | GDDR5X | GDDR6 | GDDR6X | GDDR7 |
---|---|---|---|---|
Workload | Gaming | IA/juegos | IA/juegos | IA/juegos |
Plataforma (una ilustración) | GTX 1080 Ti GeForce | RTX 2080 Ti GeForce | GeForce RTX 4090 | GeForce RTX 5090 |
Número de ubicaciones | 12 | 12 | 12 | 12? |
Gb/s/pin | 11.4 | 14-16 | 19-24 | 32-36 |
GB/s/placement | 45 | 56-64 | 76-96 | 128-144 |
GB/s/system | 547 | 672-768 | 912-1152 | 1536-1728 |
Configuración (ejemplo) | 384 IO (paquete de 12 piezas x 32 IO) | 384 IO (paquete de 12 piezas x 32 IO) | 384 IO (paquete de 12 piezas x 32 IO) | 384 IO (paquete de 12 piezas x 32 IO)? |
Búfer de fotogramas de un sistema típico | 12GB | 12GB | 24 GB | ¿24 GB? |
Potencia media del dispositivo (PJ/bit) | 8.0 | 7.5 | 7.25 | TBD |
Canal IO típico | PCB (P2P SM) | PCB (P2P SM) | PCB (P2P SM) | PCB (P2P SM) |
Samsung LPDDR5x para módulos CAMM2 de próxima generación, diseños móviles más delgados
Para procesar tareas intensivas en datos, las tecnologías de inteligencia artificial actuales están optando por un modelo híbrido que asigna y distribuye la carga de trabajo entre los dispositivos cloud y periféricos. En consecuencia, Samsung presentó una gama de soluciones de memoria que admiten formatos periféricos de alto rendimiento, alta capacidad, bajo consumo y pequeños formatos.
Además de las primeras 7 de la industria. El LPDDR5X CAMM2 de 5 Gbps, que se espera que cambie las reglas del juego en el mercado de DRAM para PC y portátiles de próxima generación, la compañía también presentó su DRAM LPDDR5X de 9,6 Gbps, DRAM LLW especializada en IA integrada en el dispositivo, almacenamiento flash universal (UFS) de próxima generación y el SSD BM9C1 de celda de cuatro niveles (QLC) de alta capacidad para PC.
Actualizaciones de la tecnología de memoria de GPU
Nombre de la tarjeta gráfica | Tecnología de memoria | Velocidad de memoria | Bus de memoria | Ancho de banda de memoria | Release |
---|---|---|---|---|---|
AMD Radeon R9 Fury X | HBM1 | 1 Gbps | 4096-bit | 512 GB/s | 2015 |
GTX 1080 NVIDIA | GDDR5X | 10,0 Mbps | 256-bit | 320 GB/s | 2016 |
Tesla P100 NVIDIA | HBM2 | 1 4 Gbps | 4096-bit | 720 GB/s | 2016 |
Titan Xp NVIDIA | GDDR5X | 11 4 Gbps | 384-bit | 547 GB/s | 2017 |
AMD RX Vega de 64 bits | HBM2 | 1. 9 Gbps | 2048-bit | 483 GB/s | 2017 |
NVIDIA Titan V | HBM2 | 1. 7 Gbps | 3072-bit | 652 GB/s | 2017 |
Tesla V100 NVIDIA | HBM2 | 1. 7 Gbps | 4096-bit | 901 GB/s | 2017 |
Para NVIDIA RTX 2080 | GDDR6 | 14,0 Mbps | 384-bit | 672 GB/s | 2018 |
MI100 AMD Instinct | HBM2 | 2,4 GHz | 4096-bit | 1229 GB/s | 2020 |
NVIDIA A100 DE 80 GB | HBM2e | 3. 2 Gbps | 5120-bit | 2039 GB/s | 2020 |
RTX 3090 NVIDIA | GDDR6X | 9. 5 Gbps | 384-bit | 936,2 GB/s | 2020 |
MI200 y AMD Instinct | HBM2e | 3. 2 Gbps | 8192-bit | 3200 g/s | 2021 |
RTX 3090 NVIDIA Ti | GDDR6X | 21 Gbps | 384-bit | 1008 g/s | 2022 |
NVIDIA H100 DE 80 GB | HBM3/E | 2. 6 Gbps | 5120-bit | 1681 GB/s | 2022 |