
Premières puces DRAM HBM4 à 12 couches pour l’IA
SK Hynix échantillonne le premier stack de 12 couches de puces mémoire HBM4 au monde pour les développeurs de systèmes d’intelligence artificielle six mois plus tôt que prévu.
HBM4 est essentiel pour la prochaine génération de GPU Nvidia, Rubin, qui prévoit d’utiliser un stack de 8 puces l’année prochaine. Le double GPU Rubin Ultra utilisera un stack de 16 puces HBM4, et le PDG de Nvidia, Jensen Huang, a spécifiquement demandé à Sk Hynix d’accélérer sa production.
La production en série des composants HBM4 à 12 couches avec une bande passante de 2TByte/s devrait commencer au cours du second semestre 2025 après le processus de certification. La stack de 12 puces peut stocker 36 Go de données.
Sk Hynix a été le premier fabricant de mémoire à produire en masse des composants HBM3 en 2022, et des composants HBM3E à 8 et 12 couches en 2024. Les puces HBM3e sont utilisées pour le GPU Blackwell Ultra qui sera commercialisé plus tard dans l’année avec 288 Go de mémoire.
Le fournisseur américain Micron Technology vise à disposer de puces HBM4 en 2026, tandis que Samsung prévoit de produire un stack de 16 couches HBM4 sur un processus de 4 nm d’ici à la fin de 2025, soit six mois plus tôt que prévu.
« Nous avons renforcé notre position de précurseur dans l’écosystème de l’IA après des années d’efforts constants pour surmonter les défis technologiques conformément aux demandes des clients », a déclaré Justin Kim, président et responsable de AI Infra chez SK Hynix. « Nous sommes maintenant prêts à procéder en douceur à la certification des performances et aux travaux préparatoires pour la production de masse, en tirant parti de l’expérience que nous avons acquise en tant que plus grand fournisseur de HBM de l’industrie. »
