Nvidia a annoncé la nouvelle génération de son processeur Grace Hopper, qui prend en charge pour la première fois la mémoire haute performance HBM3e pour les applications d’IA générative.
La plate-forme GH200 sera basée sur une nouvelle puce Grace Hopper avec un CPU basé sur ARM, un GPU de nouvelle génération et une mémoire HBM3e. La configuration d’une plateforme à double puce sera un serveur unique doté de 144 cœurs ARM Neoverse, de huit pétaflops de performances en matière d’intelligence artificielle et de 282 Go de HBM3e. Cela représente 3,5 fois plus de capacité de mémoire et 3 fois plus de bande passante que l’offre actuelle.
L’entreprise constate une forte demande pour ses GPU afin d’exécuter des Frameworks d’IA générative dans les centres de données, dont beaucoup sont liés à la mémoire.
- L’IA générative pour la fabrication de puces
- Maintenir l’IA générative sur la bonne voie
- 1,3 milliard de dollars pour construire le plus grand superordinateur d’IA au monde
« Pour répondre à la demande croissante d’IA générative, les centres de données ont besoin de plateformes informatiques plus rapides avec des besoins spécialisés », a déclaré Jensen Huang, fondateur et PDG de Nvidia, lors de la conférence SIGGRAPH cette semaine. « La nouvelle plateforme Grace Hopper Superchip GH200 y répond avec une technologie de mémoire et une bande passante exceptionnelles pour améliorer le débit, la possibilité de connecter des GPU pour agréger les performances sans compromis, et une conception de serveur qui peut être facilement déployée dans l’ensemble du centre de données ».
Les puces Grace Hopper sont connectées entre elles à l’aide de l’interconnexion NVLInk afin de déployer les modèles géants utilisés pour l’IA générative. Cette technologie cohérente et à grande vitesse permet au GPU d’accéder pleinement à la mémoire du CPU, offrant ainsi 1,2 To de mémoire rapide en configuration double.
La mémoire HBM3e, qui est 50 % plus rapide que la mémoire HBM3 actuelle, offre une bande passante combinée de 10 To/s, ce qui permet à la nouvelle plateforme d’exécuter des modèles 3,5 fois plus grands que la version précédente tout en améliorant les performances grâce à une bande passante mémoire trois fois plus rapide.
- NVIDIA lance DGX Cloud, un supercalculateur pour l’IA
- Cerebras livre un supercalculateur d’IA de 4exaFLOP
- L’IA générative aide un prototype de voiture de course électrique à pulvériser le monde
Les principaux fabricants de serveurs proposent déjà des systèmes basés sur la puce Grace Hopper annoncée précédemment. La GH200 sera entièrement compatible avec la spécification actuelle du serveur MGX de Nvidia, dévoilée au début de l’année au COMPUTEX. Avec MGX, tout fabricant de système peut rapidement et à moindre coût ajouter Grace Hopper à plus de 100 variantes de serveurs.
Les principaux fabricants de systèmes devraient livrer des systèmes basés sur la plateforme au deuxième trimestre 2024.