MENU

Le premier processeur HBM3e de Nvidia cible l’IA générative

Le premier processeur HBM3e de Nvidia cible l’IA générative

Nouvelles |
Par Nick Flaherty, A Delapalisse



Nvidia a annoncé la nouvelle génération de son processeur Grace Hopper, qui prend en charge pour la première fois la mémoire haute performance HBM3e pour les applications d’IA générative.

La plate-forme GH200 sera basée sur une nouvelle puce Grace Hopper avec un CPU basé sur ARM, un GPU de nouvelle génération et une mémoire HBM3e. La configuration d’une plateforme à double puce sera un serveur unique doté de 144 cœurs ARM Neoverse, de huit pétaflops de performances en matière d’intelligence artificielle et de 282 Go de HBM3e. Cela représente 3,5 fois plus de capacité de mémoire et 3 fois plus de bande passante que l’offre actuelle.

L’entreprise constate une forte demande pour ses GPU afin d’exécuter des Frameworks d’IA générative dans les centres de données, dont beaucoup sont liés à la mémoire.

« Pour répondre à la demande croissante d’IA générative, les centres de données ont besoin de plateformes informatiques plus rapides avec des besoins spécialisés », a déclaré Jensen Huang, fondateur et PDG de Nvidia, lors de la conférence SIGGRAPH cette semaine. « La nouvelle plateforme Grace Hopper Superchip GH200 y répond avec une technologie de mémoire et une bande passante exceptionnelles pour améliorer le débit, la possibilité de connecter des GPU pour agréger les performances sans compromis, et une conception de serveur qui peut être facilement déployée dans l’ensemble du centre de données ».

Les puces Grace Hopper sont connectées entre elles à l’aide de l’interconnexion NVLInk afin de déployer les modèles géants utilisés pour l’IA générative. Cette technologie cohérente et à grande vitesse permet au GPU d’accéder pleinement à la mémoire du CPU, offrant ainsi 1,2 To de mémoire rapide en configuration double.

La mémoire HBM3e, qui est 50 % plus rapide que la mémoire HBM3 actuelle, offre une bande passante combinée de 10 To/s, ce qui permet à la nouvelle plateforme d’exécuter des modèles 3,5 fois plus grands que la version précédente tout en améliorant les performances grâce à une bande passante mémoire trois fois plus rapide.

Les principaux fabricants de serveurs proposent déjà des systèmes basés sur la puce Grace Hopper annoncée précédemment. La GH200 sera entièrement compatible avec la spécification actuelle du serveur MGX de Nvidia, dévoilée au début de l’année au COMPUTEX. Avec MGX, tout fabricant de système peut rapidement et à moindre coût ajouter Grace Hopper à plus de 100 variantes de serveurs.

Les principaux fabricants de systèmes devraient livrer des systèmes basés sur la plateforme au deuxième trimestre 2024.

www.nvidia.com

Si vous avez apprécié cet article, vous aimerez les suivants : ne les manquez pas en vous abonnant à :    ECI sur Google News

Partager:

Articles liés
10s