L’accélérateur open source de Nvidia stimule l’intelligence artificielle en France
La startup grenebloise NeurXcore a lancé une puce d’intelligence artificielle Neural Processor Units (NPU) économe en énergie, construite sur une version améliorée de la technologie open source Nvidia Deep Learning Accelerator.
La série SNVDLA IP de Neurxcore est destinée au traitement d’images, y compris la classification et la détection d’objets, des appareils portables aux centres de données. Selon la configuration, cela peut être plus de 100 fois plus rapide qu’un GPU pour l’accélération de l’IA et 1000 fois plus rapide qu’un CPU.
Disponibilité pour les conceptions clients
Les processeurs Neurxcore combinent des technologies propriétaires brevetées avec le noyau d’accélération ouvert de Nvidia. Ces processeurs neuronaux sont proposés sous forme de licences, ce qui signifie que les clients peuvent les utiliser dans leurs propres conceptions. Au départ, le Les processeurs Neurxcore seront disponibles sous forme de chiplets qui peuvent être combinés avec l’unité centrale, la mémoire et les communications dans un système intégré. Cela donne plus de flexibilité en permettant la combinaison de différents processus de fabrication, tout en optimisant les coûts en termes de densité, d’intégration et d’évolutivité, selon l’entreprise.
SNVDLA peut également être utilisé pour des applications d’IA générative et a déjà fait ses preuves dans le silicium 22nm de TSMC et a été montré sur une carte de démonstration exécutant une variété d’applications. Grâce à une technologie brevetée de calcul en mémoire développée au niveau des transistors, il est possible de réaliser des économies d’énergie ou d’obtenir des performances environ 10 fois supérieures à celles des solutions commerciales équivalentes actuelles.
L’ensemble de la propriété intellectuelle comprend également le kit de développement logiciel (SDK) Heracium, conçu par Neurxcore sur la base du cadre Apache TVM (Tensor-Virtual Machine) à code source ouvert. Il est utilisé pour configurer, optimiser et compiler les applications de réseaux neuronaux sur les produits SNVDLA et vérifier la précision et le temps d’exécution. Le compilateur prend en charge plusieurs modèles, notamment TensorFlow, Keras, Caffe, Caffe2, ONNX, PyTorch, mxnet et DL4J, et fonctionne sur le CPU, le GPU, le RTOS, Linux ou bare metal, tout en offrant une exécution hétérogène entre SNVDLA et CPU
- Efficacité accrue avec l’IP d’IA neuromorphique de deuxième génération
- La course aux puces d’IA est lancée – quel sera le rôle de la propriété intellectuelle ?
- Quadric rejoint Silicon Catalyst pour offrir de la propriété intellectuelle en matière d’IA
La gamme de produits répond à un large éventail d’industries et d’applications, allant de l’ultra-basse consommation aux scénarios de haute performance, y compris les capteurs et l’IoT, les wearables, les smartphones, les maisons intelligentes, la surveillance, les décodeurs et la télévision numérique (STB/DTV), la télévision intelligente, la robotique, l’edge computing, AR/VR, ADAS, les serveurs et bien plus encore.
Neurxcore offre un ensemble complet permettant le développement de solutions NPU personnalisées, y compris de nouveaux opérateurs, la conception de sous-systèmes optimisés par l’IA et le développement de modèles optimisés, couvrant l’entraînement et la quantification.
« 80% des tâches de calcul de l’IA impliquent l’inférence. Il est essentiel de réduire la consommation d’énergie et les coûts tout en maintenant les performances », a déclaré Virgile Javerliac, fondateur et PDG de Neurxcore.
L’IP possède des capacités de réglage fin, telles que le nombre de cœurs et d’opérations de multiplication/accumulation (MAC) par cœur, afin de permettre des applications polyvalentes sur divers marchés. L’étape de l’inférence, qui consiste à utiliser des modèles d’IA pour faire des prédictions ou générer du contenu, est un aspect essentiel de l’IA. La conception de Neurxcore répond efficacement à cette phase, ce qui lui permet de s’adapter à diverses applications, même lorsqu’il s’agit de servir plusieurs utilisateurs simultanément.
Suivre ECInews sur Google news