MENU

Alibaba et Qualcomm investissent dans l’IA

Par eeNews Europe

Les trois NPU couvrent les options de puissance ultra-basse et de haute performance avec un processeur standard ‘goldilocks’ comme milieu de gamme. Il s’agit de la version ultra-basse consommation KDP 300, de la version standard KDP 500 et de la version haute performance KDP 700, prenant en charge diverses applications AI dans la maison intelligente, la surveillance intelligente, les smartphones et les appareils IoT.

Contrairement aux autres processeurs AI sur le marché qui consomment souvent plusieurs watts, le Kneron NPU Series consomme moins de 0.5W, et le KDP 300 conçu pour la reconnaissance faciale dans les smartphones moins de 5mW. Pour atteindre cette performance, la taille de la tranche de réseau neuronal convolutionnel (CNN) est de 150 par 150 avec un taux de traitement de 5 images par seconde et une fréquence d’horloge de 20 MHz.

Le KDP 300 prend en charge une reconnaissance faciale 3D en direct plus rapide et plus précise grâce à l’analyse d’images à partir de la lumière structurée 3D et des caméras à double objectif.

Le KDP 500 est renforcé pour la reconnaissance en temps réel, l’analyse et l’apprentissage en profondeur pour les multiples visages, gestes de la main et du corps, ce qui le rend apte aux applications de surveillance intelligente et à la maison intelligente. Sa capacité de calcul est de 152 GOPS à 500 MHz tout en ne consommant que 100 MW.

Le KDP 700 prend en charge une informatique AI plus avancée et plus complexe, ainsi qu’une inférence d’apprentissage en profondeur pour les smartphones haut de gamme, robots, drones et dispositifs de surveillance intelligents. Il est en phase de développement et devrait offrir un débit de pointe allant jusqu’à 4,4 TOPS à une fréquence d’horloge de 1 GHz tout en maintenant la consommation d’énergie entre 300 mW et 500 mW.

Ce qui reste peu clair, c’est si ceux-ci seront offerts en tant que composants ou IP sous licence, ou les deux. Et quels types de données sont supportés.

Suite: Décomposition, compression et mise en cache
 


Kneron a déclaré qu’il a adopté une technologie de décomposition par filtre qui permet la division de blocs de calculs convolutifs à grande échelle en un certain nombre de blocs plus petits permettant un calcul en parallèle. Avec la technologie d’accélération par convolution reconfigurable, les résultats de calcul des petits blocs seront intégrés pour obtenir une meilleure performance informatique globale. La compression de modèles permet de réduire les modèles non optimisés quelques dizaines de fois. La technique de mise en cache à plusieurs niveaux réduit l’utilisation des ressources du processeur et améliore encore l’efficacité opérationnelle globale.

Kneron NPU IP Series permet de faire tourner ResNet, YOLO et à d’autres réseaux d’apprentissage en profondeur de fonctionner sur des périphériques edge, notamment l’IP matériel, le compilateur et la compression de modèle. Il prend en charge divers types de CNN, tels que Resnet-18, Resnet-34, Vgg16, GoogleNet et Lenet, ainsi que les principaux frameworks d’apprentissage en profondeur, notamment Caffe, Keras et TensorFlow.

Albert Liu, fondateur et PDG de Kneron, a déclaré: «Depuis la publication de sa première IP NPU en 2016, Kneron a déployé des efforts continus pour optimiser sa conception et ses spécifications NPU pour diverses applications industrielles. Nous sommes heureux de présenter le nouvel IP NPU Séries et d’annoncer que le KDP 500 sera adopté par notre client et entrer dans le process de fabrication au cours du prochain trimestre. « 

Kneron a été fondée en 2015 et a complété un tour de financement de série A d’une valeur de plus de 10 millions de dollars en novembre 2017. Alibaba Entrepreneurs Fund et CDIB Capital Group sont les principaux investisseurs et Himax Technologies, Qualcomm, Thundersoft, Sequoia Capital et Cy Zone sont co-investisseurs .

www.kneron.com

La rédaction vous conseille auusi:

ARM lance deux processeurs d’apprentissage automatique

La synapse artificielle du MIT première étape vers un cerveau artificiel?

News articles in English:

ST preps second neural network IC

Intel launches self-learning processor

ARM launches two machine learning processors

Eta raises funds for spiking neural networks

Ceva goes non-DSP with neural processor

BrainChip founder to focus on ‘Akida’ chip


Share:

Electronique-ECI
10s