CEVA, Inc. a annoncé NeuPro-M, son architecture de processeur de dernière génération pour les charges de travail d'inférence d'intelligence artificielle et d'apprentissage automatique (AI/ML). Ciblant les vastes marchés de l'IA et de l'informatique de périphérie, NeuPro-M est une architecture hétérogène autonome composée de plusieurs coprocesseurs spécialisés et d'accélérateurs matériels configurables qui traitent de manière transparente et simultanée diverses charges de travail de réseaux neuronaux profonds, augmentant les performances de 5 à 15 fois par rapport à son prédécesseur. Première dans l'industrie, NeuPro-M prend en charge l'évolutivité des systèmes sur puce (SoC) et des SoC hétérogènes (HSoC) pour atteindre jusqu'à 1 200 TOPS et propose en option un démarrage sécurisé robuste et la confidentialité des données de bout en bout. Pour illustrer ses performances de pointe, un seul cœur NPM11, lors du traitement d'un réseau neuronal convolutif ResNet50, multiplie par 5 les performances et réduit par 6 la bande passante mémoire par rapport à son prédécesseur, ce qui se traduit par une efficacité énergétique exceptionnelle pouvant atteindre 24 TOPS par watt. S'appuyant sur le succès de ses prédécesseurs, NeuPro-M est capable de traiter toutes les architectures de réseaux neuronaux connues, ainsi qu'un support natif intégré pour les réseaux de nouvelle génération comme les transformateurs, la convolution 3D, l'auto-attention et tous les types de réseaux neuronaux récurrents. NeuPro-M a été optimisé pour traiter plus de 250 réseaux neuronaux, plus de 450 noyaux d'IA et plus de 50 algorithmes. L'unité de traitement vectoriel (VPU) intégrée assure un support logiciel évolutif des nouvelles topologies de réseaux neuronaux et des nouvelles avancées dans les charges de travail d'IA. En outre, l'outil de compression hors ligne CDNN peut multiplier par 5 à 10 le nombre de FPS/Watt du NeuPro-M pour les benchmarks courants, avec un impact minime sur la précision.