Arteris, Inc. a annoncé que NeuReality a déployé l'IP d'interconnexion FlexNoC d'Arteris dans le cadre du serveur d'inférence sur puce adressable par le réseau NR1 afin d'offrir un rendement élevé et des améliorations perturbatrices en matière de coûts et de consommation d'énergie pour le calcul de l'apprentissage automatique et profond dans ses produits d'inférence de l'IA. Cette intégration est architecturée dans un NoC à 8 hiérarchies avec une bande passante agrégée de 4,5 To/s, répondant aux exigences de faible latence pour l'exécution d'applications d'IA à l'échelle et à moindre coût. Le serveur d'inférence de NeuReality cible l'IA générative, les grands modèles de langage (LLM) et d'autres charges de travail d'IA.

Le serveur sur puce innovant NR1 de NeuReality est la première unité de traitement adressable par le réseau (NAPU), qui est un dispositif matériel optimisé pour le flux de travail avec des unités de traitement spécialisées, un réseau natif et des capacités de virtualisation. Elle offre une mise en réseau native de l'IA sur la structure, y compris une décharge complète du pipeline de l'IA et des capacités d'hyperviseur de l'IA basées sur le matériel. La capacité de décharger les CPU, les GPU et même les accélérateurs d'apprentissage profond sur plusieurs puces NR1 est ce qui permet au serveur d'inférence de NeuReality de fournir effectivement jusqu'à 10 fois la performance avec moins de consommation d'énergie et à une fraction du coût dans son serveur d'inférence.