ASUS a annoncé lors du Computex 2025 qu'elle était à l'avant-garde de la prochaine vague d'infrastructures intelligentes avec le lancement de la conception validée NVIDIAEnterprise AI Factory, qui comprend des conceptions ASUS AI POD avancées avec des architectures de référence optimisées. Ces solutions sont disponibles sous forme de systèmes certifiés NVIDIA sur les plateformes NVIDIA Grace Blackwell, HGX et MGX, et prennent en charge les centres de données refroidis par air et par liquide. Conçues pour accélérer l'adoption de l'IA agentique à toutes les échelles, ces innovations offrent une évolutivité, des performances et une efficacité thermique inégalées, ce qui en fait le choix ultime pour les entreprises qui cherchent à déployer l'IA à une vitesse et à une échelle sans précédent.
La solution NVIDIA Enterprise AI Factory validée avec la conception ASUS AI POD fournit des conseils pour le développement, le déploiement et la gestion de l'IA agentielle, de l'IA physique et des charges de travail HPC sur la plateforme NVIDIA Blackwell sur site. Conçue pour l'informatique d'entreprise, elle fournit des capacités de calcul, de mise en réseau, de stockage et de logiciels accélérés afin d'accélérer la rentabilisation des déploiements d'usines d'IA tout en atténuant les risques liés au déploiement. Pour le calcul à très grande échelle, le POD IA ASUS avancé, accéléré par les racks NVIDIA GB200/GB300 NVL72 et intégrant les plateformes réseau NVIDIA Quantum InfiniBand ou NVIDIA Spectrum-XEthernet, est doté d'un refroidissement liquide permettant un cluster non bloquant de 576 GPU sur huit racks, ou d'une solution refroidie par air pour prendre en charge un rack avec 72 GPU.
ASUS présente des conceptions de racks conformes à la norme NVIDIA MGX avec la série ESC8000, qui comprend deux processeurs Intel Xeon 6 et RTX PRO 6000 Blackwell Server Edition avec la dernière carte NVIDIA ConnectX-8 SuperNIC ? prenant en charge des vitesses allant jusqu'à 800 Gb/s ou d'autres configurations évolutives ? offrant une extensibilité et des performances exceptionnelles pour les charges de travail IA de pointe.
L'intégration avec la plateforme logicielle NVIDIA AI Enterprise fournit des solutions serveur complètes et hautement évolutives qui répondent aux exigences élevées de l'informatique moderne. De plus, l'architecture de référence NVIDIA HGX optimisée par ASUS offre une efficacité, une gestion thermique et une densité de GPU inégalées pour accélérer le réglage fin de l'IA, l'inférence LLM et la formation. Conçue sur la base de l'ASUSXA NB3I-E12 avec NVIDIA HGX B300 ou ESC NB8-E11 intégré à NVIDIA HGX B200, cette solution rack centralisée offre une capacité de fabrication inégalée pour les systèmes rack refroidis par liquide ou par air, garantissant une livraison rapide, un coût total de possession (TCO) réduit et des performances constantes.
De plus, la planification avancée des charges de travail basée sur SLURM et la gestion de la structure NVIDIA UFM pour les réseaux NVIDIA Quantum InfiniBand optimisent l'utilisation des ressources, tandis que le système de fichiers parallèles WEKA et le stockage SAN ASUS ProGuard offrent un traitement des données rapide et évolutif. ASUS fournit également une plateforme logicielle et des services complets, notamment ASUS Control Center (édition Data Center) et ASUS Infrastructure Deployment Center (AIDC), qui garantissent le développement, l'orchestration et le déploiement transparents des modèles d'IA. Les solutions validées ASUS L11/L12 permettent aux entreprises de déployer l'IA à grande échelle en toute confiance grâce à un déploiement et une assistance de classe mondiale.