Amazon Web Services, Inc. (AWS), une société d'Amazon.com, Inc. a annoncé l'extension de sa collaboration stratégique pour fournir l'infrastructure, les logiciels et les services les plus avancés afin d'alimenter les innovations d'intelligence artificielle générative (IA) des clients. Les deux sociétés réuniront le meilleur des technologies de NVIDIA et d'AWS - des derniers systèmes multi-nœuds de NVIDIA dotés de GPU, CPU et logiciels d'IA de nouvelle génération, à la virtualisation et la sécurité avancées d'AWS Nitro System, l'interconnexion Elastic Fabric Adapter (EFA) et l'évolutivité UltraCluster - qui sont idéales pour former des modèles de base et créer des applications d'IA générative. Cette collaboration élargie s'appuie sur une relation de longue date qui a alimenté l'ère de l'IA générative en offrant aux pionniers de l'apprentissage machine (ML) les performances de calcul nécessaires pour faire progresser l'état de l'art dans ces technologies.

Dans le cadre de cette collaboration élargie visant à stimuler l'IA générative dans tous les secteurs d'activité : AWS sera le premier fournisseur de cloud à apporter au cloud les superchips Grace Hopper GH200 de NVIDIA avec la nouvelle technologie NVLink multi-nœuds. La plate-forme multi-nœuds NVIDIA GH200 NVL32 connecte 32 superchips Grace Hopper avec les technologies NVIDIA NVLink et NVSwitch dans une instance. La plate-forme sera disponible sur les instances Amazon Elastic Compute Cloud (Amazon EC2) connectées au puissant réseau d'Amazon (EFA), soutenu par une virtualisation avancée (AWS Nitro System) et un clustering à grande échelle (Amazon EC2 UltraClusters), permettant aux clients communs d'évoluer vers des milliers de Superchips GH200.

Pour alimenter le développement, l'entraînement et l'inférence des plus grands LLM, les instances AWS P5e seront équipées des derniers GPU H200 de NVIDIA qui offrent 141 Go de mémoire GPU HBM3e, ce qui est 1,8 fois plus grand et 1,4 fois plus rapide que les GPU H100. Cette augmentation de la mémoire GPU, associée à un réseau EFA pouvant atteindre 3 200 Gbps grâce au système AWS Nitro, permettra aux clients de continuer à construire, former et déployer leurs modèles de pointe sur AWS. Pour fournir des solutions rentables et économes en énergie pour les charges de travail vidéo, IA et graphiques, AWS a annoncé de nouvelles instances Amazon EC2 G6e dotées de GPU NVIDIA L40S et des instances G6 alimentées par des GPU L4.

Ces nouvelles offres peuvent aider les startups, les entreprises et les chercheurs à répondre à leurs besoins en matière d'IA et de graphisme haute fidélité. Les instances G6e sont conçues pour gérer des charges de travail complexes telles que l'IA générative et les applications de jumeaux numériques. Grâce à NVIDIA Omniverse, des simulations 3D photoréalistes peuvent être développées, contextualisées et améliorées en utilisant des données en temps réel provenant de services tels que AWS IoT TwinMaker, des chatbots intelligents, des assistants, des recherches et des résumés.

Amazon Robotics et Amazon Fulfillment Centers pourront intégrer des jumeaux numériques construits avec NVIDIA Omniverse et AWS IoT TwinMaker pour optimiser la conception et le flux des entrepôts, former des assistants robotiques plus intelligents et améliorer les livraisons aux clients. Les GPU L40S délivrent jusqu'à 1,45 pétaflops de performances FP8 et sont dotés de cœurs de ray-tracing qui offrent jusqu'à 209 téraflops de performances de ray-tracing. Les GPU L4 présents dans les instances G6 offriront une solution moins coûteuse et moins énergivore pour le déploiement de modèles d'IA pour le traitement du langage naturel, la traduction linguistique, l'analyse d'images et de vidéos d'IA, la reconnaissance vocale et la personnalisation.

Les GPU L40S accélèrent également les charges de travail graphiques, telles que la création et les données.