Nvidia, le principal concepteur de puces GPU (processeur graphique) nécessaires à la plupart des travaux d'intelligence artificielle de pointe, a annoncé la nouvelle puce B200 "Blackwell" lors de sa conférence annuelle des développeurs lundi.

Le fabricant de puces a déclaré que la puce B200 était 30 fois plus rapide pour des tâches telles que l'envoi de réponses par des chatbots, bien qu'il n'ait pas donné de détails spécifiques sur ses performances lorsqu'il s'agit de traiter d'énormes quantités de données pour former ces chatbots, ce qui est le type de travail qui a alimenté la majeure partie de l'augmentation des ventes de Nvidia.

Colette Kress, directrice financière de Nvidia, a déclaré aux analystes financiers mardi que "nous pensons arriver sur le marché dans le courant de l'année", mais a également précisé que le volume de livraison des nouveaux GPU n'augmenterait pas avant 2025.

Le géant des médias sociaux Meta est l'un des plus gros clients de Nvidia, après avoir acheté des centaines de milliers de puces de la génération précédente pour soutenir les systèmes de recommandation de contenu et les produits d'IA générative.

Mark Zuckerberg, PDG de Meta, a révélé en janvier que l'entreprise prévoyait d'avoir environ 350 000 de ces puces antérieures, appelées H100, dans son stock d'ici la fin de l'année. En combinaison avec d'autres GPU, a-t-il ajouté, Meta disposerait de l'équivalent d'environ 600 000 H100 d'ici là.

Dans une déclaration faite lundi, M. Zuckerberg a indiqué que Meta prévoyait d'utiliser Blackwell pour entraîner les modèles Llama de l'entreprise. L'entreprise entraîne actuellement une troisième génération du modèle sur deux grappes de GPU qu'elle a annoncées la semaine dernière et qui, selon elle, contiennent chacune environ 24 000 GPU H100.

Meta prévoit de continuer à utiliser ces clusters pour entraîner Llama 3 et d'utiliser Blackwell pour les futures générations du modèle, a déclaré le porte-parole de Meta.