Nvidia a ajouté lundi de nouvelles fonctionnalités à sa puce haut de gamme pour l'intelligence artificielle, indiquant que la nouvelle offre commencera à être déployée l'année prochaine avec Amazon.com, Google d'Alphabet et Oracle.

La puce H200, comme on l'appelle, dépassera la puce H100 de Nvidia, actuellement la plus performante. La principale amélioration concerne la mémoire à large bande passante, l'une des parties les plus coûteuses de la puce qui définit la quantité de données qu'elle peut traiter rapidement.

Nvidia domine le marché des puces d'IA et alimente le service ChatGPT d'OpenAI ainsi que de nombreux services d'IA générative similaires qui répondent à des requêtes avec une écriture semblable à celle d'un humain. L'ajout d'une mémoire à large bande passante et d'une connexion plus rapide aux éléments de traitement de la puce signifie que ces services seront en mesure de produire une réponse plus rapidement.

Le H200 dispose de 141 gigaoctets de mémoire à large bande, contre 80 gigaoctets pour le H100 précédent. Nvidia n'a pas divulgué le nom de ses fournisseurs pour la mémoire de la nouvelle puce, mais Micron Technology a déclaré en septembre qu'il travaillait à devenir un fournisseur de Nvidia.

Nvidia achète également de la mémoire à la société coréenne SK Hynix, qui a déclaré le mois dernier que les puces IA contribuaient à relancer les ventes.

Mercredi, Nvidia a déclaré qu'Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seraient parmi les premiers fournisseurs de services en nuage à offrir un accès aux puces H200, en plus des fournisseurs de services en nuage spécialisés dans l'IA CoreWeave, Lambda et Vultr. (Reportage de Stephen Nellis à San Francisco. Rédaction de Sam Holmes.)