Nvidia met à jour sa puce phare pour gérer des systèmes d'intelligence artificielle plus importants
Le 14 novembre 2023 à 00:25
Partager
Nvidia a ajouté lundi de nouvelles fonctionnalités à sa puce haut de gamme pour l'intelligence artificielle, indiquant que la nouvelle offre commencera à être déployée l'année prochaine avec Amazon.com, Google d'Alphabet et Oracle.
La puce H200, comme on l'appelle, dépassera la puce H100 de Nvidia, actuellement la plus performante. La principale amélioration concerne la mémoire à large bande passante, l'une des parties les plus coûteuses de la puce qui définit la quantité de données qu'elle peut traiter rapidement.
Nvidia domine le marché des puces d'IA et alimente le service ChatGPT d'OpenAI ainsi que de nombreux services d'IA générative similaires qui répondent à des requêtes avec une écriture semblable à celle d'un humain. L'ajout d'une mémoire à large bande passante et d'une connexion plus rapide aux éléments de traitement de la puce signifie que ces services seront en mesure de produire une réponse plus rapidement.
Le H200 dispose de 141 gigaoctets de mémoire à large bande, contre 80 gigaoctets pour le H100 précédent. Nvidia n'a pas divulgué le nom de ses fournisseurs pour la mémoire de la nouvelle puce, mais Micron Technology a déclaré en septembre qu'il travaillait à devenir un fournisseur de Nvidia.
Nvidia achète également de la mémoire à la société coréenne SK Hynix, qui a déclaré le mois dernier que les puces IA contribuaient à relancer les ventes.
Mercredi, Nvidia a déclaré qu'Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seraient parmi les premiers fournisseurs de services en nuage à offrir un accès aux puces H200, en plus des fournisseurs de services en nuage spécialisés dans l'IA CoreWeave, Lambda et Vultr. (Reportage de Stephen Nellis à San Francisco. Rédaction de Sam Holmes.)
NVIDIA Corporation est le n° 1 mondial de la conception, du développement et de la commercialisation de processeurs graphiques programmables. Le groupe développe parallèlement des logiciels associés. Le CA par famille de produits se répartit comme suit :
- solutions informatiques et de mise en réseau (55,9%) : plateformes et infrastructures de centres de données, solutions d'interconnexion Ethernet, solutions calcul haute performance, plateformes et solutions pour véhicules autonomes et intelligents, solutions pour l'infrastructure d'intelligence artificielle d'entreprise, processeurs d'extraction de crypto-monnaies, cartes informatiques embarquées pour la robotique, l'enseignement, l'apprentissage et le développement de l'intelligence artificielle, etc. ;
- processeurs graphiques (44,1%) : destinés aux ordinateurs, aux consoles de jeux, aux plateformes de diffusion en direct de jeux vidéo, aux stations de travail, etc. (marques GeForce, NVIDIA RTX, Quadro, etc.). Le groupe propose également des ordinateurs portables et de bureau, des ordinateurs de jeu, des périphériques pour ordinateurs (moniteurs, souris, manettes de jeux, télécommandes, etc.), des logiciels pour l'informatique visuelle et virtuelle, des plateformes pour les systèmes d'info-divertissement automobiles et des plateformes de collaboration dans le cloud.
Le CA par secteur d'activité se ventile entre stockage de données (55,6%), jeux (33,6%), visualisation professionnelle (5,7%), automobile (3,4%) et autres (1,7%).
La répartition géographique du CA est la suivante : Etats-Unis (30,7%), Taiwan (25,9%), Chine (21,5%) et autres (21,9%).