Ces remarques ont été faites lors d'un événement organisé par AMD, au cours duquel le fabricant de puces a exposé sa stratégie sur le marché de l'intelligence artificielle, dominé par son rival Nvidia Corp.

Bien qu'AMD ait divulgué certaines spécifications techniques pour une puce d'IA à venir plus tard cette année qui pourrait à certains égards battre les meilleures offres actuelles de Nvidia sur certains paramètres, les nouvelles ont fait chuter les actions après qu'AMD n'ait pas divulgué de client phare pour la puce.

Dans des entretiens avec Reuters, Lisa Su, directrice générale d'AMD, a décrit une approche visant à conquérir les principaux clients de l'informatique en nuage en proposant un menu de toutes les pièces nécessaires pour construire les types de systèmes permettant d'alimenter des services similaires à ChatGPT, mais en laissant les clients choisir ce qu'ils veulent, en utilisant des connexions standard de l'industrie.

"Nous parions que beaucoup de gens voudront avoir le choix et qu'ils voudront pouvoir personnaliser ce dont ils ont besoin dans leur centre de données", a déclaré M. Su.

Bien qu'AWS ne se soit pas engagé publiquement à utiliser les nouvelles puces MI300 d'AMD dans ses services en nuage, Dave Brown, vice-président d'elastic compute cloud chez Amazon, a déclaré qu'AWS envisageait de les utiliser.

"Nous sommes encore en train de travailler ensemble sur l'emplacement exact entre AWS et AMD, mais c'est quelque chose sur lequel nos équipes travaillent ensemble", a déclaré M. Brown. "C'est là que nous avons bénéficié d'une partie du travail qu'ils ont effectué autour de la conception qui s'intègre dans les systèmes existants.

Nvidia vend ses puces à la pièce, mais demande également aux fournisseurs de cloud s'ils sont prêts à proposer un système complet conçu par Nvidia dans un produit appelé DGX Cloud. Oracle Corp est le premier partenaire de Nvidia pour ce système.

Brown a déclaré qu'AWS avait refusé de travailler avec Nvidia sur la proposition DGX Cloud.

"Ils nous ont contactés, nous avons examiné le modèle commercial et cela n'avait pas beaucoup de sens", a déclaré M. Brown.

M. Brown a expliqué qu'AWS préférait concevoir ses propres serveurs à partir de zéro. AWS a commencé à vendre la puce H100 de Nvidia en mars, mais dans le cadre de systèmes conçus par ses soins.