Microsoft a annoncé mercredi un duo de puces informatiques conçues sur mesure, rejoignant ainsi d'autres grandes entreprises technologiques qui, confrontées au coût élevé de la fourniture de services d'intelligence artificielle, intègrent des technologies clés en interne.

Microsoft a déclaré qu'elle ne prévoyait pas de vendre ces puces, mais qu'elle les utiliserait pour alimenter ses propres offres de logiciels par abonnement et dans le cadre de son service d'informatique en nuage Azure.

Lors de sa conférence Ignite à Seattle, Microsoft a présenté une nouvelle puce, appelée Maia, destinée à accélérer les tâches de calcul de l'intelligence artificielle et à servir de base à son service "Copilot", d'une valeur de 30 dollars par mois, destiné aux utilisateurs de logiciels d'entreprise, ainsi qu'aux développeurs qui souhaitent créer des services d'intelligence artificielle personnalisés.

La puce Maia a été conçue pour faire tourner de grands modèles de langage, un type de logiciel d'IA qui sous-tend le service Azure OpenAI de Microsoft et qui est le fruit de la collaboration de Microsoft avec OpenAI, le créateur de ChatGPT.

Microsoft et d'autres géants de la technologie tels qu'Alphabet sont confrontés au coût élevé de la fourniture de services d'IA, qui peut être dix fois supérieur à celui des services traditionnels tels que les moteurs de recherche.

Les dirigeants de Microsoft ont déclaré qu'ils prévoyaient de s'attaquer à ces coûts en acheminant la quasi-totalité des efforts tentaculaires de l'entreprise pour intégrer l'IA dans ses produits par le biais d'un ensemble commun de modèles d'IA fondamentaux. Selon eux, la puce Maia est optimisée pour ce travail.

Nous pensons que cela nous permet de fournir à nos clients de meilleures solutions, plus rapides, moins coûteuses et de meilleure qualité", a déclaré Scott Guthrie, vice-président exécutif du groupe "cloud" et "IA" de Microsoft.

Microsoft a également déclaré que l'année prochaine, elle offrirait à ses clients Azure des services cloud fonctionnant avec les dernières puces phares de Nvidia et d'Advanced Micro Devices.

"Il ne s'agit pas d'un produit qui supplante Nvidia", a déclaré Ben Bajarin, directeur général du cabinet d'analystes Creative Strategies.

Selon lui, la puce Maia permettrait à Microsoft de vendre des services d'intelligence artificielle dans le nuage jusqu'à ce que les ordinateurs personnels et les téléphones soient suffisamment puissants pour les prendre en charge.

"Microsoft dispose ici d'une opportunité de base très différente, car elle gagne beaucoup d'argent par utilisateur pour les services", a déclaré M. Bajarin.

La deuxième puce de Microsoft annoncée mardi est conçue à la fois pour réduire les coûts internes et pour répondre au principal rival de Microsoft dans le domaine de l'informatique dématérialisée, Amazon Web Services.

Baptisée Cobalt, la nouvelle puce est une unité centrale de traitement (CPU) fabriquée à partir de la technologie d'Arm Holdings. Microsoft a révélé mercredi qu'elle avait déjà testé Cobalt pour Teams, son outil de messagerie professionnelle.

Toutefois, M. Guthrie a déclaré que son entreprise souhaitait également vendre un accès direct à Cobalt pour concurrencer la série "Graviton" de puces internes proposées par Amazon.

"Nous concevons notre solution Cobalt de manière à être très compétitifs en termes de performances et de rapport prix/performances (par rapport aux puces d'Amazon)", a déclaré M. Guthrie.

Microsoft a donné peu de détails techniques permettant d'évaluer la compétitivité de ses puces par rapport à celles des fabricants de puces traditionnels. Rani Borkar, vice-président de l'entreprise pour les systèmes matériels et l'infrastructure Azure, a déclaré que les deux puces sont fabriquées avec la technologie de fabrication 5 nanomètres de Taiwan Semiconductor Manufacturing Co.

Il a ajouté que la puce Maia serait reliée à un câblage réseau Ethernet standard, plutôt qu'à une technologie de réseau personnalisée de Nvidia, plus coûteuse, que Microsoft a utilisée dans les superordinateurs qu'elle a construits pour l'OpenAI. "Vous nous verrez emprunter davantage la voie de la normalisation", a déclaré M. Borkar à Reuters. (Reportage de Stephen Nellis à San Francisco ; Rédaction d'Edmund Klamann)