L'unité "cloud" d'Amazon.com a annoncé mercredi un partenariat avec la société d'intelligence artificielle Hugging Face afin de faciliter l'exécution de milliers de modèles d'intelligence artificielle sur les puces informatiques personnalisées d'Amazon.

Évalué à 4,5 milliards de dollars, Hugging Face est devenu un centre de partage de chatbots et d'autres logiciels d'intelligence artificielle pour les chercheurs et les développeurs d'intelligence artificielle. C'est le principal endroit où les développeurs se rendent pour obtenir et bricoler des modèles d'IA open-source tels que le Llama 3 de Meta Platforms.

Mais une fois que les développeurs ont peaufiné un modèle d'IA open-source, ils souhaitent généralement l'utiliser pour alimenter un logiciel. Mercredi, Amazon et Hugging Face ont annoncé qu'ils s'étaient associés pour rendre cela possible sur une puce personnalisée d'Amazon Web Services (AWS) appelée Inferentia2.

"Une chose très importante pour nous est l'efficacité - s'assurer que le plus grand nombre possible de personnes peuvent exécuter des modèles et qu'elles peuvent le faire de la manière la plus rentable", a déclaré Jeff Boudier, responsable des produits et de la croissance chez Hugging Face.

De son côté, AWS espère inciter davantage de développeurs d'IA à utiliser ses services en nuage pour fournir de l'IA. Alors que Nvidia domine le marché de la formation des modèles, AWS affirme que ses puces peuvent ensuite exploiter ces modèles formés - un processus appelé inférence - à moindre coût au fil du temps.

"Vous entraînez ces modèles peut-être une fois par mois. Mais vous pouvez les utiliser des dizaines de milliers de fois par heure. C'est là qu'Inferentia2 brille vraiment", a déclaré Matt Wood, qui supervise les produits d'intelligence artificielle chez AWS. (Reportage de Stephen Nellis à San Francisco ; Rédaction de Michael Perry)