La branche "cloud computing" d'Alphabet Inc. a annoncé jeudi qu'elle avait formé un partenariat avec la startup Hugging Face pour faciliter le développement de logiciels d'intelligence artificielle (IA) dans le Google Cloud de l'entreprise.

À la suite du lancement d'outils d'IA générative destinés aux consommateurs par des entreprises telles que Microsoft et Alphabet, la société mère de Google, les grandes et petites entreprises ont commencé à s'intéresser au déploiement de l'IA à leurs propres fins, par exemple pour améliorer un produit existant ou répondre à un besoin interne. La nécessité de créer des logiciels d'IA optimisés pour des tâches et des besoins spécifiques est à l'origine de ce partenariat.

"Cela montre que nous évoluons dans un monde où il n'y a pas qu'un seul modèle, mais autant de modèles que d'entreprises, a déclaré Clem Delangue, directeur général de Hugging Face, lors d'une interview accordée à Reuters. "Chaque entreprise forme, peaufine et optimise ses propres modèles, ce qui va dans le sens de l'évolution du secteur.

Thomas Kurian, PDG de Google Cloud, a déclaré que la demande croissante d'informatique d'IA basée sur le cloud suggère qu'à sa trajectoire actuelle, elle dépassera le marché traditionnel des logiciels cloud à l'avenir.

"L'infrastructure commence toujours à se développer parce qu'il faut d'abord mettre en place les machines qui reflètent la demande, et c'est à partir de là que l'on peut croître", a déclaré M. Kurian.

Les deux entreprises ont conclu un accord de partage des revenus, mais n'en ont pas divulgué les termes.

Cet accord permettra aux développeurs utilisant l'infrastructure technique de Google Cloud d'accéder au référentiel de logiciels d'IA open source de Hugging Face, tels que les modèles et les ensembles de données, et de les déployer. Hugging Face est devenue une plaque tournante pour les logiciels d'IA à code source ouvert et a signé un accord similaire en février de l'année dernière avec l'unité cloud d'Amazon.com.

Ce partenariat s'explique par le fait que les clients de l'informatique en nuage sont de plus en plus intéressés par la modification ou la construction de leurs propres modèles d'IA plutôt que par l'utilisation d'options prêtes à l'emploi, a expliqué M. Kurian. Il s'agit par exemple de s'assurer que des cadres de sécurité spécifiques sont en place pour prévenir les fuites de données ou évaluer la qualité du modèle en cours d'exécution.

Reflétant l'intérêt porté à la création de logiciels d'IA, le référentiel de logiciels liés à l'IA de l'entreprise Hugging Face, basée à New York, doublera environ au cours des quatre prochains mois, alors qu'il fallait auparavant quatre ans pour atteindre l'état actuel, a indiqué M. Delangue.

Les développeurs pourront utiliser une version avancée des puces d'IA construites en interne par Google, ou unités de traitement tensoriel. Google achèvera l'intégration technique nécessaire à l'utilisation des puces d'IA avancées de Nvidia, les H100, dans un délai de "quelques semaines" et non de "quelques mois", a déclaré M. Kurian. (Reportage de Max A. Cherney à San Francisco ; Rédaction de Leslie Adler)