Les dirigeants du secteur technologique s'interrogent sur la manière d'exploiter l'IA comme ChatGPT tout en tenant compte des coûts élevés. Le chatbot très populaire d'OpenAI, qui peut rédiger de la prose et répondre à des demandes de recherche, a des coûts informatiques "exorbitants" de quelques centimes ou plus par conversation, a déclaré le directeur général de la startup, Sam Altman, sur Twitter.

Dans une interview, John Hennessy, président d'Alphabet, a déclaré à Reuters qu'un échange avec l'IA, connu sous le nom de modèle de langage étendu, coûterait probablement dix fois plus qu'une recherche standard par mot-clé, même si un réglage fin permettra de réduire rapidement les dépenses.

Même en tenant compte des recettes générées par les annonces de recherche potentielles basées sur le chat, la technologie pourrait réduire le résultat net d'Alphabet, société basée à Mountain View (Californie), de plusieurs milliards de dollars de coûts supplémentaires, selon les analystes. Son bénéfice net s'élevait à près de 60 milliards de dollars en 2022.

Morgan Stanley a estimé que les 3 300 milliards de recherches effectuées par Google l'année dernière coûtaient environ un cinquième de centime chacune, un chiffre qui augmenterait en fonction de la quantité de texte que l'IA doit générer. Les analystes prévoient que Google, par exemple, pourrait être confronté à une augmentation de ses dépenses de 6 milliards de dollars d'ici à 2024 si l'IA de type ChatGPT devait traiter la moitié des requêtes qu'il reçoit avec des réponses de 50 mots. Il est peu probable que Google ait besoin d'un chatbot pour gérer les recherches de navigation sur des sites comme Wikipédia.

D'autres sont parvenus à une facture similaire de différentes manières. Par exemple, SemiAnalysis, une société de recherche et de conseil spécialisée dans la technologie des puces, a déclaré que l'ajout d'une IA de type ChatGPT à la recherche pourrait coûter 3 milliards de dollars à Alphabet, un montant limité par les puces internes de Google appelées Tensor Processing Units (TPU), ainsi que par d'autres optimisations.

Ce qui rend cette forme d'IA plus onéreuse que la recherche conventionnelle, c'est la puissance de calcul qu'elle implique. Une telle IA dépend de milliards de dollars de puces, un coût qui doit être réparti sur leur durée de vie utile de plusieurs années, selon les analystes. De même, l'électricité augmente les coûts et la pression pour les entreprises qui ont des objectifs en matière d'empreinte carbone.

Le processus de traitement des requêtes de recherche alimentées par l'IA est connu sous le nom d'"inférence", dans lequel un "réseau neuronal" vaguement modelé sur la biologie du cerveau humain déduit la réponse à une question à partir d'un entraînement préalable.

Dans une recherche traditionnelle, en revanche, les robots d'indexation de Google ont parcouru l'internet pour compiler un index d'informations. Lorsqu'un utilisateur tape une requête, Google propose les réponses les plus pertinentes stockées dans l'index.

M. Hennessy, d'Alphabet, a déclaré à Reuters : "C'est le coût de l'inférence qu'il faut réduire", estimant qu'il s'agit d'un "problème qui ne durera que deux ans au pire".

Alphabet subit des pressions pour relever le défi malgré les dépenses. Au début du mois, son rival Microsoft Corp. a organisé un événement très médiatisé à son siège de Redmond, dans l'État de Washington, pour présenter ses projets d'intégration de la technologie de chat AI dans son moteur de recherche Bing, les dirigeants s'attaquant à la part de marché de Google dans le domaine de la recherche, qui s'élève à 91 % selon les estimations de Similarweb.

Un jour plus tard, Alphabet a parlé de ses projets d'amélioration de son moteur de recherche, mais une vidéo promotionnelle de son chatbot Bard a montré que le système répondait de manière inexacte à une question, ce qui a provoqué une chute de l'action qui a réduit de 100 milliards de dollars la valeur de marché de l'entreprise.

Microsoft a ensuite fait l'objet d'un examen minutieux lorsque son IA aurait proféré des menaces ou des déclarations d'amour à des utilisateurs testés, ce qui a incité l'entreprise à limiter les longues sessions de chat qui, selon elle, "provoquaient" des réponses involontaires.

Amy Hood, directrice financière de Microsoft, a déclaré aux analystes que l'augmentation du nombre d'utilisateurs et des recettes publicitaires l'emportait sur les dépenses au fur et à mesure que le nouveau Bing était déployé auprès de millions de consommateurs. "Il s'agit pour nous d'une marge brute supplémentaire, même avec le coût de service dont nous parlons", a-t-elle déclaré.

Un autre concurrent de Google, Richard Socher, PDG du moteur de recherche You.com, a déclaré que l'ajout d'une expérience de chat AI ainsi que d'applications pour les graphiques, les vidéos et d'autres technologies génératives a augmenté les dépenses de 30 à 50 %. "La technologie devient moins chère à grande échelle et au fil du temps", a-t-il déclaré.

Une source proche de Google a précisé qu'il était encore trop tôt pour déterminer le coût exact des chatbots, car l'efficacité et l'utilisation varient considérablement en fonction de la technologie concernée, et l'IA alimente déjà des produits tels que la recherche.

Paul Daugherty, directeur de la technologie chez Accenture, explique que le fait de devoir payer la note est l'une des deux principales raisons pour lesquelles les géants de la recherche et des médias sociaux, qui comptent des milliards d'utilisateurs, n'ont pas lancé de chatbot d'IA du jour au lendemain.

"La première est la précision, et la seconde est qu'il vous faut mettre cela à l'échelle de la bonne manière", a-t-il déclaré.

FAIRE FONCTIONNER LES MATHÉMATIQUES

Depuis des années, les chercheurs d'Alphabet et d'ailleurs étudient comment former et faire fonctionner de grands modèles de langage à moindre coût.

Les modèles de grande taille nécessitent plus de puces pour l'inférence et coûtent donc plus cher. L'IA qui éblouit les consommateurs par son autorité proche de celle des humains a vu sa taille exploser, atteignant 175 milliards de paramètres, c'est-à-dire de valeurs différentes prises en compte par l'algorithme, pour le modèle qu'OpenAI a mis à jour dans ChatGPT. Le coût varie également en fonction de la longueur de la requête de l'utilisateur, mesurée en "tokens" ou morceaux de mots.

Un cadre supérieur du secteur technologique a déclaré à Reuters que le coût de ce type d'intelligence artificielle restait prohibitif pour des millions de consommateurs.

"Ces modèles sont très coûteux, et le prochain niveau d'invention consistera donc à réduire le coût de l'entraînement de ces modèles et de l'inférence afin que nous puissions les utiliser dans toutes les applications", a déclaré ce cadre sous couvert d'anonymat.

Pour l'instant, les informaticiens de l'OpenAI ont trouvé le moyen d'optimiser les coûts d'inférence grâce à un code complexe qui permet aux puces de fonctionner plus efficacement, a déclaré une personne au fait de ces efforts. Un porte-parole de l'OpenAI n'a pas souhaité faire de commentaire dans l'immédiat.

La question à plus long terme est de savoir comment réduire le nombre de paramètres d'un modèle d'IA de 10, voire de 100 fois, sans perdre en précision.

"La question de savoir comment éliminer (les paramètres) le plus efficacement possible reste ouverte", a déclaré Naveen Rao, qui a dirigé les efforts d'Intel Corp en matière de puces d'IA et qui s'efforce aujourd'hui de réduire les coûts de calcul de l'IA par l'intermédiaire de sa startup MosaicML.

En attendant, certains ont envisagé de faire payer l'accès, comme OpenAI qui propose un abonnement de 20 dollars par mois pour un meilleur service ChatGPT. Les experts en technologie ont également indiqué qu'une solution de rechange consistait à appliquer des modèles d'IA plus petits à des tâches plus simples, ce qu'Alphabet est en train d'explorer.

L'entreprise a déclaré ce mois-ci qu'une version "plus petite" de son énorme technologie d'IA LaMDA alimentera son chatbot Bard, nécessitant "beaucoup moins de puissance de calcul, ce qui nous permettra de l'étendre à un plus grand nombre d'utilisateurs".

Interrogé sur les chatbots tels que ChatGPT et Bard, M. Hennessy a déclaré lors d'une conférence appelée TechSurge la semaine dernière que des modèles plus ciblés, plutôt qu'un système qui fait tout, aideraient à "maîtriser les coûts".