SAN FRANCISCO - Google, filiale d'Alphabet, a présenté mercredi la deuxième génération de son modèle d'intelligence artificielle Gemini et a annoncé une série de nouvelles façons d'utiliser l'IA au-delà des chatbots, y compris par le biais d'une paire de lunettes.

Dans un billet de blog, le PDG Sundar Pichai a qualifié ce moment de début d'une "nouvelle ère agentique", faisant référence à des assistants virtuels capables d'accomplir des tâches avec une plus grande autonomie.

"Ils sont capables de mieux comprendre le monde qui vous entoure, d'anticiper et d'agir en votre nom, sous votre supervision.

Ces communiqués soulignent les méthodes utilisées par Google pour reprendre la tête de la course à la domination de cette technologie émergente. OpenAI, soutenu par Microsoft, a capté l'attention mondiale lorsqu'il a publié le chatbot ChatGPT en novembre 2022.

Google a dévoilé Gemini en décembre 2023 et propose désormais quatre versions.

Mercredi, il a publié une mise à jour de Flash, son deuxième modèle le moins cher, avec des performances améliorées et des fonctions supplémentaires pour traiter les images et le son. D'autres modèles seront proposés l'année prochaine.

OpenAI a annoncé ces derniers jours une flopée de nouvelles offres pour diversifier ses perspectives, notamment un abonnement ChatGPT de 200 dollars par mois pour une utilisation en recherche avancée et la disponibilité de son modèle de conversion de texte en vidéo Sora.

Le jeu de Google consiste à injecter ses avancées en matière d'IA dans des applications déjà largement adoptées. Search, Android et YouTube font partie des sept produits qui, selon l'entreprise, sont utilisés par plus de 2 milliards de personnes chaque mois.

Cette base d'utilisateurs constitue un avantage considérable par rapport aux startups concurrentes telles que la startup de recherche Perplexity, qui cherche à obtenir une valorisation de 9 milliards de dollars, et les laboratoires de recherche plus récents comme OpenAI, Anthropic ou xAI d'Elon Musk.

Le modèle Gemini 2.0 Flash alimentera des applications telles que les aperçus de l'IA dans son moteur de recherche.

Le plus grand pari d'Alphabet est l'IA pour la recherche, a déclaré Ruth Porat, présidente et directrice des investissements, lors de la conférence Reuters NEXT qui s'est tenue mardi à New York.

Google a également montré aux journalistes de nouvelles capacités pour Project Astra, un prototype d'agent universel qui peut parler aux utilisateurs de tout ce qui est capturé par la caméra de leur smartphone en temps utile.

L'outil peut désormais tenir une conversation dans plusieurs langues, ainsi que traiter des informations provenant de Maps et de l'outil de reconnaissance d'images Lens, a déclaré Bibo Xu, chef de produit du groupe DeepMind, aux journalistes.

Astra sera également testé sur des prototypes de lunettes, ce qui constitue le premier retour de l'entreprise dans ce domaine depuis l'échec des Google Glasses. D'autres ont depuis pénétré le marché, notamment Meta, qui a dévoilé en septembre un prototype de lunettes AR.

Google a également présenté aux journalistes le projet Mariner, une extension du navigateur web Chrome qui peut automatiser les frappes et les clics de souris, dans la veine de la fonction "utilisation de l'ordinateur" du laboratoire concurrent Anthropic, une fonction destinée à améliorer le codage des logiciels, appelée Jules, et un outil destiné à aider les consommateurs à prendre des décisions, par exemple sur ce qu'ils doivent faire ou sur les articles qu'ils doivent acheter dans les jeux vidéo.