Alphabet devrait annoncer mardi comment elle développe l'intelligence artificielle dans toutes ses activités, au lendemain de la démonstration par l'OpenAI d'un nouveau modèle d'IA capable de travailler avec des sons et des images en plus du texte.

L'événement annuel I/O destiné aux développeurs est généralement l'occasion pour Alphabet de présenter ses dernières technologies. Ce qu'elle dévoilera aidera les investisseurs à évaluer ses progrès par rapport à OpenAI, soutenue par Microsoft. Cet événement est un indicateur essentiel de la position concurrentielle d'Alphabet dans le domaine de la technologie, car il introduit l'IA dans des produits tels que la recherche, utilisée par des milliards de personnes dans le monde.

Google devrait lancer la prochaine version de son système d'exploitation Android et une série de mises à jour de sa technologie d'IA la plus avancée, appelée Gemini.

Un jour avant l'événement, Google a présenté dans une vidéo un logiciel qui semblait démontrer que l'IA pouvait tirer des conclusions à partir du flux en direct de la caméra. L'opérateur téléphonique a posé plusieurs questions et l'application a répondu d'une voix semblable à celle d'un assistant virtuel.

Le logiciel semble avoir des capacités similaires à l'une des fonctions démontrées par OpenAI lors du lancement de son dernier modèle d'IA, GPT-4o.

OpenAI a présenté lundi son nouveau modèle d'IA multimodale appelé GPT-4o, qui permet à ChatGPT de répondre par la voix en temps réel et d'être interrompu, deux caractéristiques des conversations vocales réalistes que les assistants vocaux de l'IA, comme Google Assistant, ont trouvé difficiles. L'entreprise a indiqué qu'elle l'offrirait gratuitement aux utilisateurs de ChatGPT, sans publicité.

La conférence se tient à l'amphithéâtre Shoreline à Mountain View, en Californie. Le PDG Sundar Pichai et d'autres dirigeants devraient commencer leur présentation à 10 heures, heure du Pacifique. (Rapport de Max A. Cherney à San Francisco ; reportage supplémentaire par Anna Tong à San Francisco ; édition par Stephen Coates)