L'ancien scientifique en chef d'OpenAI, Ilya Sutskever, l'un des plus grands noms de l'intelligence artificielle, avait une prédiction à faire vendredi : les capacités de raisonnement rendront la technologie beaucoup moins prévisible.

En acceptant un prix "Test Of Time" pour son article de 2014 avec Oriol Vinyals et Quoc Le de Google, Sutskever a déclaré qu'un changement majeur se profilait à l'horizon de l'IA.

L'idée que son équipe a explorée il y a dix ans, selon laquelle l'augmentation des données pour "pré-entraîner" les systèmes d'IA leur permettrait d'atteindre de nouveaux sommets, commence à atteindre ses limites, a-t-il déclaré. Davantage de données et de puissance de calcul avaient permis d'aboutir au ChatGPT qu'OpenAI a lancé en 2022, sous les acclamations du monde entier.

"Mais le pré-entraînement tel que nous le connaissons va incontestablement disparaître", a déclaré M. Sutskever devant des milliers de participants à la conférence NeurIPS à Vancouver. "Alors que le calcul croît, les données ne croissent pas, car nous n'avons qu'un seul Internet.

Sutskever a proposé quelques pistes pour repousser la frontière malgré cette énigme. Selon lui, la technologie elle-même pourrait générer de nouvelles données, ou les modèles d'IA pourraient évaluer plusieurs réponses avant de choisir la meilleure pour un utilisateur, afin d'améliorer la précision. D'autres scientifiques se sont intéressés aux données du monde réel.

Mais son intervention s'est terminée par une prédiction d'un avenir de machines superintelligentes qu'il a dit attendre "manifestement", un point sur lequel certains ne sont pas d'accord. Sutskever a cofondé cette année la société Safe Superintelligence Inc. à la suite de son rôle dans l'éviction éphémère de Sam Altman de l'OpenAI, qu'il a déclaré regretter quelques jours plus tard.

Selon lui, les agents d'intelligence artificielle, qui travaillent depuis longtemps, verront le jour dans cette ère future, auront une compréhension plus profonde et seront conscients d'eux-mêmes. Selon lui, l'IA raisonnera pour résoudre les problèmes comme le font les humains.

Mais il y a un hic.

"Plus elle raisonne, plus elle devient imprévisible.

Le fait de raisonner à travers des millions d'options pourrait rendre tout résultat non évident. À titre d'exemple, AlphaGo, un système conçu par DeepMind, une société d'Alphabet, a surpris les experts de ce jeu de société extrêmement complexe en jouant son 37e coup de manière insondable, avant de battre Lee Sedol lors d'un match en 2016.

Sutskever a déclaré de la même manière que "les IA d'échecs, les très bonnes, sont imprévisibles pour les meilleurs joueurs d'échecs humains."

Selon lui, l'IA telle que nous la connaissons sera "radicalement différente".