Les puces de Nvidia ont aidé des entreprises telles que Microsoft Corp à ajouter des fonctions de chat semblables à celles des humains à des moteurs de recherche tels que Bing. Mais les chatbots peuvent encore être imprévisibles et dire des choses que leurs créateurs souhaiteraient qu'ils ne disent pas.

En février, Microsoft a limité les utilisateurs à cinq questions par session avec son moteur de recherche Bing après que le New York Times a rapporté que le système donnait des réponses déstabilisantes lors de longues conversations.

Les outils logiciels de Nvidia, fournis gratuitement, sont conçus pour aider les entreprises à se prémunir contre les réponses indésirables des chatbots. Certaines de ces utilisations sont simples : le fabricant d'un chatbot de service à la clientèle ne souhaite pas que le système mentionne les produits de ses concurrents.

Mais les outils de Nvidia sont également conçus pour aider les créateurs de systèmes d'IA à mettre en place d'importantes mesures de sécurité, notamment pour s'assurer que les chatbots ne répondent pas en donnant des informations potentiellement dangereuses, comme la manière de créer des armes, ou qu'ils n'envoient pas les utilisateurs vers des liens inconnus susceptibles de contenir des virus informatiques.

Les législateurs américains ont demandé que les systèmes d'intelligence artificielle soient réglementés, car des applications telles que ChatGPT ont gagné en popularité. Il existe peu de règles juridiques ou de normes industrielles sur la manière de rendre les systèmes d'IA sûrs.

Jonathan Cohen, vice-président de la recherche appliquée chez Nvidia, a déclaré que l'entreprise avait pour objectif de fournir des outils permettant d'intégrer ces normes dans le code logiciel si et lorsqu'elles apparaîtront, que ce soit par le biais d'un consensus industriel ou d'une réglementation.

"Je pense qu'il est difficile de parler de normes si vous ne disposez pas d'un moyen de les mettre en œuvre", a-t-il déclaré. "Si des normes émergent, il y aura alors un bon endroit pour les mettre en place.