Dans deux articles de blog qui doivent être publiés mercredi, le Centre national de cybersécurité britannique (NCSC) indique que les experts n'ont pas encore maîtrisé les problèmes de sécurité potentiels liés aux algorithmes capables de générer des interactions à consonance humaine, appelés "modèles de langage de grande taille" (LLM).

Ces outils alimentés par l'IA commencent à être utilisés sous forme de chatbots qui, selon certains, remplaceront non seulement les recherches sur l'internet, mais aussi le service clientèle et les appels de vente.

Le NCSC a déclaré que cela pouvait comporter des risques, en particulier si ces modèles étaient intégrés dans d'autres éléments des processus d'entreprise de l'organisation. Les universitaires et les chercheurs ont à maintes reprises trouvé des moyens de subvertir les chatbots en leur donnant des commandes malveillantes ou en les incitant à contourner leurs propres garde-fous.

Par exemple, un chatbot doté d'une IA et déployé par une banque pourrait être amené à effectuer une transaction non autorisée si un pirate informatique structurait correctement sa requête.

"Les organisations qui créent des services utilisant des LLM doivent être prudentes, de la même manière qu'elles le seraient si elles utilisaient un produit ou une bibliothèque de code en version bêta", a déclaré le NCSC dans l'un de ses billets de blog, en faisant référence aux versions expérimentales des logiciels.

"Ils pourraient ne pas laisser ce produit participer à des transactions pour le compte du client, et ne pas lui faire entièrement confiance. Une prudence similaire devrait s'appliquer aux LLM".

Les autorités du monde entier sont aux prises avec l'essor des LLM, tels que le ChatGPT d'OpenAI, que les entreprises intègrent dans un large éventail de services, notamment dans les domaines de la vente et de l'assistance à la clientèle. Les implications de l'IA en matière de sécurité sont également toujours d'actualité, les autorités américaines et canadiennes affirmant avoir vu des pirates informatiques s'emparer de cette technologie.