Un chercheur de ByteDance, propriétaire chinois de TikTok, a été ajouté à tort à un groupe de discussion destiné aux experts américains en sécurité de l'intelligence artificielle la semaine dernière, a déclaré lundi l'Institut national américain des normes et de la technologie (NIST).

Le chercheur a été ajouté à une instance Slack pour les discussions entre les membres de l'Institut américain de sécurité de l'intelligence artificielle du NIST, selon une personne familière avec le sujet.

Dans un courriel, le NIST a indiqué qu'il avait ajouté la chercheuse en sachant qu'elle était bénévole.

"Une fois que le NIST a appris que la personne était un employé de ByteDance, elle a été rapidement retirée pour avoir violé le code de conduite du consortium sur les fausses déclarations", indique le courriel.

La chercheuse, dont le profil LinkedIn indique qu'elle est basée en Californie, n'a pas répondu aux messages ; ByteDance n'a pas répondu aux courriels demandant des commentaires.

La personne au courant de l'affaire a déclaré que l'apparition d'une chercheuse de ByteDance a fait sourciller le consortium parce que l'entreprise n'est pas membre et que TikTok est au centre d'un débat national sur la question de savoir si l'application populaire a ouvert une porte dérobée permettant au gouvernement chinois d'espionner ou de manipuler les Américains à grande échelle. La semaine dernière, la Chambre des représentants des États-Unis a adopté un projet de loi obligeant ByteDance à se défaire de TikTok sous peine d'interdiction à l'échelle nationale ; l'ultimatum est confronté à une voie incertaine au Sénat.

L'AI Safety Institute a pour mission d'évaluer les risques liés aux programmes d'intelligence artificielle de pointe. Annoncé l'année dernière, l'institut a été créé sous l'égide du NIST et compte parmi ses membres fondateurs des centaines de grandes entreprises technologiques américaines, des universités, des startups spécialisées dans l'intelligence artificielle, des organisations non gouvernementales et d'autres organismes, dont Thomson Reuters, la société mère de Reuters.

Le consortium travaille notamment à l'élaboration de lignes directrices pour le déploiement en toute sécurité de programmes d'IA et pour aider les chercheurs en IA à trouver et à corriger les failles de sécurité dans leurs modèles. Le NIST a déclaré que l'instance Slack pour le consortium comprend environ 850 utilisateurs. (Reportage de Raphael Satter ; Rédaction de Sharon Singleton)