Un pirate informatique a accédé aux systèmes de messagerie interne d'OpenAI l'année dernière et a volé des détails sur la conception des technologies d'intelligence artificielle de l'entreprise, a rapporté le New York Times jeudi.

Le pirate a puisé ces informations dans les discussions d'un forum en ligne où les employés discutaient des dernières technologies d'OpenAI, indique le rapport, citant deux personnes au fait de l'incident.

Cependant, ils n'ont pas pénétré dans les systèmes où OpenAI, l'entreprise à l'origine du chatbot sensationnel ChatGPT, héberge et construit son IA, a ajouté le rapport.

OpenAI, soutenue par Microsoft Corp, n'a pas immédiatement répondu à une demande de commentaire de Reuters.

Les dirigeants d'OpenAI ont informé les employés lors d'une réunion générale en avril de l'année dernière et le conseil d'administration de l'entreprise de la violation, selon le rapport, mais les dirigeants ont décidé de ne pas partager la nouvelle publiquement car aucune information sur les clients ou les partenaires n'avait été volée.

Les dirigeants d'OpenAI n'ont pas considéré l'incident comme une menace pour la sécurité nationale, estimant que le pirate était une personne privée sans lien connu avec un gouvernement étranger, selon le rapport. La société basée à San Francisco n'a pas informé les autorités fédérales chargées de l'application de la loi de l'existence de cette violation, ajoute le rapport.

En mai, OpenAI a déclaré avoir perturbé cinq opérations d'influence secrètes qui cherchaient à utiliser ses modèles d'IA pour des "activités trompeuses" sur l'internet, le dernier incident en date ayant suscité des inquiétudes quant à l'utilisation abusive potentielle de la technologie.

L'administration Biden était sur le point d'ouvrir un nouveau front dans ses efforts pour protéger la technologie américaine d'IA de la Chine et de la Russie, avec des plans préliminaires pour placer des garde-fous autour des modèles d'IA les plus avancés, y compris le ChatGPT, a rapporté Reuters plus tôt, citant des sources.

En mai, 16 entreprises développant l'IA se sont engagées, lors d'une réunion mondiale, à développer la technologie en toute sécurité, à une époque où les régulateurs s'efforcent de suivre l'évolution rapide de l'innovation et des risques émergents.