"Nous avons normalisé un monde dans lequel les produits technologiques sortent de l'usine pleins de vulnérabilités et où l'on attend des consommateurs qu'ils corrigent ces vulnérabilités. Nous ne pouvons pas vivre dans ce monde avec l'IA", a déclaré Jen Easterly, directrice de l'Agence américaine de cybersécurité et de sécurité des infrastructures.

"Elle est trop puissante, elle va trop vite", a-t-elle déclaré lors d'un entretien téléphonique après s'être entretenue à Ottawa avec Sami Khoury, directeur du Centre canadien de cybersécurité.

Mme Easterly s'est exprimée le jour même où des agences de 18 pays, dont les États-Unis, ont approuvé de nouvelles lignes directrices élaborées par le Royaume-Uni sur la cybersécurité de l'IA, qui mettent l'accent sur la sécurité de la conception, du développement, du déploiement et de la maintenance.

"Nous devons envisager la sécurité tout au long du cycle de vie de cette capacité d'IA", a déclaré M. Khoury.

Au début du mois, les principaux développeurs d'IA ont accepté de collaborer avec les gouvernements pour tester les nouveaux modèles d'avant-garde avant qu'ils ne soient mis sur le marché, afin d'aider à gérer les risques liés au développement rapide de la technologie.

"Je pense que nous avons fait tout ce que nous pouvions faire à ce stade pour aider les nations du monde entier et les entreprises technologiques à définir, d'un point de vue technique, la manière de construire ces capacités de la manière la plus sûre possible", a déclaré M. Easterly.