L'administration Biden est sur le point d'ouvrir un nouveau front dans ses efforts pour protéger l'IA américaine contre la Chine, avec des plans préliminaires pour placer des garde-fous autour des modèles d'IA les plus avancés, le logiciel de base des systèmes d'intelligence artificielle tels que ChatGPT, ont indiqué des sources.

Le ministère du commerce envisage une nouvelle initiative réglementaire visant à restreindre l'exportation de modèles d'IA propriétaires ou à source fermée, dont le logiciel et les données sur lesquelles ils sont entraînés sont gardés secrets, ont déclaré trois personnes au fait de la question.

Toute action viendrait compléter une série de mesures mises en place au cours des deux dernières années pour bloquer l'exportation de puces d'IA sophistiquées vers la Chine, afin de ralentir le développement par Pékin de cette technologie de pointe à des fins militaires. Malgré cela, il sera difficile pour les régulateurs de suivre le rythme des développements rapides de l'industrie.

Le ministère du commerce s'est refusé à tout commentaire. L'ambassade de Chine à Washington n'a pas répondu immédiatement à une demande de commentaire.

À l'heure actuelle, rien n'empêche les géants américains de l'IA, comme OpenAI, soutenu par Microsoft, Google DeepMind, d'Alphabet, et son rival Anthropic, qui ont mis au point des modèles d'IA fermés parmi les plus puissants, de les vendre à presque n'importe qui dans le monde, sans contrôle du gouvernement.

Les chercheurs du gouvernement et du secteur privé craignent que les adversaires des États-Unis n'utilisent ces modèles, qui exploitent de grandes quantités de textes et d'images pour résumer des informations et générer du contenu, pour mener des cyberattaques agressives ou même créer des armes biologiques puissantes.

Pour mettre en place un contrôle des exportations de modèles d'IA, les sources ont indiqué que les États-Unis pourraient se tourner vers un seuil contenu dans un décret sur l'IA publié en octobre dernier, qui est basé sur la quantité de puissance de calcul nécessaire pour entraîner un modèle. Lorsque ce seuil est atteint, un développeur doit signaler ses plans de développement de modèles d'IA et fournir les résultats des tests au ministère du commerce.

Ce seuil de puissance de calcul pourrait servir de base pour déterminer quels modèles d'IA seraient soumis à des restrictions à l'exportation, selon deux fonctionnaires américains et une autre source informée des discussions. Ils ont refusé d'être nommés car les détails n'ont pas été rendus publics.

S'il est utilisé, il ne restreindra probablement que l'exportation des modèles qui n'ont pas encore été commercialisés, car aucun n'a encore atteint le seuil, bien que le Gemini Ultra de Google en soit considéré comme proche, selon EpochAI, un institut de recherche qui suit les tendances en matière d'intelligence artificielle.

L'agence est loin d'avoir finalisé une proposition de règlement, ont souligné les sources. Mais le fait qu'une telle mesure soit envisagée montre que le gouvernement américain cherche à combler les lacunes dans ses efforts pour contrecarrer les ambitions de Pékin en matière d'IA, malgré les défis importants que pose l'imposition d'un régime réglementaire musclé pour cette technologie en évolution rapide.

Alors que l'administration Biden se penche sur la concurrence avec la Chine et les dangers de l'IA sophistiquée, les modèles d'IA "sont évidemment l'un des outils, l'un des points d'étranglement potentiels auxquels vous devez penser ici", a déclaré Peter Harrell, un ancien fonctionnaire du Conseil de sécurité nationale. "Il reste à voir si vous pouvez, dans la pratique, en faire un point d'étranglement contrôlable à l'exportation", a-t-il ajouté.

ARMES BIOLOGIQUES ET CYBERATTAQUES ?

La communauté américaine du renseignement, les groupes de réflexion et les universitaires s'inquiètent de plus en plus des risques posés par des acteurs étrangers mal intentionnés qui auraient accès à des capacités d'IA avancées. Des chercheurs de Gryphon Scientific et de la Rand Corporation ont noté que les modèles d'IA avancés peuvent fournir des informations susceptibles de contribuer à la création d'armes biologiques.

Le ministère de la sécurité intérieure a déclaré que les cyberacteurs utiliseraient probablement l'IA pour "développer de nouveaux outils" afin de "permettre des cyberattaques à plus grande échelle, plus rapides, plus efficaces et plus évasives" dans son évaluation de la menace pour la sécurité intérieure en 2024.

Toute nouvelle règle d'exportation pourrait également viser d'autres pays, a déclaré l'une des sources.

"L'explosion potentielle de l'utilisation et de l'exploitation [de l'IA] est radicale et nous avons beaucoup de mal à la suivre", a déclaré Brian Holmes, un responsable du bureau du directeur du renseignement national, lors d'une réunion sur le contrôle des exportations en mars, en soulignant que les progrès de la Chine étaient particulièrement préoccupants.

LA CRISE DE L'IA

Pour répondre à ces préoccupations, les États-Unis ont pris des mesures pour endiguer le flux de puces d'IA américaines et des outils nécessaires à leur fabrication vers la Chine.

Ils ont également proposé une règle obligeant les entreprises américaines de cloud computing à informer le gouvernement lorsque des clients étrangers utilisent leurs services pour former de puissants modèles d'IA susceptibles d'être utilisés pour des cyberattaques.

Mais jusqu'à présent, elle n'a pas abordé la question des modèles d'IA eux-mêmes. Alan Estevez, qui supervise la politique d'exportation des États-Unis au ministère du commerce, a déclaré en décembre que l'agence étudiait les possibilités de réglementer les exportations de grands modèles de langage (LLM) avant de demander l'avis de l'industrie.

Tim Fist, expert en politique de l'IA au sein du groupe de réflexion CNAS, basé à Washington DC, estime que le seuil "est une bonne mesure temporaire jusqu'à ce que nous développions de meilleures méthodes pour mesurer les capacités et les risques des nouveaux modèles".

Le seuil n'est pas gravé dans le marbre. L'une des sources a déclaré que le département du commerce pourrait finir par fixer un seuil plus bas, en tenant compte d'autres facteurs, tels que le type de données ou les utilisations potentielles du modèle d'IA, comme la capacité de concevoir des protéines qui pourraient être utilisées pour fabriquer une arme biologique.

Quel que soit le seuil, les exportations de modèles d'IA seront difficiles à contrôler. De nombreux modèles sont des logiciels libres, ce qui signifie qu'ils resteraient hors de portée des contrôles d'exportation envisagés.

Même l'imposition de contrôles sur les modèles propriétaires les plus avancés s'avérera difficile, car les régulateurs auront probablement du mal à définir les bons critères pour déterminer quels modèles devraient être contrôlés, a déclaré M. Fist, notant que la Chine n'a probablement qu'environ deux ans de retard sur les États-Unis en ce qui concerne le développement de ses propres logiciels d'IA.