Les négociations autour des règles de l'Union européenne, les premières du genre à régir l'intelligence artificielle (IA), semblent sur le point d'atteindre un point culminant mercredi, alors que les législateurs entament ce que certains espèrent être le dernier cycle de discussions sur cette législation historique.

Ce qui sera décidé pourrait servir de modèle à d'autres gouvernements qui cherchent à élaborer des règles pour leur propre industrie de l'intelligence artificielle.

Avant la réunion, les législateurs et les gouvernements ne sont pas parvenus à se mettre d'accord sur des questions essentielles, notamment la réglementation de l'IA générative, qui connaît une croissance rapide, et son utilisation par les forces de l'ordre.

Voici ce que nous savons :

COMMENT LE CHATGPT A-T-IL FAIT DÉRAILLER LA LOI SUR L'AI ?

Le principal problème est que la première version de la loi a été rédigée au début de l'année 2021, près de deux ans avant le lancement de ChatGPT d'OpenAI, l'une des applications logicielles à la croissance la plus rapide de l'histoire.

Les législateurs se sont empressés de rédiger des réglementations alors même que des entreprises comme OpenAI, basée à Microsoft, continuent de découvrir de nouvelles utilisations pour leur technologie.

Le fondateur d'OpenAI, Sam Altman, et des informaticiens ont également tiré la sonnette d'alarme sur le danger de créer des machines puissantes et très intelligentes qui pourraient menacer l'humanité.

En 2021, les législateurs se sont concentrés sur des cas d'utilisation spécifiques, réglementant les outils d'IA en fonction de la tâche pour laquelle ils avaient été conçus et les classant par catégorie de risque, de minime à élevé.

L'utilisation de l'IA dans un certain nombre de domaines, tels que l'aviation, l'éducation et la surveillance biométrique, a été considérée comme présentant un risque élevé, soit dans le prolongement des lois existantes sur la sécurité des produits, soit parce qu'elle représentait une menace potentielle pour les droits de l'homme.

L'arrivée du ChatGPT en novembre 2022 a contraint les législateurs à revoir leur position.

Ce "système d'IA à usage général" (GPAIS) n'a pas été conçu pour un seul cas d'utilisation, mais pour accomplir toutes sortes de tâches : engager une conversation semblable à celle d'un humain, composer des sonnets et même écrire du code informatique.

Le ChatGPT et d'autres outils d'IA générative n'entraient pas clairement dans les catégories de risque définies à l'origine par la loi, ce qui a donné lieu à une controverse permanente sur la manière dont ils devaient être réglementés.

QUELLES SONT LES PROPOSITIONS ?

Les systèmes d'IA à usage général, également connus sous le nom de modèles de base, peuvent être construits "au-dessus" par les développeurs pour créer de nouvelles applications.

Les chercheurs ont parfois été pris au dépourvu par le comportement de l'IA - comme l'habitude de ChatGPT d'"halluciner" de fausses réponses, lorsque le modèle sous-jacent est entraîné à prédire au mieux des chaînes de phrases, mais produit parfois des réponses qui semblent convaincantes, mais qui sont en fait fausses - et toute bizarrerie sous-jacente enfouie dans le code d'un modèle de base pourrait se manifester de manière inattendue lorsqu'elle est déployée dans différents contextes.

Les propositions de l'UE visant à réglementer les modèles de base prévoient d'obliger les entreprises à documenter clairement les données et les capacités d'entraînement de leur système, à démontrer qu'elles ont pris des mesures pour atténuer les risques potentiels et à se soumettre à des audits menés par des chercheurs externes.

Ces dernières semaines, la France, l'Allemagne et l'Italie - les pays les plus influents de l'UE - ont contesté ces propositions.

Ces trois pays souhaitent que les fabricants de modèles d'IA générative soient autorisés à s'autoréguler, au lieu d'être contraints de se conformer à des règles strictes.

Ils affirment que des réglementations strictes limiteront la capacité des entreprises européennes à concurrencer les entreprises américaines dominantes telles que Google et Microsoft.

Les petites entreprises qui créent des outils à partir du code de l'OpenAI seraient également soumises à des règles plus strictes, alors que les fournisseurs comme l'OpenAI ne le seraient pas.

QUEL EST LE PROBLÈME AVEC L'APPLICATION DE LA LOI ?

Les législateurs sont également divisés sur l'utilisation des systèmes d'IA par les forces de l'ordre pour l'identification biométrique des personnes dans les espaces accessibles au public, ont déclaré des sources à Reuters.

Les législateurs européens souhaitent que la réglementation protège les droits fondamentaux des citoyens, mais les États membres veulent une certaine souplesse pour que la technologie puisse être utilisée dans l'intérêt de la sécurité nationale, par la police ou les agences de protection des frontières, par exemple.

Les eurodéputés pourraient abandonner leur proposition d'interdiction de l'identification biométrique à distance, a déclaré une source, si les exemptions pour son utilisation étaient limitées et clairement définies.

QUEL EST LE RÉSULTAT PROBABLE ?

Si un texte final est adopté mercredi, le Parlement européen pourrait théoriquement voter la loi dans le courant du mois. Même dans ce cas, il pourrait s'écouler près de deux ans avant qu'il n'entre en vigueur.

En l'absence d'un accord définitif, les législateurs et les gouvernements de l'UE pourraient toutefois parvenir à un "accord provisoire", dont les détails seraient définis au cours de plusieurs semaines de réunions techniques. Cela risque de raviver des désaccords de longue date.

Il leur faudrait encore parvenir à un accord prêt à être soumis au vote au printemps. Sans cela, la loi risque d'être reportée après les élections législatives de juin et le bloc des 27 perdrait son avantage de pionnier en matière de réglementation de la technologie. (Reportage de Martin Coulter, édition de Josephine Mason et David Evans)