On estime que ChatGPT a atteint 100 millions d'utilisateurs actifs mensuels deux mois seulement après son lancement, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire et une cible de plus en plus importante pour la réglementation.

Elle a été créée par OpenAI, une société privée soutenue par Microsoft Corp, et mise gratuitement à la disposition du public. Son omniprésence a suscité la crainte que l'IA générative telle que ChatGPT ne soit utilisée pour diffuser de la désinformation, tandis que les éducateurs craignent que les étudiants ne s'en servent pour tricher.

Le représentant Ted Lieu, membre démocrate de la commission des sciences de la Chambre des représentants, a déclaré dans un récent article d'opinion paru dans le New York Times qu'il était enthousiasmé par l'IA et les "incroyables façons dont elle continuera à faire progresser la société", mais qu'il était également "effrayé par l'IA, en particulier par l'IA qui n'est pas contrôlée et réglementée".

M. Lieu a présenté une résolution rédigée par ChatGPT, selon laquelle le Congrès devrait se pencher sur l'IA "pour s'assurer que le développement et le déploiement de l'IA se font d'une manière sûre, éthique et respectueuse des droits et de la vie privée de tous les Américains, et que les avantages de l'IA sont largement distribués et les risques minimisés".

En janvier, le PDG d'OpenAI, Sam Altman, s'est rendu au Capitole où il a rencontré des législateurs axés sur la technologie, tels que les sénateurs Mark Warner, Ron Wyden et Richard Blumenthal, ainsi que le représentant Jake Auchincloss, selon des assistants des législateurs démocrates.

Un collaborateur de Wyden a déclaré que le législateur avait insisté auprès de M. Altman sur la nécessité de veiller à ce que l'IA ne comporte pas de préjugés susceptibles d'entraîner des discriminations dans le monde réel, par exemple en matière de logement ou d'emploi.

"Le sénateur Wyden est convaincu que l'IA a un énorme potentiel pour accélérer l'innovation et la recherche, mais il tient absolument à ce que les systèmes automatisés n'automatisent pas la discrimination dans le processus", a déclaré Keith Chu, un assistant du sénateur Wyden.

Un second collaborateur du Congrès a décrit les discussions comme étant axées sur la rapidité des évolutions de l'IA et sur la manière dont elle pourrait être utilisée.

D'après les médias, le ChatGPT a déjà été interdit dans les écoles de New York et de Seattle en raison de craintes de plagiat. Un assistant du Congrès a déclaré que les inquiétudes exprimées par les électeurs provenaient principalement d'éducateurs qui s'intéressaient à la tricherie.

OpenAI a déclaré dans un communiqué : "Nous ne voulons pas que ChatGPT soit utilisé à des fins trompeuses dans les écoles ou ailleurs, c'est pourquoi nous développons déjà des mesures d'atténuation pour aider quiconque à identifier le texte généré par ce système.

Dans une interview accordée au Time, Mira Murati, directrice de la technologie d'OpenAI, a déclaré que l'entreprise était prête à recevoir des informations, notamment de la part des autorités de réglementation et des gouvernements. "Il n'est pas trop tôt (pour que les régulateurs s'impliquent)", a-t-elle déclaré.

Andrew Burt, associé directeur de BNH.AI, un cabinet d'avocats spécialisé dans la responsabilité de l'IA, a souligné les préoccupations en matière de sécurité nationale, ajoutant qu'il s'est entretenu avec des législateurs qui étudient la possibilité de réglementer ChatGPT et des systèmes d'IA similaires tels que Bard de Google, bien qu'il ait déclaré qu'il ne pouvait pas divulguer les noms de ces personnes.

"La proposition de valeur de ces types de systèmes d'IA est qu'ils peuvent générer du contenu à des échelles et à des vitesses que les humains ne peuvent tout simplement pas atteindre", a-t-il déclaré.

"Je m'attends à ce que des acteurs malveillants, des acteurs non étatiques et des acteurs étatiques ayant des intérêts contraires à ceux des États-Unis utilisent ces systèmes pour générer des informations qui pourraient être erronées ou nuisibles.

Interrogé sur la manière dont il devrait être réglementé, le ChatGPT lui-même s'est défilé et a déclaré : "En tant que modèle de langage d'IA neutre, le ChatGPT ne devrait pas être réglementé : "En tant que modèle de langage d'IA neutre, je n'ai pas de position sur les lois spécifiques qui pourraient ou non être adoptées pour réglementer les systèmes d'IA comme moi." Mais il a ensuite énuméré les domaines potentiels sur lesquels les régulateurs devraient se concentrer, tels que la confidentialité des données, la partialité et l'équité, ainsi que la transparence dans la manière dont les réponses sont rédigées.