L'autorité italienne de protection des données a déclaré lundi qu'elle avait informé OpenAI que son application de chatbot d'intelligence artificielle ChatGPT enfreignait les règles de protection des données.

L'organisme de surveillance italien, connu sous le nom de Garante - l'un des plus proactifs de l'Union européenne en matière d'évaluation de la conformité des plateformes d'intelligence artificielle avec le régime de protection des données de l'Union - a brièvement interdit ChatGPT l'année dernière en raison d'une violation présumée des règles de l'UE en matière de protection de la vie privée.

À l'époque, le régulateur a également lancé une enquête, qui a maintenant conclu qu'il existe des éléments indiquant une ou plusieurs violations potentielles de la confidentialité des données, a déclaré le régulateur dans un communiqué.

La Garante a indiqué qu'OpenAI, soutenue par Microsoft, disposait de 30 jours pour présenter ses arguments de défense, et a ajouté que son enquête tiendrait compte du travail effectué par un groupe de travail européen composé d'organismes nationaux de protection de la vie privée.

Reuters a contacté OpenAI pour obtenir des commentaires.

L'Italie a été le premier pays d'Europe occidentale à limiter le ChatGPT, dont le développement rapide a attiré l'attention des législateurs et des régulateurs.

En vertu du règlement général sur la protection des données (RGPD) de l'UE, introduit en 2018, toute entreprise donnée prise en défaut s'expose à des amendes pouvant aller jusqu'à 4 % du chiffre d'affaires mondial de l'entreprise.

En décembre, les législateurs et les gouvernements de l'UE se sont mis d'accord sur des conditions provisoires pour réglementer les systèmes d'IA comme ChatGPT, faisant ainsi un pas de plus vers l'établissement de règles régissant la technologie. (Reportage d'Elvira Pollina, édition d'Alvise Armellini et d'Emelia Sithole-Matarise)