Un groupe de travail de l'organisme de surveillance de la vie privée de l'Union européenne a déclaré que les efforts récents d'OpenAI pour réduire le risque que son célèbre chatbot produise des résultats factuellement erronés n'étaient pas suffisants pour garantir la conformité avec les règles de l'UE en matière de données.

"Bien que les mesures prises pour se conformer au principe de transparence soient bénéfiques pour éviter une mauvaise interprétation des résultats de ChatGPT, elles ne sont pas suffisantes pour se conformer au principe d'exactitude des données", a déclaré le groupe de travail dans un rapport publié sur son site Web vendredi.

Les enquêtes conjointes menées par les organismes nationaux de protection de la vie privée de l'UE sont toujours en cours, précise le rapport, qui ajoute qu'il n'est donc pas encore possible de fournir une description complète des résultats. (Reportage de Tassilo Hummel ; Rédaction de Benoit Van Overstraeten)