Meta Platforms commencera à détecter et à étiqueter les images générées par les services d'intelligence artificielle d'autres entreprises dans les mois à venir, en utilisant un ensemble de marqueurs invisibles intégrés dans les fichiers, a déclaré mardi son principal responsable politique.

Meta appliquera les étiquettes à tout contenu portant les marqueurs et publié sur ses services Facebook, Instagram et Threads, afin de signaler aux utilisateurs que les images - qui ressemblent souvent à de vraies photos - sont en fait des créations numériques, a écrit Nick Clegg, président des affaires mondiales de l'entreprise, dans un billet de blog.

L'entreprise étiquette déjà tout contenu généré à l'aide de ses propres outils d'intelligence artificielle.

Une fois que le nouveau système sera opérationnel, Meta fera de même pour les images créées par des services gérés par OpenAI, Microsoft, Adobe, Midjourney, Shutterstock et Google (Alphabet), a précisé M. Clegg.

Cette annonce donne un premier aperçu d'un système émergent de normes que les entreprises technologiques sont en train de mettre au point pour atténuer les inconvénients potentiels associés aux technologies d'IA générative, qui peuvent produire un contenu faux mais d'apparence réaliste en réponse à de simples invites.

Cette approche s'inspire d'un modèle établi au cours de la dernière décennie par certaines de ces mêmes entreprises pour coordonner le retrait de contenus interdits sur les plateformes, notamment les représentations de violence de masse et l'exploitation des enfants.

Dans une interview, M. Clegg a déclaré à Reuters qu'il était convaincu que les entreprises pouvaient à ce stade étiqueter de manière fiable les images générées par l'IA, mais il a ajouté que les outils permettant d'étiqueter les contenus audio et vidéo étaient plus compliqués et encore en cours de développement.

"Même si la technologie n'est pas encore tout à fait au point, en particulier en ce qui concerne l'audio et la vidéo, nous espérons pouvoir créer une dynamique et inciter le reste de l'industrie à suivre", a déclaré M. Clegg.

Dans l'intervalle, a-t-il ajouté, la Meta commencera à exiger des utilisateurs qu'ils étiquettent leurs propres contenus audio et vidéo modifiés et appliquera des sanctions s'ils ne le font pas. M. Clegg n'a pas décrit ces sanctions.

Il a ajouté qu'il n'existait actuellement aucun mécanisme viable pour étiqueter le texte écrit généré par des outils d'intelligence artificielle tels que ChatGPT.

"Ce bateau a coulé", a déclaré M. Clegg.

Un porte-parole de Meta a refusé de dire si l'entreprise appliquerait des étiquettes aux contenus générés par l'IA et partagés sur son service de messagerie cryptée WhatsApp.

Lundi, le conseil de surveillance indépendant de Meta a critiqué la politique de l'entreprise en matière de vidéos trompeuses, estimant qu'elle était trop restrictive et que le contenu devait être étiqueté plutôt que supprimé.

M. Clegg a déclaré qu'il était globalement d'accord avec ces critiques.

Il a ajouté que le conseil avait raison de dire que la politique actuelle de Meta "n'est tout simplement pas adaptée à un environnement où il y aura beaucoup plus de contenus synthétiques et hybrides qu'auparavant".

Il a cité le nouveau partenariat en matière d'étiquetage comme preuve que Meta s'engageait déjà dans la direction proposée par le conseil d'administration. (Reportage de Katie Paul à New York ; Rédaction de Matthew Lewis et Jamie Freed)