Une autorité de régulation australienne a envoyé des lettres juridiques aux plateformes de médias sociaux (YouTube, X, Facebook, Telegram et Reddit) pour leur demander de fournir des informations sur les efforts qu'elles déploient pour lutter contre les contenus terroristes.

La Commission e-Safety a déclaré qu'elle craignait que les plateformes ne fassent pas assez pour empêcher les extrémistes d'utiliser les fonctions de diffusion en direct, les algorithmes et les systèmes de recommandation pour recruter des utilisateurs.

Depuis 2022, l'autorité de régulation a le pouvoir d'exiger des grandes entreprises technologiques qu'elles fournissent des informations sur la prévalence des contenus illégaux et sur les mesures qu'elles prennent pour empêcher la diffusion de ces contenus. Le non-respect de cette obligation peut entraîner de lourdes amendes.

Inman Grant a déclaré que Telegram était la plateforme la plus utilisée par les groupes extrémistes violents pour se radicaliser et recruter.

Le service de messagerie basé à Dubaï, qu'un rapport de l'OCDE de 2022 a classé au premier rang pour la fréquence de ce qu'il décrit comme des contenus terroristes et extrémistes violents, n'a pas immédiatement répondu à une demande de commentaire de Reuters.

"Nous ne savons pas s'ils ont réellement le personnel et les ressources nécessaires pour répondre à ces avis, mais nous verrons bien", a déclaré la commissaire Julie Inman Grant lors d'une interview accordée à Reuters. "Nous n'aurons pas peur d'aller aussi loin qu'il le faudra pour obtenir les réponses dont nous avons besoin ou pour constater qu'ils ne sont pas en conformité et leur infliger une amende.

YouTube, classé au deuxième rang pour les contenus extrémistes violents, "a le pouvoir, grâce à ses algorithmes intelligents, de diffuser de la propagande à grande échelle [...] d'une manière très ouverte ou très subtile qui envoie les gens dans des trous de lapin", a-t-elle ajouté.

Les sujets considérés comme terroristes vont des réactions aux guerres en Ukraine et à Gaza aux théories conspirationnistes violentes, en passant par les "tropes misogynes qui débordent sur la violence contre les femmes dans le monde réel", a déclaré Mme Inman Grant.

L'autorité de régulation a déjà envoyé des lettres juridiques aux plateformes afin d'obtenir des informations sur le traitement des contenus pédophiles et des discours haineux, mais sa campagne éclair contre le terrorisme a été la plus complexe en raison du large éventail de contenus et de méthodes d'amplification des contenus, a-t-elle déclaré.

La société X d'Elon Musk s'est vu infliger la première amende en matière d'e-sécurité en 2023 en raison de sa réponse aux questions relatives à la gestion des contenus pédopornographiques. L'entreprise conteste l'amende de 386 000 dollars devant le tribunal.

La Commission a ciblé Telegram et le site de forum de discussion Reddit pour la première fois dans cette série de lettres juridiques envoyées lundi. Un suprémaciste blanc qui a tué 10 Noirs à Buffalo, dans l'État de New York, en 2022, a déclaré que la plateforme avait contribué à sa radicalisation, selon la commissaire.

X et Alphabet, propriétaire de YouTube, n'étaient pas immédiatement disponibles pour commenter.

Un porte-parole de Meta, propriétaire de Facebook, a déclaré que l'entreprise examinait les avis de la commission et que "le terrorisme, l'extrémisme ou toute promotion de la violence ou de la haine n'ont pas leur place sur nos plateformes".

Un porte-parole de Reddit a également déclaré que les contenus terroristes n'avaient pas leur place sur la plateforme et que "nous sommes impatients de partager plus d'informations sur la manière dont nous détectons, supprimons et prévenons ce type de contenus et d'autres formes de contenus préjudiciables directement avec le commissaire à l'e-sécurité". (Reportage de Byron Kaye ; rédaction d'Edwina Gibbs et Lincoln Feast).