La tuerie de Buca, à l'extérieur de Kiev, a suscité des promesses de sanctions supplémentaires contre Moscou de la part de l'Occident.

Andy Stone, porte-parole de Meta, a déclaré que les systèmes automatisés qui analysent les images violentes sur Facebook et Instagram, dont la société est également propriétaire, étaient responsables du blocage des hashtags dont #bucha et #buchamassacre.

"Cela s'est produit automatiquement en raison du contenu graphique que les gens ont posté en utilisant ces hashtags. Lorsque nous avons été mis au courant du problème hier, nous avons agi rapidement pour débloquer les hashtags", a-t-il écrit sur Twitter.

Facebook et Instagram autorisent la publication de contenu graphique et violent lorsqu'il est partagé pour sensibiliser à d'éventuelles violations des droits de l'homme, mais suppriment le contenu s'il est extrêmement explicite ou s'il célèbre la souffrance.

La société de médias sociaux ajoute également des étiquettes d'avertissement à certaines publications graphiques sur lesquelles les utilisateurs doivent cliquer avant de pouvoir voir les images.

Les groupes de défense des droits de l'homme ont critiqué l'approche de Meta pour supprimer le contenu violent pendant les conflits, affirmant que sa pratique consistant à purger les données de ses serveurs après 90 jours entraîne la suppression de preuves essentielles de crimes de guerre.

Stone a déclaré que Meta "explorait des moyens de préserver ce type de contenu et d'autres types de contenu lorsque nous le supprimons", notamment en ce qui concerne la guerre en Ukraine.

La Russie a nié toute accusation liée au meurtre de civils.