Le conseil, mis en place par la société pour répondre aux critiques sur sa gestion des contenus problématiques, prend des décisions contraignantes sur un petit nombre de cas de modération de contenus difficiles et fournit des recommandations politiques non contraignantes.

Meta a fait l'objet d'un examen minutieux de la part des législateurs et des régulateurs concernant la sécurité des utilisateurs et sa gestion des abus sur ses plates-formes à travers le monde, en particulier après que la dénonciatrice Frances Haugen a divulgué des documents internes qui ont montré les difficultés de l'entreprise à contrôler le contenu dans les pays où un tel discours était le plus susceptible de causer du tort, y compris l'Éthiopie.

Des milliers de personnes sont mortes et des millions ont été déplacées au cours d'un conflit qui dure depuis un an entre le gouvernement éthiopien et les forces rebelles de la région du Tigré, dans le nord du pays.

Le géant des médias sociaux a déclaré qu'il avait "investi des ressources importantes en Éthiopie pour identifier et supprimer les contenus potentiellement préjudiciables", dans le cadre de sa réponse aux recommandations formulées par le conseil en décembre sur une affaire impliquant des contenus postés dans le pays.

Le mois dernier, le conseil de surveillance a confirmé la décision initiale de Meta de retirer un message alléguant l'implication de civils d'origine tigréenne dans des atrocités dans la région d'Amhara en Éthiopie. Comme Meta avait rétabli le message après l'appel de l'utilisateur auprès du conseil, l'entreprise a dû retirer à nouveau le contenu.

Jeudi, Meta a déclaré que bien qu'elle ait retiré le message, elle n'était pas d'accord avec le raisonnement du conseil d'administration selon lequel il aurait dû être retiré parce qu'il s'agissait d'une "rumeur non vérifiée" qui augmentait considérablement le risque de violence imminente. Elle a déclaré que cela imposerait "une norme de publication journalistique aux gens".

Un porte-parole de la commission de surveillance a déclaré dans un communiqué : "Les politiques existantes de Meta interdisent les rumeurs qui contribuent à une violence imminente et qui ne peuvent pas être démenties dans un délai raisonnable, et le conseil a fait des recommandations pour s'assurer que ces politiques sont effectivement appliquées dans les situations de conflit."

"Les rumeurs alléguant qu'un groupe ethnique est complice d'atrocités, comme c'est le cas dans cette affaire, ont le potentiel de conduire à de graves préjudices pour les personnes", ont-ils déclaré.

Le conseil d'administration avait recommandé que Meta commande une évaluation de la diligence raisonnable en matière de droits de l'homme, à réaliser dans les six mois, qui devrait inclure un examen des capacités linguistiques de Meta en Éthiopie et un examen des mesures prises pour empêcher l'utilisation abusive de ses services dans le pays.

Cependant, la société a déclaré que tous les éléments de cette recommandation "peuvent ne pas être réalisables en termes de calendrier, de science des données ou d'approche." Elle a déclaré qu'elle poursuivrait sa diligence raisonnable existante en matière de droits de l'homme et devrait avoir une mise à jour sur la possibilité d'agir sur la recommandation du conseil d'administration dans les prochains mois.

Les précédents rapports de Reuters sur le Myanmar https://www.reuters.com/investigates/special-report/myanmar-facebook-hate et d'autres pays https://www.reuters.com/article/us-facebook-india-content/facebook-a-megaphone-for-hate-against-indian-minorities-idUSKBN1X929F ont enquêté sur la façon dont Facebook a eu du mal à surveiller le contenu à travers le monde dans différentes langues. En 2018, les enquêteurs des droits de l'homme de l'ONU ont déclaré que l'utilisation de Facebook avait joué un rôle clé dans la diffusion de discours haineux qui ont alimenté la violence au Myanmar.

Meta, qui a déclaré qu'elle était trop lente à empêcher la désinformation et la haine au Myanmar, a déclaré que l'entreprise a maintenant des locuteurs natifs dans le monde entier qui examinent le contenu dans plus de 70 langues qui travaillent pour arrêter les abus sur ses plateformes dans les endroits où il y a un risque accru de conflit et de violence.

Le conseil d'administration a également recommandé à Meta de réécrire sa déclaration de valeurs sur la sécurité afin de refléter le fait que les discours en ligne peuvent représenter un risque pour la sécurité physique des personnes et leur droit à la vie. L'entreprise a déclaré qu'elle apporterait des changements à cette valeur, dans le cadre d'une mise en œuvre partielle de la recommandation.