Le 10 janvier, la société d'externalisation Sama, basée au Kenya, a déclaré qu'elle ne fournirait plus de services de modération de contenu au propriétaire de Facebook, WhatsApp et Instagram à partir du mois de mars, afin de se concentrer sur le travail d'étiquetage des données.

Sama a indiqué qu'elle licencierait 3 % de son personnel, soit environ 200 employés, afin de rationaliser ses activités et d'accroître son efficacité. Elle continuera à fournir des services d'étiquetage de données à Meta.

Cette annonce intervient alors que Sama et Meta sont toutes deux poursuivies en justice pour des allégations d'abus de droit du travail et pour avoir empêché les travailleurs de se syndiquer au Kenya. Une autre action en justice accuse Meta d'avoir permis à des messages violents de fleurir sur Facebook, attisant ainsi le conflit civil dans l'Éthiopie voisine. Les deux entreprises ont défendu leur bilan.

Les défenseurs des droits numériques ont déclaré que les efforts déployés par Meta pour limiter les contenus préjudiciables dans les pays africains étaient tout à fait insuffisants par rapport aux pays plus riches, et ont appelé l'entreprise à améliorer considérablement ses processus de modération.

"Avec le départ de Sama, c'est l'occasion pour Meta de rectifier le tir et de garantir de meilleures conditions de travail aux modérateurs africains dans la région", a déclaré Bridget Andere, analyste politique pour l'Afrique chez Access Now.

"Meta devrait augmenter le nombre de modérateurs pour la région afin de couvrir de manière adéquate les langues et dialectes locaux, et devrait également être plus transparent sur ses algorithmes qui favorisent les contenus nuisibles", a-t-elle déclaré à la Thomson Reuters Foundation.

Meta n'a pas précisé si elle avait trouvé un nouveau contractant tiers pour l'Afrique de l'Est, mais a déclaré que le retrait de Sama n'aurait pas d'impact négatif sur les utilisateurs de ses plateformes de médias sociaux.

"Nous respectons la décision de Sama de se retirer des services de révision de contenu qu'elle fournit aux plateformes de médias sociaux", a déclaré un porte-parole de Meta.

"Nous travaillerons avec nos partenaires pendant cette transition pour nous assurer qu'il n'y a pas d'impact sur notre capacité à évaluer le contenu.

DÉFIS JURIDIQUES

Les problèmes juridiques de Meta en Afrique de l'Est ont commencé en mai de l'année dernière après que l'ancien modérateur Daniel Motaung a intenté une action en justice concernant les mauvaises conditions de travail au Kenya.

La pétition, également déposée contre Sama, allègue que les travailleurs qui modèrent les posts de Facebook sont confrontés à une rémunération irrégulière, à un soutien inadéquat en matière de santé mentale, à des activités antisyndicales et à des violations de leur vie privée et de leur dignité.

Sama nie ces allégations, tandis que Meta a déclaré qu'elle exigeait de ses partenaires qu'ils fournissent aux travailleurs des salaires, des avantages et un soutien de premier ordre.

Un juge devrait se prononcer le 6 février sur la question de savoir si un tribunal kenyan peut connaître de la plainte.

Le mois dernier, Meta a fait l'objet d'une autre plainte qui l'accuse d'avoir permis à des messages violents de fleurir sur Facebook, attisant ainsi la guerre civile en Éthiopie.

La plainte, déposée par deux chercheurs éthiopiens et le groupe de défense des droits de l'Institut Katiba du Kenya, affirme que les systèmes de recommandation de Facebook ont amplifié les messages haineux et violents en Éthiopie, notamment ceux qui ont précédé le meurtre du père de l'un des chercheurs.

Les plaignants demandent à Meta de prendre des mesures d'urgence pour rétrograder les contenus violents, d'augmenter le personnel chargé de la modération à Nairobi et de créer un fonds de restitution d'environ 2 milliards de dollars pour les victimes mondiales de la violence incitée par Facebook.

Meta a déclaré qu'elle avait des règles strictes définissant ce qui est autorisé et ce qui ne l'est pas sur Facebook et Instagram.

"Les discours haineux et l'incitation à la violence sont contraires à ces règles et nous investissons massivement dans des équipes et des technologies pour nous aider à trouver et à supprimer ces contenus", a déclaré le porte-parole de Meta.

"Notre travail sur la sécurité et l'intégrité en Éthiopie est guidé par les commentaires des organisations locales de la société civile et des institutions internationales."

FIN DE L'EXTERNALISATION ET DES ALGORITHMES DE RÉVISION

À l'échelle mondiale, des milliers de modérateurs examinent les messages publiés sur les médias sociaux susceptibles de contenir de la violence, de la nudité, du racisme ou d'autres contenus offensants. Nombre d'entre eux travaillent pour des sous-traitants tiers plutôt que directement pour des entreprises technologiques.

Meta a déjà fait l'objet d'un examen minutieux concernant les conditions de travail des modérateurs de contenu et de critiques sur son action visant à mettre un terme aux discours haineux et aux contenus violents.

En juillet 2021, un juge californien a approuvé un accord de 85 millions de dollars entre Facebook et plus de 10 000 modérateurs qui accusaient l'entreprise de ne pas les avoir protégés contre les blessures psychologiques dues à leur exposition à des images graphiques et violentes.

La même année, des réfugiés rohingyas du Myanmar ont intenté une action en justice, réclamant 150 milliards de dollars à Meta, au motif que l'entreprise n'avait pas pris de mesures contre les discours haineux anti-Rohingyas, qui avaient contribué à la violence à l'encontre du groupe minoritaire.

Les groupes de défense des droits de l'homme affirment que les processus de modération ne comprennent pas les contextes culturels et sociétaux spécifiques et ne connaissent pas les langues et dialectes locaux, ce qui permet aux contenus problématiques de se propager rapidement et d'être amplifiés, avec de graves conséquences.

Cori Crider, directrice de Foxglove, un groupe de défense de la justice technologique basé à Londres qui soutient les deux actions en justice au Kenya, a appelé Meta à mettre fin à ses pratiques d'externalisation et à augmenter les ressources "pitoyables" qu'elle consacre à la sécurité en Afrique.

"Facebook devrait reprendre la modération en interne, embaucher chacun des 260 modérateurs de contenu à Nairobi qui effectuent un travail de sécurité vital, et valoriser ces personnes en leur offrant des salaires décents, un soutien clinique complet en matière de santé mentale, ainsi que de la dignité et du prestige", a déclaré M. Crider.

"L'externalisation est un échec et les travailleurs comme les gens ordinaires en ont payé le prix.

Alia Al Ghussain, chercheuse sur l'IA et les droits de l'homme à Amnesty International, a déclaré que les algorithmes de Facebook - qui alimentent le fil d'actualité, le classement, les recommandations et les fonctions de groupe, façonnant ce que les utilisateurs voient sur la plateforme - devaient également faire l'objet d'un examen minutieux.

"Le modèle commercial de Meta, basé sur l'engagement, signifie que les algorithmes sont programmés pour que les contenus nuisibles et incendiaires deviennent viraux", a déclaré Mme Al Ghussain, dont l'organisation soutient le procès intenté contre l'Éthiopie.

"Les litiges que nous observons dans les affaires de l'Éthiopie et du Myanmar démontrent clairement que le problème est systémique et qu'il doit être traité de toute urgence par le biais d'une réglementation.

Publié à l'origine sur :