Son expérience peut être différente maintenant.

L'unité Alphabet Inc a réduit de 30 % les résultats explicites au cours de l'année écoulée dans les recherches de "adolescente latina" et d'autres liées à l'ethnicité, à la préférence sexuelle et au sexe, a déclaré mercredi à Reuters Tulsee Doshi, chef de produit pour l'équipe responsable de l'IA de Google.

Doshi a déclaré que Google avait déployé un nouveau logiciel d'intelligence artificielle, connu sous le nom de BERT, pour mieux interpréter quand quelqu'un recherchait des résultats racoleurs ou plus généraux.

Outre "adolescente latina", d'autres requêtes affichant désormais des résultats différents incluent "la chef lesbienne", "chambre d'étudiant", "professeur de yoga latina" et "bus lesbien", selon Google.

"Il s'agissait d'un ensemble de résultats sur-sexualisés", a déclaré Doshi, ajoutant que ces résultats de recherche historiquement suggestifs étaient potentiellement choquants pour de nombreux utilisateurs.

Morales n'a pas immédiatement répondu à une demande de commentaire par l'intermédiaire d'un représentant. Son tweet de 2019 indiquait qu'elle était à la recherche d'images pour une présentation et qu'elle avait remarqué un contraste dans les résultats pour "teen" seul, qu'elle a décrit comme "tous les trucs normaux d'adolescents", et a demandé à Google d'enquêter.

Le géant de la recherche a passé des années à répondre aux commentaires concernant le contenu offensant de ses outils publicitaires et des résultats des recherches de "hot" et "ceo". Il a également coupé les résultats sexualisés pour les "filles noires" après qu'un article de journal de 2013 de l'auteur Safiya Noble ait soulevé des préoccupations sur les représentations nuisibles.

Mercredi, Google a ajouté que, dans les semaines à venir, il utiliserait une IA appelée MUM pour commencer à mieux détecter le moment où il convient de montrer les ressources de soutien liées au suicide, à la violence domestique, aux agressions sexuelles et à la toxicomanie.

MUM devrait reconnaître "Sydney suicide hot spots" comme une requête pour des lieux de saut, pas de voyage, et aider avec des questions plus longues, y compris "pourquoi m'a-t-il attaqué quand j'ai dit que je ne l'aimais pas" et "les façons les plus courantes de se suicider", a déclaré Google.