Google réduit les résultats racés de 30 % pour des recherches telles que "adolescente latina"

Lorsque l’actrice américaine Natalie Morales a effectué une recherche Google pour « Latina teen » en 2019 chef de produit de l’équipe responsable de l’IA chez Google. Doshi a déclaré que Google avait déployé un nouveau logiciel d’intelligence artificielle, connu sous le nom de BERT, pour mieux interpréter quand quelqu’un cherchait des résultats racés ou plus généraux. Outre « adolescente latina », d’autres requêtes affichant désormais des résultats différents incluent « la chef lesbienne », « dortoir universitaire », « professeur de yoga latina » et « bus lesbienne », selon Google. « Tout cela a été un ensemble de résultats sur-sexualisés », a déclaré Doshi, ajoutant que ces résultats de recherche historiquement suggestifs étaient potentiellement choquants pour de nombreux utilisateurs. Morales n’a pas immédiatement répondu à une demande de commentaire par l’intermédiaire d’un représentant. Son tweet de 2019 indiquait qu’elle cherchait des images pour une présentation et avait remarqué un contraste dans les résultats pour « adolescent » en soi, qu’elle a décrit comme « tout ce qui est normal pour les adolescents », et a demandé à Google d’enquêter. Le géant de la recherche a passé des années à traiter les commentaires sur le contenu offensant dans ses outils publicitaires et dans les résultats des recherches de « hot » et « ceo ». Il a également coupé les résultats sexualisés pour les « filles noires » après qu’un article de journal de 2013 de l’auteur Safiya Noble ait soulevé des inquiétudes concernant les représentations préjudiciables. Google a ajouté mercredi que dans les semaines à venir, il utiliserait une IA appelée MUM pour commencer à mieux détecter quand montrer des ressources de soutien liées au suicide, à la violence domestique, aux agressions sexuelles et à la toxicomanie. MUM devrait reconnaître les « points chauds du suicide de Sydney » comme une requête pour sauter des lieux, pas pour voyager, et aider avec des questions plus longues, y compris « pourquoi m’a-t-il attaqué quand j’ai dit que je ne l’aime pas » et « les façons les plus courantes de se suicider », dit Google. (Reportage par Paresh Dave ; édition par Karishma Singh) (Seuls le titre et l’image de ce rapport peuvent avoir été retravaillés par le personnel de Business Standard ; le reste du contenu est généré automatiquement à partir d’un flux syndiqué.)

Cher lecteur,

Business Standard s’est toujours efforcé de fournir des informations et des commentaires à jour sur les développements qui vous intéressent et qui ont des implications politiques et économiques plus larges pour le pays et le monde. Vos encouragements et vos commentaires constants sur la façon d’améliorer notre offre n’ont fait que renforcer notre détermination et notre engagement envers ces idéaux. Même en ces temps difficiles découlant de Covid-19, nous restons déterminés à vous tenir informés et mis à jour avec des nouvelles crédibles, des opinions faisant autorité et des commentaires incisifs sur des questions d’actualité pertinentes.

Éditeur numérique

Tags: