Google a apparemment réduit de 30 % les résultats explicites sur son moteur de recherche au cours de l’année écoulée. Ces résultats concernent principalement les recherches Google en corrélation avec l’origine ethnique, la préférence sexuelle et le sexe. Unsplash
Utiliser l’IA pour réduire les résultats de recherche racés
Les mots-clés de recherche les plus courants qui affichaient des résultats racés plus tôt inclure « adolescente latina » En 2013, Google avait pour améliorer ses résultats de recherche pour les « filles noires » qui affichaient des résultats sexualisés après qu’un article de journal de l’auteur Safiya Noble ait attiré l’attention sur la question. Comment Google marie les fonctionnalités des smartphones avec ses plates-formes pour donner la priorité à la santé
L’entreprise a également dû prendre en compte les retours d’informations sur les dommages causés par le contenu sexualisé basé sur la race, l’ethnie et l’identité sexuelle. De plus, Google déploie actuellement une IA appelée MUM pour détecter quand afficher des ressources liées au suicide, à la violence domestique, à la toxicomanie et aux agressions sexuelles. L’actrice américaine Unsplash Natalie Morales avait partagé ce que Google affichait après qu’on ait tapé « Latina teen » en 2019. Tout ça, c’était de la pornographie. À l’époque, Morales affirmait que les résultats étaient ordinaires si elle recherchait « ado ».
com