YouTube ne permettra plus aux annonceurs de cibler des termes haineux tels que "puissance blanche"

Cette semaine, Google a bloqué l’utilisation de nombreux mots-clés haineux pour le ciblage publicitaire sur YouTube. Cette décision fait suite à un rapport publié dans The Markup, selon lequel les annonceurs pouvaient rechercher des termes tels que «puissance blanche» pour trouver des vidéos et des chaînes à placer. être consultable.

« Nous reconnaissons pleinement que la fonctionnalité de recherche d’emplacements d’annonces dans Google Ads n’a pas fonctionné comme prévu », a déclaré un porte-parole. « Ces termes sont offensants et n’auraient pas dû faire l’objet de recherches. » Le balisage a suivi avec des termes plus nuisibles qu’il a trouvés, que Google a discrètement bloqués sans autre réponse.

Google a déclaré à The Verge que les annonces ne ciblaient jamais les termes de recherche en question en raison d’autres couches d’application qui dictaient le type de contenu autorisé dans les annonces. YouTube supprime également régulièrement les vidéos contenant des discours de haine et interdit aux utilisateurs de monétiser leurs vidéos s’ils se confrontent régulièrement à ses politiques en matière de discours de haine. Bien que Google autorise la recherche de termes de mots clés tels que «la vie blanche compte», ce qui pourrait raisonnablement être interprété comme une réponse raciste aux récents mouvements de justice sociale, il a bloqué «Black Lives Matter» comme recherche par mot-clé.

L’année dernière, YouTube a créé un fonds de 100 millions de dollars pour soutenir les créateurs de contenu noir. Google bloque la publicité sur une multitude de mots clés en partie parce que les grandes marques ne veulent souvent pas être associées à quelque chose de controversé ou de nuisible par peur d’aliéner les clients. Mais jeter une interdiction générale sur «Black Lives Matter» à côté d’un autre comme «pouvoir blanc» met en évidence le désordre dans lequel les plates-formes technologiques essaient de naviguer.

Duct-tape – Google vante régulièrement ses progrès dans la répression des discours de haine, mais les journalistes et le public trouvent facilement un contenu douteux qui soulève des questions. Les plates-formes Internet sont conçues par de petits groupes de personnes mais conçues pour atteindre des milliards, ce qui rend impossible pour les humains d’examiner chaque élément de contenu et de décider s’il est sûr. L’intelligence artificielle a été présentée comme la réponse, mais elle est loin d’être parfaite car elle ne comprend pas les complexités de la parole humaine.

Il y aura probablement toujours du contenu préjudiciable qui sera manqué.Le balisage dans son rapport indique que la façon dont Google a bloqué les nouvelles conditions rend difficile la responsabilisation de l’entreprise, car elle a obscurci si elle sera effectivement bloquée ou non : Cependant, la manière Google a bloqué ces mots et d’autres mots récemment bloqués, ce qui rend désormais les réponses dans le code indiscernables des réponses pour charabia. Parce qu’il est désormais impossible de savoir avec certitude quels termes sont bloqués, Google s’est protégé de l’examen futur de ses blocages de mots clés sur Google Ads.

YouTube affirme avoir bloqué ou supprimé plus de 867 millions d’annonces l’année dernière pour avoir tenté d’échapper à ses systèmes de détection, et bloqué ou supprimé trois milliards d’annonces au total pour violation de ses règles relatives au contenu. Mais cela ne donne pas une idée du nombre d’annonces nuisibles qui sont passées entre les mailles du filet.