Les chaînes QAnon Conspiracy suppriment leurs propres vidéos YouTube pour éviter d'être punies

PA / YouTubeLes chaînes YouTube diffusant les théories du complot QAnon suppriment leurs propres vidéos pour échapper à la punition, ont découvert des chercheurs.Les vidéos, qui diffusent des informations erronées et d’autres contenus préjudiciables susceptibles de violer les conditions d’utilisation de YouTube, sont souvent laissées en suspens pendant plusieurs jours, accumulant des dizaines de milliers de vues, avant d’être supprimées par leurs téléchargeurs pour éviter de déclencher des suspensions. C’est juste un autre exemple des problèmes auxquels YouTube et sa société mère Alphabet sont confrontés alors qu’ils tentent d’empêcher le contenu extrémiste de se répandre sur la plate-forme.

Selon une enquête, des centaines de vidéos ont été supprimées par un  » réseau de spam  » comprenant plus de 40 comptes YouTube et chaînes d’extrême droite, dont beaucoup sont basés à l’international tout en prétendant à tort être américains. par CNET, répandre un certain nombre de théories du complot basées sur des  » Q drops  » – des informations souvent vagues prétendument publiées par le personnage anonyme derrière le mouvement QAnon – notamment en désignant les législateurs comme  » cibles principales à Washington  » et en affirmant que le président Biden a été secrètement Première mise en ligne le 27 avril par une chaîne YouTube intitulée  » Il est temps de dire la vérité « , la vidéo a enregistré plus de 50000 vues avant d’être supprimée huit jours plus tard. Un message d’erreur sur la vidéo confirme qu’elle a été supprimée par son téléchargeur.

Certaines des vidéos les plus populaires qui ont été supprimées par la suite ont été vues plus de 150 000 vues.PA ImagesExperts pense que la nouvelle tactique est une tentative explicite d’éviter la suspension ou l’interdiction définitive de leurs chaînes en vertu de la politique de désinformation en trois temps de YouTube. Gideon Blocq, PDG de VineSight, une entreprise qui utilise l’IA pour analyser la désinformation des médias sociaux, a déclaré à CNET : «Cela est fait dans le but de ne pas être expulsé de la plate-forme.

C’est pour éviter la détection. La suppression de vidéos n’est que l’une des nombreuses astuces utilisées par les chaînes d’extrême droite pour déclencher le système YouTube de détection des contrevenants. D’autres tactiques évasives incluent l’utilisation de voix off et d’images déformées qui sont plus difficiles à détecter pour les protections d’intelligence artificielle du site.

Noah Schechter, un étudiant de l’Université de Stanford qui a d’abord signalé la nouvelle méthode, a déclaré à CNET que la tactique était probablement destinée à permettre aux chaînes de continuer à générer des revenus grâce aux publicités YouTube.Un porte-parole de YouTube a déclaré que le site supprimait les chaînes qui les utilisaient. tactiques, confirmant dans une déclaration : «Après un examen attentif, nous avons mis fin aux canaux signalés par CNET pour violation de nos politiques de spam».