Facebook et TikTok se précipitent pour supprimer la vidéo de suicide alors que les trolls diffusent des spams

AVERTISSEMENT DE CONTENU: Cet article traite du suicide.

TikTok a averti les utilisateurs d'une vidéo circulant sur la plate-forme qui montre un homme en train de se suicider.Le Verge rapporte que la vidéo, qui était à l'origine diffusée en direct sur Facebook, est apparue sur la plate-forme dimanche soir. au milieu d'une séquence TikTok ordinaire dans le but de surprendre les téléspectateurs avec des images de la mort de l'homme.Les utilisateurs de TikTok et de Twitter ont répondu en partageant des captures d'écran du clip qui ne dépeignent pas la violence graphique, conseillant aux abonnés de passer immédiatement devant toute vidéo contenant les images.

Facebook et TikTok se précipitent pour supprimer la vidéo de suicide alors que les trolls diffusent des spams

En particulier, les utilisateurs ont averti les autres d'éviter les vidéos montrant un homme barbu avec des lunettes assis à un bureau porte-parole américain de TikTok Hilary McQuaide a remercié les utilisateurs qui ont rapporté les images.McQuaide a déclaré que l'application « détectait et signalait automatiquement » les clips et interdisait les comptes qui partageaient la vidéo à plusieurs reprises.Comme l'a souligné The Verge, TikTok diffère des autres applications en tant que son flux principal, le For You page, comme piloté par un algorithme.

Cela signifie que les utilisateurs peuvent potentiellement tomber sur la vidéo même s'ils ne l'ont pas recherchée, ou s'abonner activement à un compte qui la republie.Les géants des médias sociaux ont longtemps lutté contre l'apparition et la prolifération de contenus violents sur leurs plates-formes, et ont été critiqués pour La vidéo de l'attaque terroriste de Christchurch, qui a été diffusée en direct sur Facebook, est restée sur cette plate-forme environ une heure après le début de la diffusion du tireur, et environ 12 minutes après que les utilisateurs l'ont signalé pour la première fois. Les responsables ont confirmé qu'un algorithme conçu pour détecter automatiquement le contenu violent n'a pas réussi à signaler la vidéo.

Une aide est disponible. Si vous avez besoin d'une assistance immédiate, veuillez appeler le 000.Si vous êtes en détresse, veuillez appeler Lifeline au 13 11 44 ​​ou chatter en ligne. Moins de 25 ? Vous pouvez joindre Kids Helpline au 1800 55 1800 ou discuter en ligne. Vous pouvez également joindre le service de rappel de suicide au 1300 659 467 ou discuter en ligne. Image:

Images SOPA / Getty Images

Tags: