Un nouveau rapport affirme que le géant des médias sociaux Facebook ne parvient toujours pas à détecter les discours de haine et les appels à la violence contre la minorité musulmane Rohingya du Myanmar, des années après que de tels comportements ont joué un rôle central dans leur persécution. Dans un rapport publié en mars Le 20 février, l’organisme de surveillance basé à Londres, Global Witness, détaille comment il a testé les garanties de Facebook en soumettant huit publicités payantes au réseau de médias sociaux pour approbation, chacune comprenant différentes versions de discours de haine du monde réel copiés à partir d’un rapport des Nations Unies. Les huit publicités ont ensuite été approuvé par Facebook pour être publié, ce qui a conduit Global Witness à conclure que « la capacité de Facebook à détecter les discours de haine en langue birmane reste extrêmement faible ». Il a ajouté : « Facebook et les autres plateformes de médias sociaux devraient traiter la propagation de la haine et de la violence avec la plus grande urgence. » Depuis 2017, les assauts militaires dans l’État de Rakhine au Myanmar ont déplacé plus de 730 000 civils rohingyas et les ont poussés à franchir la frontière avec le Bangladesh. Des centaines de villages ont été réduits en cendres, des familles ont été séparées et tuées et des centaines, voire des milliers de femmes et de filles ont été violées. Hier, le gouvernement des États-Unis a officiellement qualifié la politique du Myanmar envers les Rohingyas de génocide.
Bref diplomatique
En mars 2018, la mission d’enquête internationale indépendante des Nations Unies sur le Myanmar a signalé que les plateformes de médias sociaux, dont Facebook était de loin le plus important, avait joué un « rôle déterminant » dans la violence contre les Rohingyas et avait « contribué de manière substantielle au niveau d’acrimonie, de dissension et de conflit » dans le pays. Comme le New York Times l’a rapporté à propos de sa propre enquête sur le rôle involontaire de Facebook dans la facilitation de la violence, « le personnel militaire du Myanmar qui a transformé le réseau social en un outil de nettoyage ethnique ».Vous aimez cet article . Seulement 5 $ par mois. À son crédit, Facebook a reconnu son rôle dans la violence. Il a répondu aux conclusions de la mission d’établissement des faits de l’ONU en supprimant les pages officielles du commandant en chef militaire, le général Min Aung Hlaing, qui a dirigé le coup d’État militaire de février 2021, et d’autres hauts responsables. Fin 2018, Facebook a publié les conclusions d’un rapport qu’il a commandé sur son rôle dans le nettoyage ethnique des Rohingyas, admettant que « nous ne faisions pas assez pour empêcher que notre plateforme ne soit utilisée pour fomenter la division et inciter à la violence hors ligne. Nous convenons que nous pouvons et devons faire plus. » L’une des promesses de Facebook était de mettre en place une équipe dédiée pour travailler sur le pays, d’employer davantage de réviseurs de contenu qui parlent les différentes langues du pays – de seulement deux au début de 2015 à 99 à la fin de 2018 – et améliorer sa capacité à utiliser l’intelligence artificielle pour signaler des exemples de discours de haine en birman. Mais le rapport de Global Witness, tout en ne fournissant qu’un petit échantillon, suggère que ces garanties sont loin d’être sûres. Facebook indique qu’avant que les publicités ne soient autorisées à apparaître en ligne, elles sont examinées pour s’assurer qu’elles respectent leurs politiques publicitaires, et que pendant ce processus, ils vérifient les « images, vidéos, textes et informations de ciblage de la publicité, ainsi que les informations associées à une publicité. page de destination. » Néanmoins, ils étaient toujours approuvés pour publication. Il était peut-être compréhensible que la capacité de surveillance de Facebook ait pris du retard par rapport à sa phase d’expansion rapide au Myanmar après 2014, lorsque le pays a connu l’un des pics d’utilisation d’Internet les plus importants de tous les pays de l’histoire. Mais avec des informations détaillées sur l’étendue de sa complicité involontaire dans la persécution des Rohingyas et les bénéfices considérables que l’entreprise tire de ses opérations au Myanmar, l’imperfection – pour le dire gentiment – de ses systèmes actuels donne une indication de sa véritable hiérarchie des intérêts. « Dans des endroits comme le Myanmar, où il existe des preuves claires que Facebook a été utilisé pour inciter à des préjudices dans le monde réel qui ont coûté la vie à dix mille personnes, et à des centaines de milliers leurs maisons et leurs moyens de subsistance, et où les Rohingyas sont confrontés à un risque accru continu de violence et de discrimination continue », conclut à juste titre le rapport de Global Witness, « le minimum que la plateforme devrait faire est de s’assurer qu’elle n’est pas utilisée à des fins d’incitation future et de fournir des recours aux victimes ».