Les entreprises de médias sociaux disent qu'elles interdisent la négation de l'Holocauste. Bloquent-ils aussi l'éducation ?

(JTA) — En octobre, un jour après que Facebook a annoncé qu’il interdirait la négation de l’Holocauste, Izabella Tabarovsky a reçu un message inattendu de la plateforme.

Un de ses articles de 2019 faisant la promotion d’un article qu’elle avait écrit sur la mémoire de l’Holocauste a été supprimé pour violation des  » normes communautaires sur le discours de haine  » de Facebook. Aucune autre information n’a été fournie et Tabarovsky ne se souvient pas avoir eu le moyen de faire appel de la décision.

Elle a contacté un porte-parole de Facebook qu’elle a trouvé sur Twitter mais n’a obtenu aucune réponse.

La décision de Facebook d’interdire la négation de l’Holocauste n’est intervenue qu’après que des universitaires, des militants et des célébrités eurent mis au pilori la plate-forme pour autoriser les discours de haine. Mais Tabarovsky n’est pas un négationniste de l’Holocauste. y compris l’Holocauste dans les territoires soviétiques.

L’article en question s’intitulait  » La plupart des Juifs n’ont pas été assassinés dans les camps de la mort. Il est temps de parler de l’autre Holocauste. Il s’agissait de la façon dont les efforts de commémoration de l’Holocauste ne se concentrent pas suffisamment sur les millions de Juifs qui ont été tués en dehors des camps de concentration, comme les propres parents de Tabarovsky, qui ont été assassinés à Babyn Yar.

Il est possible que le titre ait déclenché un algorithme destiné à détecter la négation de l’Holocauste, qui a ensuite bloqué le message de Tabarovsky. Elle ne le sait pas, car elle n’a jamais entendu parler de Facebook.

« Ce message est apparu, et évidemment la première réaction est, qu’est-ce que j’ai dit de haineux ? » Tabarovsky a déclaré à l’Agence télégraphique juive.  » Nous avons vu tellement de discours antisémites. Ils ne peuvent pas le combattre, ils ne peuvent pas le supprimer, et pourtant ils suppriment les messages d’éducation sur l’Holocauste de 2019. C’est vraiment incroyable.

Tabarovsky fait partie de la longue liste d’utilisateurs de médias sociaux dont les messages anti-haine ont été victimes par erreur des algorithmes qui visent à supprimer les discours de haine. Des entreprises telles que Facebook, Twitter et TikTok affirment avoir intensifié leur lutte contre les publications abusives et la désinformation. Mais l’intelligence artificielle qui anime ces systèmes, dans l’intention d’éradiquer le racisme ou les appels au génocide, peut au contraire piéger les efforts pour les combattre.

Les organisations qui se concentrent sur l’éducation à l’Holocauste disent que le problème est particulièrement aigu pour elles car il survient à un moment où un grand pourcentage de jeunes ignorent les faits de base sur l’Holocauste, et plus en ligne que jamais.

Michelle Stein, responsable de la communication du Mémorial et du musée de l’Holocauste des États-Unis, a déclaré à JTA que les publicités Facebook du musée ont souvent été rejetées d’emblée – assez fréquemment  » que c’est un vrai problème pour nous « .

« Bien trop souvent, notre contenu éducatif heurte littéralement un mur de briques », a-t-elle déclaré. « Ce n’est pas acceptable qu’une publicité présentant une image historique d’enfants des années 1930 portant l’étoile jaune soit rejetée, surtout à un moment où nous devons éduquer le public sur ce que représentait cet insigne jaune pendant l’Holocauste. »

Le message de l’étoile jaune n’est qu’un exemple d’une annonce qui a été bloquée, a déclaré Stein. Les Juifs qui ont ensuite été anéantis ont été contraints par les nazis d’apposer les étoiles sur leurs vêtements. Récemment, l’étoile jaune a été appropriée par des manifestants de tout, des vaccins au Brexit, ce qui a peut-être rendu Facebook particulièrement sensible à l’image de la star. La publicité du musée de l’Holocauste visait à répondre à des incidents comme ceux-ci en éduquant les gens sur ce que l’étoile signifiait réellement.

Il y a eu d’autres cas où l’éducation à l’Holocauste a également été bloquée. En mars, Facebook a désactivé pendant cinq jours le compte du Centre norvégien d’études sur l’Holocauste et les minorités, ainsi que les comptes de 12 de ses employés. Lorsque les comptes ont été restaurés, un porte-parole local de Facebook a déclaré à une publication norvégienne :  » Je ne peux pas dire s’il s’agit d’une erreur technique ou d’une erreur humaine.

En 2018, le Centre Anne Frank pour le respect mutuel, une organisation d’éducation sur l’Holocauste à New York. Redfish, un média affilié à l’État russe, a déclaré qu’il avait trois postes commémoratifs de l’Holocauste. retirés de Facebook cette année.

Le PDG de Facebook, Mark Zuckerberg, prend la parole lors de la conférence des développeurs Facebook F8 à San Jose, Californie, le 1er mai 2018. (Justin Sullivan/

Les éducateurs sur l’Holocauste ne sont pas les seuls à protester contre la façon dont les algorithmes des réseaux sociaux régulent les contenus prétendument haineux. Des militants antiracistes se sont plaints que leurs publications sur Facebook soient traitées comme un discours de haine, ce qui a incité la plateforme à modifier son algorithme. Les créateurs juifs sur TikTok disent qu’ils ont été bannis après avoir publié du contenu juif irréprochable. Lors du récent conflit en Israël et à Gaza, des militants pro-israéliens et pro-palestiniens ont déclaré que leurs messages étaient cachés ou retirés d’Instagram et d’ailleurs.

Facebook (qui possède Instagram) et TikTok ont ​​tous deux déclaré à JTA que les utilisateurs dont les publications ont été supprimées peuvent faire appel de la décision. Twitter n’a pas répondu aux questions envoyées par e-mail.

Mais Stein a déclaré que le raisonnement pour lequel les publicités sont bloquées est opaque et que le processus d’appel peut parfois prendre des jours. Au moment où les annonces sont approuvées, a-t-elle déclaré, le moment d’enseignement auquel elles étaient censées répondre est souvent révolu. Le musée a contacté Facebook pour résoudre le problème, en vain.

 » Nous ne savons pas quelle partie du message pose problème, nous sommes donc obligés de deviner. Mais bien plus important encore, cela nous empêche de diffuser ce message à temps « , a-t-elle déclaré. « Le grand potentiel des médias sociaux n’est pas l’éducation ancrée dans une salle de classe, ce sont des moments éducatifs ancrés dans ce qui se passe dans l’environnement, donc quand vous devez vous arrêter, c’est une vraie perte. »

Un porte-parole de Facebook a déclaré à JTA qu’il utilisait « une combinaison d’examen humain et automatisé » pour détecter les discours de haine, et que les gens examineraient « généralement » les décisions automatisées. Facebook définit le déni de l’Holocauste comme incluant les publications qui contestent  » le fait que cela se soit produit, le nombre de victimes, les méthodes et l’intentionnalité de celui-ci « .

 » Nous ne nous appuyons pas exclusivement sur des mots ou un langage spécifiques pour faire la distinction entre la négation de l’Holocauste et le contenu éducatif « , a déclaré le porte-parole à JTA.  » Nous avons également des équipes d’escalade qui peuvent passer plus de temps avec le contenu et obtenir un contexte supplémentaire afin que nous puissions prendre une décision plus éclairée.  »

TikTok a également déclaré à JTA que les modérateurs humains examinent le contenu signalé par son système d’intelligence artificielle et qu’il apprend à ses modérateurs à faire la distinction entre le discours de haine et ce qu’il définit comme un  » contre-discours « . Ni Facebook ni Twitter n’ont fourni plus de détails sur le moment et la manière dont les publications passent de l’IA aux modérateurs humains, ni sur la manière dont ces modérateurs humains sont formés.

« Nous ne savons pas quand ils utilisent des outils automatisés, qui décide ce qu’est l’antisémitisme, qui décide ce qu’est le racisme anti-noir », a déclaré Daniel Kelley, directeur associé du Center for Technology and Society de l’Anti-Defamation League.

L’ADL a été l’un des organisateurs d’un boycott publicitaire très médiatisé de Facebook l’année dernière pour protester contre ce qu’elle a qualifié de politique laxiste en matière de discours de haine. Plus tard dans l’année, Facebook a annoncé qu’il interdirait la négation de l’Holocauste et réprimerait d’autres formes de haine.

 » Ces ensembles de données formés sont-ils basés sur l’expérience des personnes des communautés touchées  ?  » Kelley a demandé.  » Est-ce que cela indique comment les systèmes automatisés sont créés  ?  »

Facebook et TikTok ont ​​tous deux déclaré qu’ils étaient déterminés à empêcher l’antisémitisme de leurs plateformes, et TikTok a déclaré qu’il travaillait avec l’ADL ainsi qu’avec le Congrès juif mondial pour façonner sa modération du discours de haine antisémite. Le WJC travaille également avec Facebook.

« Il est beaucoup plus difficile de gérer des choses comme le ton ou le contexte, et c’est là que l’apprentissage de l’IA est critique, et c’est l’espace pour l’apprentissage, mais ce ne sera jamais parfait », a déclaré Yfat Barak-Cheney, directeur des relations internationales du WJC. affaires.  » Des problèmes comme la nudité, où il est facile pour les machines de la détecter, puis 98 ou 99 % d’entre elles sont automatiquement supprimées avant d’atteindre la plate-forme. Des problèmes comme le discours de haine, où des choses comme le ton et le contenu ont un rôle plus important, alors les machines ne sont pas en mesure d’en supprimer autant.

Barak-Cheney a déclaré que son organisation hésitait à faire pression sur les plates-formes pour modérer des sujets tels que la négation de l’Holocauste, car il est plus important pour eux que Facebook et d’autres sites prennent une position ferme contre les discours de haine. Avant que le WJC ne se lance dans sa campagne annuelle de commémoration de l’Holocauste sur les réseaux sociaux, appelée #WeRemember, il enverra des messages aux plateformes de réseaux sociaux pour approbation préalable afin de s’assurer qu’ils ne sont pas bloqués lorsqu’ils montent.

« Il y a des améliorations à apporter, mais pour nous de pousser à dire : » Hé, vous devriez autoriser plus de contenu  » va être contraire à ce que nous leur demandions de s’assurer qu’il n’y a pas de contenu violant qui reste et est nocif « , a-t-elle déclaré.

Pawel Sawicki, porte-parole du Musée d’État d’Auschwitz-Birkenau, a déclaré que si les postes éducatifs sont interdits, c’est au moins un signal que les plateformes prennent le problème au sérieux. Sawicki a déclaré que le musée n’avait pas bloqué ses publications et qu’il s’inquiétait toujours de la possibilité que le déni de l’Holocauste se propage sur les réseaux sociaux, malgré les politiques des plateformes.

« Cela montre qu’un processus de suppression de la parole est en cours dans les médias sociaux si un tel contenu disparaît », a-t-il déclaré.  » Les choses changent et nous espérons que c’est un véritable changement dans leur approche du discours de haine de manière plus universelle.  »

Tabarovsky soutient également les entreprises de médias sociaux qui prennent des mesures énergiques contre la négation de l’Holocauste et les discours de haine. idéalement, trouver un moyen d’éviter que ses posts ne soient supprimés. La semaine dernière, après que JTA se soit renseigné sur la publication et plus de six mois après sa suppression, Facebook l’a restaurée sur la plateforme.

« C’est tout simplement fou quand vous avez affaire à un robot qui ne peut pas faire la différence entre la négation de l’Holocauste et l’éducation à l’Holocauste », a déclaré Tabarovsky.  » Comment en sommes-nous arrivés à ce point en tant qu’humanité où nous avons sous-traité des décisions aussi importantes à des robots  ? C’est juste dingue.