Sur les 30,5 millions de contenus d’utilisateurs en Inde sur lesquels Facebook a agi entre le 15 mai et le 15 juin, 81,9% étaient du spam. Viennent ensuite les contenus violents et graphiques qui représentent 8,2 % de tous les contenus mis en œuvre. Sur Instagram, d’autre part, sur les 2,03 millions de contenus qui ont été supprimés, 34,4% ont fait l’objet de poursuites pour suicide et automutilation, suivis de 32,9% de messages qui ont été sanctionnés pour avoir montré de la violence et du contenu graphique.
les vidéos ou les commentaires) incluent les suppressions de contenu voire la désactivation de comptes. De manière problématique, Facebook n’a pas donné le nombre total de contenus signalés par les utilisateurs ou détectés par des algorithmes, ce qui rend plus difficile l’évaluation de l’échelle à laquelle le contenu problématique est signalé (s’il n’est pas traité) sur Facebook.
Facebook a publié son rapport intermédiaire pour la période du 15 mai au 15 juin 2021 à 19 heures le 2 juillet, environ cinq semaines après l’expiration du délai de mise en conformité avec les règles intermédiaires. Le rapport final, avec les données de WhatsApp, sera publié le 15 juillet. À part Google, Facebook et Koo, aucune autre société de médias sociaux, y compris des entités indiennes telles que MyGov et ShareChat, n’a publié ses rapports de transparence.
Facebook agit sur le contenu de 10 catégories sur sa plate-forme principale tandis que sur Instagram, il agit sur neuf catégories. Le seul point de différence est le spam. Selon le rapport, Facebook travaille sur de « nouvelles méthodes » pour mesurer et signaler le spam sur Instagram.
Facebook réussit-il mieux qu’Instagram à détecter automatiquement les contenus problématiques ?
Dans le rapport, le géant des médias sociaux a également donné un « taux proactif », c’est-à-dire le pourcentage de contenu signalé que Facebook avait lui-même signalé à l’aide de l’apprentissage automatique avant que les utilisateurs ne le signalent. Le taux proactif de Facebook était de plus de 99 % dans la plupart des mesures, à l’exception de l’intimidation et du harcèlement (36,7 %), de la haine organisée par des organisations et des individus dangereux (98,8 %), des discours haineux (96,4 %) et du contenu montrant des produits réglementés tels que les drogues ( 97,9 pour cent) et les armes à feu (89,4 pour cent).
Contrairement à Facebook, Instagram n’a pas aussi bien fonctionné, mais a été un peu meilleur pour détecter l’intimidation et le harcèlement (43,1%), du moins en termes de pourcentage. Mais en chiffres absolus, Facebook avait détecté automatiquement 43 306 contenus tandis qu’Instagram avait détecté automatiquement 46 548 contenus. La raison est simple : Facebook a fait 15 fois plus de contenu qu’Instagram. En termes de nombres absolus, le facteur est similaire. Facebook a détecté 30,38 millions de contenus automatiquement contre 1,94 million pour Instagram, encore une fois un facteur 15.
La raison pourrait être simple : les mêmes algorithmes d’apprentissage automatique alimentent la détection automatique de Facebook et Instagram.
Koo a fourni des données minimales dans son rapport
Le rapport de transparence de Koo, en revanche, porte sur le mois de juin et donne un minimum d’informations par rapport à Facebook et Google. Sur les 5 502 Koos signalés par les utilisateurs, Koo en a supprimé 1 253 (22,8 pour cent). De même, sur les 54 235 Koos détectés via des outils automatisés, 1 996 (3,7 %) ont été mis en œuvre.
De manière problématique, Koo a inclus le fait d’ignorer le contenu d’un élément signalé dans l’action qu’il a entreprise, ce qui rend difficile l’efficacité réelle des rapports humains et de la modération automatisée du contenu.
La comparaison des rapports de transparence est impossible
Il y a deux jours, Google a également publié son rapport de transparence pour le mois d’avril. Dans ce document, il a donné le détail des plaintes reçues via ses formulaires Web. Il n’a pas donné de détails sur le contenu qui a été automatiquement supprimé. Koo a publié son rapport pour le mois de juin hier.
Google et Facebook ont tous deux déclaré qu’il y aurait un décalage dans la publication des rapports de transparence – deux mois pour Google et 30-45 jours pour Facebook – pour permettre la collecte et la validation des données. Pour Google, le processus de déclaration du rapport de transparence continuera d’évoluer, selon une déclaration d’un porte-parole de Google.
Auparavant, Forbes India avait souligné que les contours des rapports de transparence n’avaient pas été définis. Le résultat est visible en comparant les rapports de Google et de Facebook ; il est impossible de les comparer. Les métriques qui ont été prises en compte sont complètement différentes entre les deux sociétés. Alors que Facebook s’est concentré sur des raisons telles que le discours de haine, la nudité, le spam comme motifs dans son rapport, Google s’est concentré sur des raisons en grande partie juridiques telles que la violation du droit d’auteur ou de la marque, la diffamation, la contrefaçon, etc.
En outre, le cycle de rapport est différent : Google l’a signalé pour un mois civil tandis que Facebook a opté pour un cycle de mi-mois. Cela signifie également qu’aucun des deux rapports ne peut être comparé aux rapports mondiaux publiés par les deux sociétés, car celui de Google est publié deux fois par an et Facebook publie son rapport tous les trimestres. Aucune des deux sociétés ne fournit de données mensuelles mondiales.
Dans le cas de Google, à part YouTube, on ne sait même pas quels produits/plates-formes ont été considérés comme un intermédiaire important des médias sociaux par Google dans ses données. Le porte-parole de Google n’a pas répondu à cette question de Forbes India.
Un autre problème que Forbes Inde avait mis en évidence plus tôt était de savoir comment une société de médias sociaux détermine si les données sont liées aux utilisateurs indiens et si le contenu en question est limité au contenu concernant les utilisateurs indiens, publié par des utilisateurs en Inde, ou s’il s’agit d’un contenu signalé par les utilisateurs en Inde, quelle que soit son origine.
Dans le rapport, Facebook a souligné que les données au niveau des pays peuvent être moins fiables car les violations sont « très contradictoires » dans lesquelles les mauvais acteurs peuvent souvent masquer leur pays d’origine pour éviter d’être détectés par les systèmes de Facebook. Auparavant, la plate-forme a également maintenu que le volume du contenu utilisé peut être trompeur. Par exemple, s’il y a un spammeur qui partage 10 millions de messages avec la même URL malveillante, le nombre de contenus traités afficherait un énorme pic.
les affaires et l’économie