Le géant des médias sociaux, Meta, a exploité 23,4 millions d'éléments de contenu en février 2022

Facebook a pris des mesures contre plus de 21,1 millions de contenus, la plupart étant du spam (15,4 millions) Instagram a pris des mesures contre 2,3 millions de contenus en février Dans son dernier rapport de transparence pour le mois de janvier, Meta avait pris des mesures contre plus de 12,2 millions de contenus contenu sur Facebook et Instagram Conformément aux nouvelles règles informatiques, le géant des médias sociaux Meta a publié son rapport de données mensuel pour Instagram et Facebook pour le mois de février. Selon le rapport, Facebook a pris des mesures contre plus de 21,1 millions de contenus. Parmi ceux-ci, le spam a le plus contribué avec environ 15,4 millions de pièces.

Viennent ensuite les contenus violents et explicites qui représentaient 2,4 millions d’éléments de contenu, la nudité et l’activité sexuelle des adultes (1,4 million), la mise en danger des enfants et l’exploitation sexuelle (668,8K) et les contenus liés au suicide et à l’automutilation (418,5K). Facebook a pris des mesures contre plus de 21,1 millions de contenus. La plate-forme a déclaré avoir pris des mesures proactives pour interdire ce contenu.

Son taux d’action proactive variait entre 78,9 % dans certains cas et 99,9 % en cas de spam et de contenu graphique. Un taux d’action de contenu proactif élevé signifie qu’une majorité du contenu qui s’est avéré enfreindre les normes a été signalé par ces plateformes sans qu’il soit nécessaire de signaler les utilisateurs. De plus, Facebook a reçu 478 plaintes via son mécanisme de règlement des griefs.

Le géant des médias sociaux affirme avoir répondu à tous ces rapports. Parmi ceux-ci, des « outils » ont été fournis aux utilisateurs pour résoudre leurs problèmes dans 402 cas. Facebook a reçu 478 plaintes via son mécanisme de règlement des griefs.

Ces rapports concernaient des plaintes concernant des problèmes de piratage de compte, de perte d’accès, entre autres. Dans le reste des 76 rapports, un examen spécialisé était nécessaire et est actuellement en cours de traitement. D’autre part, Meta a également pris des mesures contre plus de 2,3 millions de contenus sur la plate-forme de vidéos courtes, Instagram.

De ce nombre, le contenu graphique constituait le plus gros morceau, contribuant à 878 900 éléments de contenu. Cela a été suivi par le contenu lié au suicide et à l’automutilation et 654,3 000 éléments de ce contenu ont été exploités par la plate-forme. D’autres domaines dans lesquels le contenu a été utilisé sur Instagram comprenaient la nudité et l’activité sexuelle des adultes (371,4K), l’intimidation et le harcèlement (226,1K), l’exploitation sexuelle mettant en danger les enfants (167,2K), entre autres.

Meta a également pris des mesures contre plus de 2,3 millions de contenus sur la plate-forme de vidéos courtes, Instagram. De plus, Instagram a reçu 1 050 plaintes via son mécanisme de réclamation local. Dans ce cadre, les « outils » nécessaires ont été fournis pour résoudre les problèmes dans 561 cas.

Les plaintes portaient sur une multitude de problèmes, notamment des problèmes liés au piratage de comptes, à de faux profils, à l’intimidation, à du contenu inapproprié, entre autres. Instagram a reçu 1 050 plaintes via son mécanisme de réclamation local. Dans son dernier rapport de transparence du mois de janvier, Meta avait agi sur plus de 12,2 millions de contenus sur Facebook et Instagram.

Le nouveau rapport suggère que le nombre a presque doublé. La plate-forme de messagerie instantanée appartenant à Meta, WhatsApp, a également interdit les comptes de 1,4 million entre le 1er et le 28 février. La plate-forme de médias sociaux locale, ShareChat, a également reçu 5,6 millions de plaintes en février de cette année pour une multitude de raisons allant de la nudité au spam.