Les messages WhatsApp ne sont pas chiffrés de bout en bout – ProPublica

Un rapport d’une source réputée suggère que la société mère Facebook est en quelque sorte capable de voir le contenu des messages WhatsApp. Cela ne devrait bien sûr pas être possible avec le chiffrement de bout en bout, où seuls les participants au message sont capables de déchiffrer le contenu, ce serait donc une révélation explosive si cela s’avérait vrai.

Mise à jour  : une interprétation probable serait que les modérateurs ne consultent que les messages qui leur ont été signalés par un destinataire de message. À ce stade, il serait déchiffré, et son transfert créerait un nouveau message chiffré où WhatsApp aurait la clé…

Le rapport fait référence à l’analyse des métadonnées – une méthode que l’entreprise est connue pour essayer de détecter les messages problématiques sans en connaître le contenu – mais affirme également directement que les modérateurs sont capables « d’examiner les messages, les images et les vidéos des utilisateurs », citant à la fois les modérateurs et les ingénieurs au sein de l’entreprise.

WhatsApp a été une source de désinformation importante et dangereuse, conduisant à de fausses allégations de maltraitance d’enfants en Inde et à des canulars de messages sur les coronavirus dans le monde entier. La société est connue pour essayer de résoudre ces problèmes en limitant la capacité de transférer aveuglément les messages et pour utiliser d’autres formes de métadonnées pour essayer d’identifier les messages susceptibles d’être du spam.

Cependant, la société a insisté sur le fait que WhatsApp utilise un cryptage de bout en bout, ce qui signifie que Facebook n’a pas la possibilité de voir le contenu privé des messages. Un long article de ProPublica suggère que ce n’est pas vrai :

[An] L’assurance apparaît automatiquement à l’écran avant que les utilisateurs n’envoient des messages  : « Personne en dehors de ce chat, pas même WhatsApp, ne peut les lire ou les écouter. » Ces assurances ne sont pas vraies. WhatsApp compte plus de 1 000 travailleurs contractuels qui remplissent les étages d’immeubles de bureaux à Austin, au Texas, à Dublin et à Singapour, où ils examinent des millions de contenus d’utilisateurs. Assis devant des ordinateurs dans des modules organisés par affectations de travail, ces travailleurs horaires utilisent un logiciel Facebook spécial pour passer au crible des flux de messages privés, d’images et de vidéos qui ont été signalés par les utilisateurs de WhatsApp comme inappropriés, puis filtrés par les systèmes d’intelligence artificielle de l’entreprise. Ces sous-traitants portent un jugement sur tout ce qui clignote sur leur écran – des allégations de fraude ou de spam à la pornographie juvénile et aux complots terroristes potentiels – généralement en moins d’une minute […]De nombreuses affirmations des modérateurs de contenu travaillant pour WhatsApp sont reprises par une plainte confidentielle de dénonciateur déposée l’année dernière auprès de la Securities and Exchange Commission des États-Unis. La plainte, que ProPublica a obtenue, détaille l’utilisation intensive par WhatsApp de sous-traitants externes, de systèmes d’intelligence artificielle et d’informations de compte pour examiner les messages, images et vidéos des utilisateurs. Il allègue que les affirmations de l’entreprise concernant la protection de la vie privée des utilisateurs sont fausses. « Nous n’avons pas vu cette plainte », a déclaré le porte-parole de l’entreprise. La SEC n’a pris aucune mesure publique à son sujet ; un porte-parole de l’agence a refusé de commenter.

Le rapport indique que les modérateurs de WhatsApp travaillent dans des conditions de secret strictes.

Les offres d’emploi annoncent des postes de « revue de contenu » et ne font aucune mention de Facebook ou de WhatsApp. Les documents d’emploi mentionnent le titre initial des travailleurs comme « associé à la modération du contenu ». Le salaire commence autour de 16,50 $ de l’heure. Les modérateurs sont chargés de dire à toute personne qui demande à travailler pour Accenture et sont tenus de signer des accords de non-divulgation complets.

Cependant, la description de ce qui se passe est confuse.

Le contenu de WhatsApp étant crypté, les systèmes d’intelligence artificielle ne peuvent pas analyser automatiquement tous les chats, images et vidéos, comme ils le font sur Facebook et Instagram. Au lieu de cela, les examinateurs de WhatsApp ont accès au contenu privé lorsque les utilisateurs cliquent sur le bouton « signaler » sur l’application, identifiant un message comme étant prétendument en violation des conditions d’utilisation de la plate-forme. Cela transmet cinq messages – le prétendument incriminé avec les quatre précédents dans l’échange, y compris des images ou des vidéos – à WhatsApp sous forme non brouillée, selon d’anciens ingénieurs et modérateurs de WhatsApp. Les systèmes automatisés alimentent ensuite ces tickets dans des files d’attente « réactives » pour que les travailleurs contractuels les évaluent.

Mise à jour  : cette partie de l’article suggère que les seuls messages signalés peuvent être consultés.

Une déclaration de Facebook n’a pas abordé directement la question du cryptage de bout en bout.

Dans les réponses écrites à cet article, le porte-parole de la société a déclaré : « Nous construisons WhatsApp d’une manière qui limite les données que nous collectons tout en nous fournissant des outils pour empêcher le spam, enquêter sur les menaces et bannir ceux qui se livrent à des abus, y compris sur la base des rapports d’utilisateurs que nous recevons.. Ce travail nécessite des efforts extraordinaires de la part d’experts en sécurité et d’une équipe de confiance et de sécurité appréciée qui travaille sans relâche pour aider à fournir au monde une communication privée. Le porte-parole a noté que WhatsApp a publié de nouvelles fonctionnalités de confidentialité, notamment « plus de contrôles sur la façon dont les messages des personnes peuvent disparaître » ou être consultés une seule fois. Il a ajouté : « Sur la base des commentaires que nous avons reçus des utilisateurs, nous sommes convaincus que les gens comprennent lorsqu’ils font des rapports à WhatsApp, nous recevons le contenu qu’ils nous envoient.

ProPublica est une organisation de journalisme d’investigation à but non lucratif jouissant d’une solide réputation. Nous avons contacté Facebook pour commenter.

Découvrez 9to5Mac sur YouTube pour plus d’actualités Apple  :