Les militants et les chercheurs ont longtemps mis en garde contre la confidentialité des données et ont déclaré que les photographies téléchargées sur Internet pourraient être utilisées pour former des outils de reconnaissance faciale alimentés par l’intelligence artificielle (IA). Ces outils activés par l’IA (tels que Clearview, AWS Rekognition, Microsoft Azure et Face ++) pourraient à leur tour être utilisés par les gouvernements ou d’autres institutions pour suivre les personnes et même tirer des conclusions telles que les préférences religieuses ou politiques du sujet. Les chercheurs ont trouvé des moyens de duper ou d’usurper ces outils d’IA pour ne pas pouvoir reconnaître ou même détecter un selfie, en utilisant des attaques contradictoires – ou un moyen de modifier les données d’entrée qui provoque des erreurs d’un modèle d’apprentissage en profondeur.
ont été présentés la semaine dernière à la Conférence internationale des représentations d’apprentissage (ICLR), une conférence de premier plan sur l’IA qui s’est tenue virtuellement. Selon un rapport du MIT Technology Review, la plupart de ces nouveaux outils pour duper les logiciels de reconnaissance faciale apportent de minuscules modifications à une image qui ne sont pas visibles à l’œil humain mais peuvent confondre une IA, forçant le logiciel à faire une erreur en identifiant clairement le la personne ou l’objet dans l’image, ou même l’empêcher de réaliser l’image est un selfie.Emily Wenger, de l’Université de Chicago, a développé avec ses collègues l’un de ces outils de » camouflage d’image « , appelé Fawkes.
L’autre, appelé LowKey, est développé par Valeriia Cherepanova et ses collègues de l’Université du Maryland.Fawkes ajoute des perturbations au niveau du pixel aux images qui empêchent les systèmes de reconnaissance faciale d’identifier les personnes en eux, mais cela laisse l’image inchangée aux humains. Dans une expérience avec un petit ensemble de données de 50 images, Fawkes s’est avéré efficace à 100% contre les systèmes de reconnaissance faciale commerciaux.
Fawkes peut être téléchargé pour Windows et Mac, et sa méthode a été détaillée dans un article intitulé » Protéger la confidentialité personnelle contre les modèles d’apprentissage profond non autorisés » Cependant, les auteurs notent que Fawkes ne peut pas induire en erreur les systèmes existants qui se sont déjà entraînés sur vos images non protégées. LowKey, qui étend le système de Wenger en modifiant minutieusement les images au point de tromper les modèles d’IA commerciaux pré-entraînés, l’empêchant de reconnaître la personne dans l’image. LowKey, détaillé dans un article intitulé » Leveraging Adversarial Attacks to Protect Social Media Users from Facial Recognition « , peut être utilisé en ligne, mais une autre méthode, détaillée dans un article intitulé » Unlearnable Examples: Making Personal Data Unxploitable » par Daniel Ma et d’autres des chercheurs de l’Université Deakin en Australie, va encore plus loin dans ce » empoisonnement des données « , en introduisant des changements dans les images qui obligent un modèle d’IA à le rejeter pendant la formation, empêchant ainsi l’évaluation après la formation.
en disant: « Il est soudainement devenu robuste aux images masquées que nous avions générées.. Nous ne savons pas ce qui s’est passé. » Elle a dit que c’était maintenant une course contre l’IA, avec Fawkes mis à jour plus tard pour pouvoir à nouveau usurper Azure. «C’est une autre course aux armements du chat et de la souris», a-t-elle ajouté.
Le rapport citait également Wenger disant que si la réglementation contre ces outils d’IA contribuera à préserver la vie privée, il y aura toujours une «déconnexion» entre ce qui est légalement acceptable et ce que les gens. veulent, et que les méthodes d’usurpation d’identité comme Fawkes peuvent aider à «combler cette lacune». Elle dit que sa motivation pour développer cet outil était simple : donner aux gens «un pouvoir» qu’ils n’avaient pas déjà.