Adversa AI Red Team a inventé une technologie pour le piratage éthique des systèmes de reconnaissance faciale

TEL AVIV, Israël, 25 juin 2021 /PRNewswire/ — Adversa AI, la première startup de Trusted AI Research, a démontré une nouvelle méthode d’attaque sur les applications de reconnaissance faciale de l’IA. En effectuant des changements imperceptibles sur les visages humains, un algorithme de reconnaissance faciale basé sur l’IA méconnaît les personnes. Par rapport à d’autres approches similaires, cette méthode est transférable sur tous les modèles d’IA et en même temps, elle est beaucoup plus précise, furtive et économe en ressources.

IA d’Adversa

Adversa AI Red Team a démontré une attaque de validation de principe contre PimEyes, le moteur de recherche de visages le plus populaire et le plus avancé pour les images publiques. Elle est également similaire à Clearview, une base de données commerciale de reconnaissance faciale vendue aux forces de l’ordre et aux gouvernements. PimEyes a été trompé et a confondu le PDG d’Adversa avec Elon Musk sur la photo.

Uniquement, l’attaque est une boîte noire qui a été développée sans aucune connaissance détaillée des algorithmes utilisés par le moteur de recherche, et l’exploit est transférable à différents moteurs de reconnaissance faciale. Comme l’attaque permet aux malfaiteurs de se camoufler de diverses manières, nous l’avons baptisée Adversarial Octopus en soulignant les qualités de cet animal telles que la furtivité, la précision et l’adaptabilité.

L’existence de telles vulnérabilités dans les applications d’IA et les moteurs de reconnaissance faciale, en particulier, peut avoir des conséquences désastreuses et peut être utilisée dans des scénarios d’empoisonnement et d’évasion, tels que les suivants  :

  • Les hacktivistes peuvent faire des ravages dans les plates-formes Internet basées sur l’IA qui utilisent les propriétés du visage comme entrée pour toute décision ou formation complémentaire. Les attaquants peuvent empoisonner ou échapper aux algorithmes des grandes sociétés Internet en manipulant leurs photos de profil.
  • Les cybercriminels peuvent voler des identités personnelles et contourner les systèmes d’authentification biométrique ou de vérification d’identité basés sur l’IA dans les banques, les plateformes de trading ou d’autres services qui offrent une assistance à distance authentifiée. Cette attaque peut être encore plus furtive dans tous les scénarios où les deepfakes traditionnels peuvent être appliqués.
  • Les dissidents peuvent l’utiliser secrètement pour cacher leurs activités Internet dans les médias sociaux aux forces de l’ordre. Cela ressemble à un masque ou à une fausse pièce d’identité pour le monde virtuel dans lequel nous vivons actuellement

Adversa AI a récemment publié le premier rapport analytique au monde concernant une décennie d’activités croissantes dans le domaine de l’IA sécurisée et fiable. Dans le sillage de l’intérêt pour des solutions pratiques pour assurer la sécurité du système d’IA contre les attaques accusatoires avancées, nous avons développé notre propre technologie pour tester les systèmes de reconnaissance faciale pour de telles attaques. Nous recherchons des utilisateurs précoces et des entreprises technologiques avant-gardistes pour s’associer à nous pour mettre en œuvre des capacités de test contradictoire dans vos capacités SDLC et MLLC et accroître la confiance dans vos applications d’IA et fournir aux clients les meilleures solutions.Contact avec les médias

L’équipe d’Adversa

+97504794776

[email protected] SOURCE Adversa IA