Adversa AI Red Team a inventé une technologie pour le piratage éthique des systèmes de reconnaissance faciale

Adversa AI, la première startup de Trusted AI Research, a démontré une nouvelle méthode d’attaque sur les applications de reconnaissance faciale de l’IA. En effectuant des changements imperceptibles sur les visages humains, un algorithme de reconnaissance faciale basé sur l’IA méconnaît les personnes. Par rapport à d’autres approches similaires, cette méthode est transférable sur tous les modèles d’IA et en même temps, elle est beaucoup plus précise, furtive et économe en ressources.

IA d’Adversa

Uniquement, l’attaque est une boîte noire qui a été développée sans aucune connaissance détaillée des algorithmes utilisés par le moteur de recherche, et l’exploit est transférable à différents moteurs de reconnaissance faciale. Comme l’attaque permet aux malfaiteurs de se camoufler de diverses manières, nous l’avons baptisée Adversarial Octopus en soulignant les qualités de cet animal telles que la furtivité, la précision et l’adaptabilité.

L’existence de telles vulnérabilités dans les applications d’IA et les moteurs de reconnaissance faciale, en particulier, peut avoir des conséquences désastreuses et peut être utilisée dans des scénarios d’empoisonnement et d’évasion, tels que les suivants  :

  • Les cybercriminels peuvent voler des identités personnelles et contourner les systèmes d’authentification biométrique ou de vérification d’identité basés sur l’IA dans les banques, les plateformes de trading ou d’autres services qui offrent une assistance à distance authentifiée. Cette attaque peut être encore plus furtive dans tous les scénarios où les deepfakes traditionnels peuvent être appliqués.
  • Les dissidents peuvent l’utiliser secrètement pour cacher leurs activités Internet dans les médias sociaux aux forces de l’ordre. Cela ressemble à un masque ou à une fausse pièce d’identité pour le monde virtuel dans lequel nous vivons actuellement

Adversa AI a récemment publié le premier rapport analytique au monde concernant une décennie d’activités croissantes dans le domaine de l’IA sécurisée et fiable. Dans le sillage de l’intérêt pour des solutions pratiques pour assurer la sécurité du système d’IA contre les attaques accusatoires avancées, nous avons développé notre propre technologie pour tester les systèmes de reconnaissance faciale pour de telles attaques. Nous recherchons des utilisateurs précoces et des entreprises technologiques avant-gardistes pour s’associer à nous pour mettre en œuvre des capacités de test contradictoire dans vos capacités SDLC et MLLC et accroître la confiance dans vos applications d’IA et fournir aux clients les meilleures solutions.Contact avec les médias

L’équipe d’Adversa

+97504794776

SOURCE Adversa IA