Avantages et inconvénients de l'apprentissage automatique pour la sécurité de l'IA

L’intelligence artificielle (IA) dans la cybersécurité a été un sujet populaire lors de la conférence virtuelle de la RSA cette année, pour une bonne raison. De nombreux outils s’appuient sur l’IA, l’utilisant pour la réponse aux incidents, la détection du spam et du phishing et la chasse aux menaces. Cependant, alors que la sécurité de l’IA obtient les titres des sessions, en creusant plus profondément, il est clair que l’apprentissage automatique (ML) est vraiment ce qui le fait fonctionner. La raison est simple. Le ML permet « des prédictions de grande valeur qui peuvent guider de meilleures décisions et des actions intelligentes en temps réel sans intervention humaine ».

Pourtant, pour tout ce que le ML peut faire pour améliorer l’intelligence et aider la sécurité de l’IA à faire plus, le ML a ses défauts. Le ML, et par défaut l’IA, n’est aussi intelligent que ce que les gens lui apprennent. Si l’IA n’apprend pas les bons algorithmes, cela pourrait finir par affaiblir vos défenses. De plus, les acteurs de la menace ont le même accès aux outils d’IA et de ML que les défenseurs. Nous commençons à voir comment les attaquants utilisent le ML pour lancer des attaques, ainsi que comment il peut servir de vecteur d’attaque. Jetez un œil aux avantages et aux dangers dont les experts ont discuté à RSA.

Ce que la cybersécurité de l’apprentissage automatique réussit

Lorsqu’il dispose du bon ensemble de données, le ML permet de voir une vue d’ensemble du paysage numérique que vous essayez de défendre. C’est ce qu’affirme Jess Garcia, responsable technique chez One eSecurity, qui a présenté la session RSA « Moi, mon adversaire et l’IA  : enquêter et chasser avec l’apprentissage automatique ».

Parmi les domaines ML les plus utiles à des fins de sécurité figurent la prédiction, le filtrage du bruit et la détection d’anomalies. « Un événement malveillant a tendance à être une anomalie », explique Garcia. Les défenseurs peuvent utiliser le ML conçu pour détecter les anomalies pour la détection et la chasse aux menaces.

La taille de l’ensemble de données est importante lors de la programmation de ML pour la sécurité de l’IA. Comme Younghoo Lee, Senior Data Scientist chez Sophos, l’a souligné lors de la session « AI vs AI  : créer un nouveau spam et le capturer avec l’IA de génération de texte », davantage de données de formation donnent de meilleurs résultats et les modèles de langage pré-entraînés sont importants pour les tâches en aval. Le panel de Lee s’est concentré sur la création et les protections de spam, mais les conseils s’appliquent à tous les systèmes de ML utilisés pour la cybersécurité.

Quand les attaquants utilisent ML ou AI Security

Dans la session « Evasion, empoisonnement, extraction et inférence  : les outils pour se défendre et évaluer », les présentateurs Beat Buesser, membre du personnel de recherche d’IBM Research, et Abigail Goldsteen, membre du personnel de recherche d’IBM, ont partagé quatre menaces différentes contre le ML. Les attaquants peuvent utiliser  :

  • Evasion  : modifier une entrée pour influencer un modèle
  • Empoisonnement  : ajouter une porte dérobée aux données d’entraînement
  • Extraction  : voler un modèle propriétaire
  • Inférence  : En savoir plus sur les données privées

« Nous constatons un nombre croissant de ces menaces du monde réel », déclare Buesser. Les acteurs de la menace utilisent des techniques qui déforment ce que le ML sait, dont certaines ont des conséquences de vie ou de mort pour la sécurité de l’IA. Un exemple est celui des attaquants qui ont apposé des autocollants sur une autoroute, forçant un véhicule autonome à faire une embardée dans la circulation venant en sens inverse. Un autre exemple montre comment les attaquants peuvent modifier les systèmes de ML à risque pour leur permettre de contourner les systèmes de filtrage de sécurité afin de laisser passer davantage d’e-mails de phishing.

Équilibrer le pour et le contre

Les systèmes de ML conçus pour augmenter la sécurité de l’IA sont devenus un avantage pour les équipes de sécurité. Plus d’automatisation signifie moins d’épuisement et une détection et une réparation des menaces plus précises. Cependant, étant donné que les acteurs de la menace voient le ML comme un vecteur d’attaque, l’équipe doit également savoir où existent le ML et l’IA au sein de l’entreprise ou de l’agence au-delà de leurs systèmes. Une fois familiarisés avec les fonctions de ML et d’IA, ils peuvent savoir où les problèmes potentiels peuvent persister et voir comment ceux-ci peuvent devenir des tremplins pour une attaque.

La sécurité du ML et de l’IA a le potentiel de changer les modèles de détection et de prévention pour le mieux. Vous avez également toujours besoin d’une touche humaine pour vous assurer que le ML ne cause pas de problèmes de sécurité au lieu de les résoudre.