Récemment, F5 a publié un article de recherche dans la revue Elsevier Network Security relatif à l'analyse empirique de divers cadres d'apprentissage automatique (ML)/ intelligence artificielle (IA) pour déterminer les performances et l'efficacité de l'exécution d'algorithmes ML/IA de manière distribuée. La recherche explore l'utilisation de différents frameworks avancés ML/AI tels que Morpheus de NVIDIA, ONNX, TF/SKL, etc. pour améliorer considérablement la cybersécurité à grande échelle. Cela a permis d'accélérer les capacités de détection, obtenues grâce à un formatage de modèle optimisé et à un traitement de charge de travail parallèle activé par GPU. La combinaison de l’optimisation logicielle et de l’accélération matérielle a non seulement réduit la latence, mais également augmenté le débit global.
Nous avons sélectionné le problème de détection de domaines générés algorithmiquement (AGD) pour comparer les différents frameworks ML/AI (Morpheus de NVIDIA, ONNX, TF/SKL). En général, les attaquants utilisent des algorithmes de génération de domaine (DGA) pour générer des AGD pour exfiltration de données et la communication de commande et de contrôle (C&C) sur la couche DNS. Nous avons utilisé les modèles de détection des menaces DGA pour tester différents frameworks ML/AI.
Les modèles ML/AI pour détecter les AGD ont été déployés et exécutés sur les plates-formes données avec des tailles de lots de 32 et 1024. Les configurations GPU ont surpassé les configurations CPU de l'implémentation TensorFlow de 11 fois et 43 fois avec les tailles de lots données respectivement. En utilisant le format de modèle ONNX, le fournisseur d’exécution CPU a obtenu des performances 5 fois supérieures à celles du processeur TensorFlow pour une taille de lot de 32 et 1,5 fois supérieures pour une taille de lot de 1024. ONNX avec le fournisseur d'exécution GPU CUDA a surpassé ONNX avec le fournisseur d'exécution CPU de 6x et 13x pour les tailles de lots 32 et 1024, respectivement. Morpheus-GPU a surpassé les autres architectures en atteignant des débits de 22 382 req/sec et 208 077 req/sec pour des tailles de lots de 32 et 1 024, respectivement. Il s’agit d’une augmentation de 200 fois du débit par rapport à la configuration TensorFlow-GPU.
Dans notre analyse, nous avons constaté que Morpheus-GPU offre une latence et un débit supérieurs, permettant l’utilisation de lots plus importants pour desservir de grands réseaux. La détection DGA en temps réel sur le trafic DNS au niveau du centre de données est possible avec Morpheus-GPU et la mise en cache.
Les principaux enseignements de la recherche sont les suivants :
Les organisations peuvent utiliser cette recherche pour mettre en œuvre une cybersécurité accélérée par l’IA en sélectionnant une infrastructure robuste (combinaison d’unités de traitement et de cadres ML/AI) pour traiter les données à grande échelle afin d’obtenir des résultats d’inférence de manière rapide et évolutive. La recherche permet aux organisations de mettre en œuvre des méthodes utilisant les résultats validés liés aux cadres ML/AI dans les offres de produits existantes, en particulier dans les domaines du ML/AI.
Obtenez votre exemplaire du document sur le portail en ligne du Network Security Journal .