Nous avons atteint un point d’inflexion clé dans le paysage des application . Deux points clés du rapport F5 2024 sur l'état de la stratégie des application soulignent le besoin important de services d'automatisation et de support d'applications capables de répondre aux besoins des organisations là où elles se trouvent dans leur parcours. Le rapport nous dit que :
Les nouveaux développements dans les applications et les charges de travail modernes apportent des changements quantiques aux architectures d’applications (sans parler des exigences de livraison et de sécurité). En termes simples, le besoin de s’aligner sur la conteneurisation, l’orchestration des conteneurs, l’automatisation et la mise en réseau des microservices n’a jamais été aussi grand. Le même rapport a désigné les réseaux de microservices comme la tendance technologique la plus intéressante en 2024. Ce n’est pas surprenant quand on sait que plus de 60 % des entreprises ont adopté Kubernetes .
Cependant, cette méthode plus récente de création et d’exploitation d’applications et d’API s’accompagne d’une complexité et de risques importants. Selon le rapport 2024 State of Kubernetes security report de Red Hat , près de 9 organisations sur 10 ont signalé un incident de sécurité lié à Kubernetes ou à un conteneur au cours des 12 derniers mois, ce qui peut entraîner une perte de réputation et de revenus. Les principales préoccupations (et les coupables probables) sont les vulnérabilités et les mauvaises configurations. Ces problèmes se produisent souvent dans des environnements de déploiement application hautement dynamiques (comme les conteneurs).
Le paysage actuel des application d'entreprise est extrêmement complexe, les organisations déployant des centaines d'applications et d'API, distribuées à l'échelle mondiale, dans des formats et des environnements d'exploitation qui incluent :
Ajoutez à cela le rythme effréné de l’innovation et l’adoption généralisée de l’IA (avec sa relation étroite avec les conteneurs et les microservices) et cette complexité est en passe de devenir rapidement incontrôlable.
Chez F5, nous appelons affectueusement cette situation la « boule de feu » et elle conduit à une stratification des opérations, à moins d’agilité et à un délai de rentabilisation plus lent. À ces préoccupations opérationnelles s’ajoute la surface d’attaque croissante résultant de cet environnement application hétérogène. Cette surface élargie constitue une cible de choix pour les acteurs malveillants et les menaces de plus en plus sophistiquées (telles que les attaques basées sur l’IA). Tous ces facteurs créent une situation hautement indésirable, et finalement intenable. Vous vous retrouvez avec une faible visibilité, peu de cohérence des politiques et des lacunes en matière de sécurité, de performances et de disponibilité des applications.
La réponse aux préoccupations liées à la boule de feu et aux conteneurs spécifiques réside dans une nouvelle génération de contrôleurs de distribution application (ADC). Les ADC peuvent fournir une automatisation complète du cycle de vie pour générer des informations, assurer la cohérence des politiques, ainsi que fournir et sécuriser des applications dans tous les environnements d'exploitation (en particulier les conteneurs).
L’un des aspects les plus difficiles de l’exploitation d’applications et d’API dans les environnements Kubernetes est le manque de cohérence. Parce que Kubernetes et les conteneurs en général sont éthérés par nature, ils sont constamment mis à jour et désactivés, soumis à des changements constants de politique et de configuration, et conçus pour évoluer en fonction de la demande et des besoins de l'entreprise. Cet environnement dynamique est idéal pour exploiter des applications modernes, des microservices et des API, mais peut s’avérer difficile à gérer et à contrôler.
Ces exigences changeantes présentent des défis importants pour les équipes DevOps, DevSecOps, informatiques et de sécurité qui tentent de créer, de déployer et d'exploiter des applications et des services dans ces environnements : des obstacles tels que la dérive de configuration, les goulots d'étranglement de mise à l'échelle et les vulnérabilités de sécurité. Et si l’on considère que chacune des 30 technologies de livraison et de sécurité d’applications les plus courantes bénéficie d’un taux de déploiement moyen de 93 %, les défis ne vont pas disparaître.
L’exploitation d’applications dans cet environnement en constante évolution nécessite que les services de distribution et de sécurité des applications, tels que l’équilibrage de charge, la mise en cache de contenu, les WAF, les contrôleurs d’entrée et les passerelles API, soient tout aussi élastiques et dynamiques.
Entrez l’automatisation pour rationaliser ces opérations pour les applications dans Kubernetes.
Que ce soit par le biais de l’automatisation « traditionnelle » (c’est-à-dire des déclencheurs basés sur des seuils définis et des flux de travail CI/CD) ou de la prochaine génération d’automatisation rendue possible par l’IA, la livraison et la sécurité automatisées des applications deviennent une norme acceptée parmi les technologues.
Nous avons appris, grâce à des recherches menées pour notre rapport 2024 sur l'état de la stratégie des application , qu'un quart des organisations utilisent la livraison automatisée d'applications, et que ces mêmes équipes sont presque deux fois plus susceptibles d'automatiser la sécurité de leurs applications et API (43 %).
Alors que les organisations continuent de donner la priorité à l’IA dans leurs décisions stratégiques, l’automatisation ne fera qu’augmenter. En fait, l’automatisation est désormais l’utilisation principale de l’IA générative : elle permet de réduire la complexité, d’obtenir des réponses plus rapides et d’accroître l’efficacité de la distribution et de la sécurité des applications.
Une automatisation efficace dépend de la visibilité et des entrées de données qui identifient les goulots d’étranglement des performances, réagissent rapidement en ajustant les politiques et garantissent que les configurations correctes sont en place. Cela implique de surveiller l’environnement, un défi majeur dans Kubernetes.
F5 BIG-IP est une solution holistique de premier ordre pour fournir des services avancés de livraison application et de sécurité, en grande partie grâce aux données d'application et d'API qu'elle déverrouille. BIG-IP est une solution idéale pour la nature en constante évolution des environnements Kubernetes.
Voici ce que propose BIG-IP :
Pour une solution d'automatisation plus « analogique » (lire : sans IA), il existe BIG-IP pour les applications modernes utilisant Kubernetes activé par Services d'entrée de conteneurs BIG-IP (CIS) et F5 IngressLink . Il s’agit d’une approche de solution pour gérer et optimiser le trafic réseau pour les applications déployées dans Kubernetes.
Ce déploiement offre des fonctionnalités de porte d'entrée innovantes telles que la gestion avancée du trafic, l'équilibrage de charge multi-cluster, la terminaison SSL et des capacités de protocoles avancées. Cela le rend idéal pour gérer les besoins d'entrée exigeants de l'environnement Kubernetes multi-cluster. En outre, il fournit les meilleures améliorations de sécurité disponibles que BIG-IP propose à l'échelle de l'entreprise et pour les environnements Kubernetes. Il s'agit notamment de la protection DDoS et du contrôle d'accès, d'un pare-feu application Web avancé, d'un pare-feu réseau, etc.
CIS écoute les changements dans les environnements Kubernetes et met automatiquement à jour le BIG-IP de la porte d'entrée pour automatiser les tâches, appliquer des politiques cohérentes et garantir la disponibilité et la résilience des applications. Ensemble, BIG-IP et CIS sont conçus pour simplifier les déploiements Kubernetes, ce qui permet des points de contrôle centralisés pour l'ensemble de votre infrastructure distribuée.
BIG-IP pour Kubernetes aborde également la distribution d'applications modernes à grande échelle, en offrant une intégration entre BIG-IP, les technologies F5 NGINX et les contrôleurs d'entrée communautaires. Cette approche met sur le marché le meilleur de F5, en fournissant une solution élégante qui offre une méthode unifiée de travail avec plusieurs technologies. Cela permet d’accéder à l’outil idéal pour chaque cas d’utilisation et favorise une meilleure collaboration entre les équipes NetOps et DevOps. Un schéma ci-dessous illustre cette solution.
Services de support d'applications modernes dans Kubernetes avec F5 BIG-IP
L’IA permet une plus grande utilisation de l’automatisation car elle peut exploiter les données pour suggérer un plan d’action idéal, optimiser ces recommandations et s’améliorer continuellement. À titre d'exemple concret et déployable dès aujourd'hui, une organisation peut intégrer les données BIG-IP à un modèle pour entraîner l'IA. Ensuite, en s'appuyant sur CIS, AS3 et Automation Toolchain , cette équipe peut mettre à jour BIG-IP pour l'optimiser et l'améliorer afin de mieux bloquer les menaces et les comportements anormaux.
Vous pouvez vous plonger dans cette solution en explorant cette vidéo ou consulter l'architecture de référence POC ci-dessous. Si vous souhaitez commencer maintenant, ce POC est disponible via GitHub.
Amélioration automatique de F5 BIG-IP avec l'IA
Les environnements Kubernetes ne sont qu’un des nombreux environnements d’exploitation pour les applications et les API. Les charges de travail de l’IA ( comme une usine d’IA ) en sont un excellent exemple. Cependant, la mise en réseau Kubernetes n’a pas été conçue pour s’intégrer à plusieurs réseaux ou prendre en charge des protocoles au-delà de HTTP/HTTPS. F5 BIG-IP Next pour Kubernetes fournit un point central pour le contrôle et la sécurité du réseau d'entrée/sortie pour le cluster Kubernetes. Cette solution native Kubernetes fournit une optimisation du trafic hautes performances pour les infrastructures d'IA à grande échelle qui incluent des applications conteneurisées.
BIG-IP Next pour Kubernetes déployé sur les DPU NVIDIA BlueField-3 améliore l'efficacité de l'ingestion des données et optimise l'utilisation du GPU pendant la formation du modèle. Dans le même temps, il offre une expérience utilisateur supérieure lors de l'inférence en améliorant les performances de la génération augmentée par récupération (RAG). Cette solution est déployée au sein du cluster au point d'entrée/sortie et est orchestrée nativement par Kubernetes.
Quel que soit votre cas d'utilisation, BIG-IP et F5 proposent des solutions pour prendre en charge ces application modernes et ces charges de travail Kubernetes.
En raison de la nature et des exigences en constante évolution des applications dans les environnements Kubernetes, il est impératif que les services de livraison et de sécurité des applications bénéficient d'une automatisation intelligente et évolutive. La plateforme de livraison et de sécurité application F5 et les solutions spécifiques à Kubernetes permettent aux équipes informatiques, DevOps et de sécurité de prendre en charge les charges de travail des application dans cet environnement d'exploitation, d'automatiser les obstacles administratifs et de garantir les performances, la résilience et la sécurité de leur ressource la plus importante : les applications et les API.
Pour en savoir plus sur la livraison d'applications modernes, visitez notre page Web F5 BIG-IP Container Ingress Services .