Guide de la solution BIG-IP Cloud Edition

Introduction

F5® BIG-IP® Cloud Edition™ a été conçu pour aider les équipes d'exploitation réseau et les équipes d'applications à collaborer plus efficacement dans la livraison rapide d'applications sécurisées et correctement prises en charge. BIG-IP Cloud Edition simplifie et centralise les fonctions de gestion des principaux services d'appareils et d'applications, telles que la configuration, les licences, les mises à niveau, les analyses et la mise à l'échelle. Les équipes d’exploitation peuvent facilement définir un catalogue en libre-service de services d’application auquel les développeurs peuvent ensuite accéder, à la demande, via un tableau de bord ou un appel API. Ces services sont définis, mis à jour et déployés pour chaque application, contrairement au modèle traditionnel consolidé dans lequel un seul contrôleur de distribution d'applications (ADC) prend en charge plusieurs applications.

En plus d'apporter un nouveau niveau de flexibilité architecturale aux services de sécurité et de fourniture d'applications de classe entreprise, BIG-IP Cloud Edition propose également plusieurs options d'achat. Conçu pour offrir une flexibilité financière adaptée à la flexibilité du service, BIG-IP Cloud Edition est disponible avec des options d'abonnement, d'utilitaire et de licence d'entreprise, ainsi qu'une option d'achat perpétuelle traditionnelle.

L'architecture de l'édition Cloud de BIG-IP

BIG-IP Cloud Edition a été spécialement conçu et testé pour permettre aux organisations de créer une solution de fourniture de services d'application qui offre un déploiement et une mise à l'échelle en libre-service, permettant aux équipes d'application de fournir une disponibilité et une sécurité de niveau entreprise pour leurs applications. Cette approche permet aux propriétaires d’applications de mieux collaborer avec NetOps, DevOps et SecOps dans un cadre agile pour améliorer considérablement les performances, la disponibilité et la sécurité de toutes les applications.

BIG-IP Cloud Edition est composé de deux composants d'infrastructure : 1) des éditions virtuelles BIG-IP Per-App sous licence spéciale (VE), chacune dédiée à une seule application et 2) la gestion centralisée F5 BIG-IQ® qui fournit des services de gestion, de visibilité et de licence sur toutes les instances, quel que soit leur emplacement. La solution de mise à l’échelle automatique fonctionne dans les clouds privés basés sur Amazon Web Services (AWS), Microsoft Azure ou VMware vCenter.

Composants logiques

BIG-IP Cloud Edition repose sur plusieurs composants logiques clés :

Conception logique de F5 BIG-IP Cloud Edition
Figure 1 : Conception logique de F5 BIG-IP Cloud Edition
Fournisseurs de cloud

BIG-IP Cloud Edition prend en charge le déploiement et la mise à l'échelle automatique des instances BIG-IP sur les plates-formes cloud suivantes :

  • Amazon Web Services (AWS)
  • Microsoft Azure
  • Clouds privés basés sur VMware vCenter

La prise en charge de plateformes de cloud privé et public supplémentaires est prévue pour les prochaines versions.

Catalogue de services

BIG-IP Cloud Edition permet aux développeurs d'accéder à un catalogue de services d'application en libre-service à la demande et de choisir un modèle de déploiement de services d'application.

Modèles d'application

Les modèles d'application définissent les services de distribution et de sécurité des applications qui seront déployés pour une application, y compris tous les objets BIG-IP tels que les serveurs virtuels, les profils, les moniteurs, les certificats SSL, les politiques de sécurité, etc. De plus, les modèles d’application définissent la surveillance et les alertes pour cette application. Ces modèles sont généralement définis par un expert en services d’application (tel que l’administrateur réseau et/ou de sécurité), qui configure les valeurs par défaut intelligentes et expose un ensemble limité d’options de configuration au propriétaire de l’application. Cette simplification élimine la dépendance aux opérations de réseau et de sécurité, et élimine le besoin d’une expertise approfondie du domaine réseau, tout en garantissant une utilisation cohérente des modèles et des politiques approuvés dans le développement et le déploiement des applications. Cela permet des déploiements d'applications plus rapides, car les propriétaires d'applications utilisent un tableau de bord simple à visualiser ou un seul appel d'API pour déployer et gérer leurs applications. De plus, BIG-IQ Centralized Management 6.0 est fourni avec un ensemble de modèles prédéfinis pour les configurations d'applications courantes. Les modèles d'application peuvent être fournis par des paires haute disponibilité BIG-IP dans des configurations de mise à l'échelle non automatique ou par des groupes de mise à l'échelle de services.

Groupes de mise à l'échelle des services

Outre l’utilisation de modèles d’application, les équipes d’application peuvent profiter des fonctionnalités de mise à l’échelle automatique en créant un groupe de mise à l’échelle de service. Lorsque les services d'application sont déployés à partir d'un modèle d'application et qu'un groupe de mise à l'échelle de services est sélectionné comme cible, BIG-IP Cloud Edition gère la disponibilité et la mise à l'échelle élastique des ressources pour fournir les services, et gère le cycle de vie et le processus de mise à niveau des périphériques BIG-IP fournissant ces services. Les groupes de mise à l'échelle des services ont des définitions de politique concernant le nombre minimum et maximum de périphériques dans un groupe, ainsi que les déclencheurs à utiliser pour mettre à l'échelle les ressources. 

Il est également possible d'utiliser des modèles d'application du catalogue de services pour déployer des services sur des clusters F5 ScaleN® traditionnels (mais sans les avantages de mise à l'échelle et de gestion du cycle de vie).

Modèles d'appareils

Les modèles de périphériques définissent toutes les caractéristiques au niveau de l'infrastructure (fuseau horaire, DNS, nom d'hôte, comptes, NTP, licences, mise en réseau, etc.) requises pour déployer un périphérique BIG-IP. Les organisations peuvent utiliser des modèles d’appareils pour créer des groupes de mise à l’échelle de services en déployant plusieurs nouveaux appareils à l’aide de ces modèles. Les modèles d'appareils constituent également la principale méthode d'interaction avec les appareils BIG-IP. Si une modification d'un appareil dans BIG-IP Cloud Edition est requise (en raison d'une mise à niveau de version, par exemple), le modèle d'appareil est modifié et les modifications sont transmises au groupe de mise à l'échelle du service. Les modèles d'appareils contiennent toutes les informations nécessaires pour instancier une édition virtuelle BIG-IP, y compris les licences, l'approvisionnement, la mise en réseau et d'autres besoins de base des appareils.

La gestion des appareils est différente dans BIG-IP Cloud Edition.

Dans la plupart des cas, les appareils fournissant des services de distribution d'applications et de sécurité dans BIG-IP Cloud Edition sont immuables ; les modifications ne sont pas apportées directement aux configurations de l'appareil, mais plutôt au modèle de l'appareil. Ensuite, BIG-IP Cloud Edition déploie ces modifications dans un groupe de mise à l’échelle des services en déployant de nouveaux appareils, en basculant le trafic vers eux, puis en supprimant les anciens appareils. Ce processus, parfois appelé « BIG-IP Per-App VE et nuke », est fondamentalement différent de la manière dont un déploiement BIG-IP multi-locataire traditionnel est géré.

Avantages des services par application :

  • Isoler les charges de travail
  • Environnements virtuels dimensionnés correctement
  • Éloignez-vous des mises à niveau traditionnelles sur place
  • Provisionner et configurer automatiquement de nouvelles instances
Gestion des licences

Avec BIG-IP Cloud Edition, l'octroi, la mise à niveau et la révocation des licences pour les instances virtuelles sont gérés automatiquement par le système de gestion des licences de BIG-IQ. Ce système automatique permet de regrouper et de déployer les licences quand et où elles sont nécessaires. Lorsqu'un périphérique n'est plus nécessaire, sa licence est renvoyée au pool pour être utilisée par une autre instance. Bien que les modes de licence, les capacités et le débit puissent varier selon les déploiements, BIG-IQ gère les licences de manière transparente, de sorte qu'il n'est pas nécessaire de procéder à une activation manuelle fastidieuse des licences lors du déploiement de nouvelles instances BIG-IP.

Visibilité des applications

Pour fournir des déclencheurs pour les événements de mise à l'échelle et un aperçu approfondi des performances des applications et de l'infrastructure, BIG-IQ collecte et visualise des analyses au niveau des applications qui sont utiles aux administrateurs de sécurité et de réseau, ainsi qu'aux propriétaires d'applications. Cette visibilité aide les propriétaires d’applications à autodiagnostiquer les problèmes de performances des applications pour déterminer si leur application ou le réseau est la source des retards.

Rôles

BIG-IP Cloud Edition est conçu pour favoriser la séparation logique des rôles. Les propriétaires d’applications bénéficient d’un déploiement d’applications en libre-service dans des groupes de mise à l’échelle de services gérés par les propriétaires d’infrastructure. Les modèles et les politiques de sécurité utilisés par les propriétaires d’applications peuvent être gérés par les équipes NetOps et SecOps. Certains modèles peuvent être disponibles pour certains propriétaires d'applications et pas pour d'autres, et les statistiques et tableaux de bord par application peuvent être limités aux propriétaires d'applications. Grâce à une gestion précise des rôles, BIG-IP Cloud Edition permet aux équipes d'application de prendre en charge leurs applications, tout en permettant aux équipes d'exploitation de garder le contrôle sur le réseau.

Rôles et tâches de BIG-IP Cloud Edition, tels que décrits dans la légende.
Figure 2 : Rôles et tâches de BIG-IP Cloud Edition : L'équipe des opérations de sécurité peut créer une bibliothèque de politiques de sécurité pour couvrir la plupart des déploiements d'applications courants. Ces politiques sont ensuite jointes aux modèles d’application par les équipes d’exploitation réseau, qui, en plus de créer des politiques de services d’application non axées sur la sécurité, sont également chargées de créer les groupes de mise à l’échelle des services et d’effectuer les tâches générales de gestion des appareils et des licences. Les équipes d’application consomment ces services en sélectionnant des modèles d’application pour déployer des services d’application pour leurs applications, puis en sélectionnant un groupe de mise à l’échelle de services sur lequel déployer ces services.
Composants d'infrastructure

BIG-IP Cloud Edition est composé de plusieurs composants d'infrastructure différents qui fonctionnent ensemble pour fournir la solution.

Diagramme de BIG-IP Cloud Edition
Figure 3 : Conception physique de BIG-IP Cloud Edition
VE par application BIG-IP

Utilisation de BIG-IP Per-App VE en dehors de BIG-IP Cloud Edition. Les VE BIG-IP Per-App peuvent être achetés en dehors de BIG-IP Cloud Edition. Disponible sous forme de pack de licences et avec un composant de gestion de licences BIG-IQ gratuit, BIG-IP Per-App

Un BIG-IP Per-App VE est une instance BIG-IP spécialement sous licence qui a été conçue pour fournir des services dédiés à une seule application. Toutes les fonctionnalités du logiciel BIG-IP sont activées, mais sa taille est adaptée pour être utilisée comme un appareil dédié.

Chaque BIG-IP Per-App VE est livré avec :

  • Adresse IP virtuelle unique
  • Trois serveurs virtuels (une combinaison d'une adresse virtuelle et d'un port d'écoute)
  • Débit de 25 Mbps ou 200 Mbps

Il existe deux options de modules logiciels disponibles dans les VE BIG-IP Per-App :

BIG-IP Local Traffic Manager

Le logiciel F5 BIG-IP Local Traffic Manager™ (LTM) offre une gestion du trafic applicatif de pointe, notamment l'équilibrage de charge avancé, la mise en forme du débit, le routage de contenu, la gestion SSL et le contrôle complet du trafic de la couche applicative dans les deux sens.  

F5 WAF avancé

F5 Advanced WAF offre toutes les fonctionnalités d'un pare-feu d'application Web (WAF) traditionnel ainsi qu'une protection améliorée sous la forme d'une atténuation DDoS de couche 7, d'une détection avancée des robots et d'une gestion de la sécurité des API. Advanced WAF est livré avec un ensemble de fonctionnalités de gestion du trafic BIG-IP LTM pour gérer efficacement le trafic vers les serveurs d'applications en aval. Le déploiement des politiques WAF avancées est géré dans le cadre du composant de modèle d'application.

Exigences relatives aux machines virtuelles

Les VE BIG-IP Per-App bénéficient de la rationalisation de la plateforme en termes de tailles d'image et de disque qui s'est produite dans les versions récentes de BIG-IP. Dans les déploiements BIG-IP traditionnels, les versions du logiciel BIG-IP étaient réalisées « sur place » en téléchargeant une nouvelle image logicielle sur un périphérique en cours d'exécution, puis en suivant une procédure de mise à niveau. Avec BIG-IP Cloud Edition, les appareils fournissant des services de sécurité et de distribution d'applications sont, pour la plupart, immuables. Les modifications ne sont donc pas apportées directement aux configurations des appareils, mais sont plutôt déployées à l'aide des modèles d'appareils et d'applications. Ensuite, les anciennes versions sont retirées lors d'une mise à niveau progressive. Un espace de stockage supplémentaire pour plusieurs versions du logiciel BIG-IP n'est donc pas nécessaire et la taille de l'image disque peut être réduite.

  • Dans les déploiements VMware, les VE BIG-IP Per-App sont disponibles dans des images non évolutives avec des empreintes de stockage réduites. Pour plus de détails sur les spécifications des machines virtuelles dans VMware, consultez le Guide de configuration de Virtual Edition pour ESXi .
  • Pour une utilisation en production sur AWS, F5 recommande les types d'images M3 ou M4, avec un minimum de deux cœurs virtuels et 4 Go de mémoire pour les déploiements BIG-IP LTM et 8 Go pour Advanced WAF.
  • Pour une utilisation en production sur Microsoft Azure, F5 recommande les types d’images Standard B2s et B2ms, avec un minimum de deux cœurs virtuels et 4 Go de mémoire pour les déploiements BIG-IP LTM et 8 Go pour Advanced WAF.
Mise à l'échelle et gestion des instances BIG-IP Per-App dans un groupe de mise à l'échelle de services

Évoluteurs de services VMware–BIG-IP

Dans VMware, le trafic par application vers les VE BIG-IP Per-App est mis à l'échelle via un cluster BIG-IP spécialisé à l'aide de la redirection d'adresses MAC, qui préserve les adresses IP source et de destination du client. Cela peut être important pour certaines des fonctionnalités de couche 7 offertes par les VE BIG-IP Per-App, et garantit également une collecte de données précise pour les services de visibilité proposés par BIG-IQ.

Les scalers de services BIG-IP effectuent un équilibrage de charge de base sur les VE BIG-IP Per-App et n'ont aucune limite de licence sur le débit (cependant, les ressources matérielles virtuelles limiteront évidemment le débit maximal). En option, le scaler de service peut être doté de fonctionnalités de pare-feu offrant des ACL réseau et des capacités d'atténuation DoS de couche 4. Les scalers de service ne peuvent pas exécuter les fonctions SSL ou de couche 7 pour le moment.

Les scalers de services BIG-IP nécessitent les spécifications de machine virtuelle suivantes :

 

Minimum

Maximum

processeur virtuel

2[1]

4

Mémoire

4 Go

16 GB[2]

Espace disque

40 Go[3]

82 Go

Cartes d'interface réseau

4

10

 

Les scalers de services BIG-IP peuvent appartenir à plusieurs groupes de mise à l'échelle de services et peuvent être partagés entre plusieurs applications (tandis que les VE par application BIG-IP sont, comme leur nom l'indique, dédiés à une seule application).

La configuration et l'installation de dispositifs de mise à l'échelle de services dans un groupe de mise à l'échelle de services sont décrites dans la gestion centralisée BIG-IQ : Trafic local et implémentations de réseau.

[1] Quatre vCPU sont requis pour des fonctionnalités de pare-feu supplémentaires.

[2] Ce montant peut être plus élevé car il n’y a pas de limite fixe.

[3] 82 Go pour les fonctionnalités de pare-feu.

AWS ELB Classique

Dans AWS, les services sont mis à l’échelle à l’aide d’instances Elastic Load Balancing (ELB) Classic. ELB Classic fournit un équilibrage de charge L4 de base et une disponibilité sur les VE BIG-IP Per-App, et une instance logique d'ELB est dédiée à un seul groupe de mise à l'échelle de service. Chaque application nécessite donc une configuration ELB dédiée. Le service AWS gère la mise à l'échelle des instances ELB pour répondre aux demandes.  

La configuration des instances AWS ELB dans un groupe de mise à l'échelle de service est abordée dans la gestion centralisée BIG-IQ : Gestion des applications dans un cloud AWS à mise à l’échelle automatique .

Équilibreur de charge Azure

Dans Azure, les services sont mis à l’échelle à l’aide d’instances Azure Load Balancer. Load Balancer fournit un équilibrage de charge L4 de base et une disponibilité sur les VE BIG-IP Per-App, et une instance logique de Load Balancer est dédiée à un seul groupe de mise à l'échelle de service. Par conséquent, chaque application nécessite une configuration d’équilibreur de charge dédiée. Le service Azure gère la mise à l'échelle des instances Load Balancer pour répondre aux demandes. 

La configuration des instances Azure Load Balancer dans un groupe de mise à l'échelle de service est expliquée dans Gestion centralisée BIG-IQ : Gestion des applications dans un cloud Azure à mise à l’échelle automatique .

GRAND QI

BIG-IQ peut gérer plus que des VE par application BIG-IP.

BIG-IQ peut découvrir et gérer les instances BIG-IP de toutes les versions logicielles prises en charge, quelle que soit la plate-forme ou l'emplacement. La plateforme peut effectuer la gestion des appareils, visualiser les statistiques et déployer des configurations de services d'application modèles sur des instances BIG-IP physiques, virtuelles et déployées dans le cloud. BIG-IQ peut même proposer une mise à l'échelle automatique pour les VE BIG-IP traditionnels pris en charge (pas par application) sur les plates-formes prises en charge (actuellement AWS, Azure et VMware).

BIG-IQ fournit une gestion centralisée de tous les composants qui composent BIG-IP Cloud Edition. Toutes les activités et tous les rapports sont gérés via BIG-IQ et l'accès administratif aux VE BIG-IP Per-App n'est pas requis. 

GRAND QI :

  • Crée de nouveaux groupes de mise à l'échelle de services
    • Au sein du groupe de mise à l'échelle des services, les modèles d'appareils sont référencés pour gérer le cycle de vie des VE BIG-IP Per-App. Les modèles d'appareils incluent toutes les informations nécessaires pour lancer un VE BIG-IP Per-App et ne nécessitent aucune intervention humaine.
  • Fournit des analyses approfondies au niveau de l'application afin que les propriétaires d'applications puissent résoudre leurs propres problèmes.
  • Fournit des mesures de performance et de capacité au niveau de l'appareil pour le dépannage et la planification.
  • Offre un accès basé sur les rôles permettant aux propriétaires d'applications de déployer des services F5 L4-7 pour une application via des modèles d'application prédéfinis à partir du catalogue de services en libre-service.

F5 recommande le matériel virtuel suivant pour BIG-IQ dans un déploiement BIG-IP Cloud Edition.

 

Minimum

Maximum

processeur virtuel

4

8

Mémoire

4 Go

16 GB

Espace disque

95 Go

500 Go

Cartes d'interface réseau

2

10

 

L'installation et la configuration de BIG-IQ sont décrites dans le Guide de déploiement de la gestion centralisée F5 BIG-IQ .

Communication BIG-IQ avec gestion d'infrastructure virtuelle

BIG-IQ est capable de démarrer, d'octroyer des licences, de provisionner et de configurer des VE BIG-IP Per-App à la demande, dans le cadre d'un groupe de mise à l'échelle de services ou dans un environnement évolutif. Cela nécessite un accès authentifié à l’environnement d’infrastructure virtuelle.

 

Dans VMware

Dans VMware, les éléments suivants sont requis : informations d'identification pour accéder à vCenter, un nom d'hôte vCenter, un certificat SSL pour une communication sécurisée et d'autres informations sur l'environnement ESX telles que les hôtes/clusters, les magasins de données, les commutateurs virtuels (distribués) (vSwitches) et les pools de ressources. 

Dans AWS

Dans AWS, les éléments suivants sont requis : Clé d'accès utilisateur IAM (Identity and Access Management) et secret associé pour effectuer des appels API et ELB afin de fournir une distribution du trafic de niveau 1. Suivez les meilleures pratiques AWS pour créer et gérer les clés.

L'utilisateur IAM doit disposer de la stratégie d'accès administrateur associée et être autorisé à créer des groupes de mise à l'échelle automatique, des buckets Amazon Simple Storage Service (S3), des instances et des profils d'instance IAM.  Pour plus de détails sur les autorisations et la configuration globale d'AWS, consultez https://aws.amazon.com/documentation .

Haute disponibilité et sauvegarde BIG-IQ

Étant donné que BIG-IP Cloud Edition achemine essentiellement toutes les activités du plan de contrôle via la couche de gestion BIG-IQ (BIG-IQ gère la surveillance en temps réel et les événements d'augmentation/de réduction et gère l'attribution et la révocation des licences), il devient un élément essentiel du système de distribution et est donc généralement déployé dans une configuration hautement disponible et redondante.

La planification doit donc inclure une paire BIG-IQ active-veille, avec la licence appropriée pour le nombre d'instances BIG-IP sous gestion.

La configuration de BIG-IQ pour une haute disponibilité est abordée dans le Guide de déploiement de la gestion centralisée F5 BIG-IQ .

Dispositifs de collecte de données BIG-IQ

Les périphériques de collecte de données dans BIG-IQ sont responsables de la collecte, du stockage et du traitement des données de trafic et de performances des VE par application BIG-IP. Une fois que les VE BIG-IP Per-App envoient la télémétrie des performances et du trafic aux périphériques de collecte de données pour traitement et stockage, BIG-IQ interroge les périphériques de collecte de données pour fournir une visibilité et des rapports. Les dispositifs de collecte de données sont organisés en clusters qui fonctionnent ensemble et répliquent les données stockées à des fins de redondance.

F5 recommande le matériel virtuel suivant pour les périphériques de collecte de données utilisés dans BIG-IP Cloud Edition :

processeur virtuel

8

Mémoire

32

Espace disque

500 Go

Cartes d'interface réseau

2

 

Remarque sur les sous-systèmes de disque :  Les appareils de collecte de données BIG-IQ stockent, traitent et analysent les données collectées à partir des VE BIG-IP Per-App pour produire des rapports et des tableaux de bord pour le système BIG-IQ. Il s'agit d'une charge de travail intensive en E/S de disque. Le stockage sous-jacent doit donc être dimensionné en fonction de la capacité et des performances. Pour les déploiements à grande échelle de VE BIG-IP Per-App ou pour une journalisation et une analyse approfondies, des sous-systèmes de stockage hautes performances doivent être déployés. Les opérations de recherche de capture et d'indexation généreront des E/S aléatoires et séquentielles, souvent avec une forte concurrence de tâches.

Pour plus d'informations, consultez le Guide de dimensionnement des dispositifs de collecte de données de gestion centralisée BIG-IQ .

Réseaux et connectivité

VPN pour les appareils de collecte de données avec des déploiements de cloud public

Lorsque de nouveaux VE BIG-IP Per-App sont créés, ils reçoivent l'adresse IP des périphériques de collecte de données auxquels ils doivent se reconnecter. Il s'agit d'un paramètre fixe (à partir de BIG-IQ 6.0). Des connexions dans les deux sens sont nécessaires entre les périphériques de collecte de données et le BIG-IP Per-App VE. Dans de nombreux environnements, mais en particulier lorsque les VE BIG-IP Per-App se trouvent sur AWS ou Azure et que les périphériques BIG-IQ et de collecte de données se trouvent dans les locaux du client, une connectivité VPN sera nécessaire pour acheminer avec succès le trafic dans les deux sens, car les périphériques de collecte de données auront généralement une adresse IP non routable RFC 1918. BIG-IP Cloud Edition nécessite des plages d'adresses IP uniques sur Amazon Virtual Private Cloud (Amazon VPC) ou Azure Virtual Network (Azure VNet), ce qui signifie qu'elles ne peuvent pas avoir d'espaces d'adressage qui se chevauchent dans Amazon VPC.

Figure 4 : Exigences VPN pour le déploiement AWS

Il existe plusieurs façons différentes de configurer un VPN ou une autre connexion privée à AWS, notamment des services comme AWS Direct Connect ou des services de connectivité multicloud comme Equinix Cloud Exchange. Il est également possible d'établir un tunnel IPSEC à partir d'appareils BIG-IP locaux vers des passerelles VPN AWS .

Connectivité : Ports et protocoles

Pour plus de détails sur la connectivité des ports et des protocoles entre les composants BIG-IP Cloud Edition, veuillez consulter la documentation BIG-IQ 6.0

De plus, BIG-IQ doit accéder aux points de terminaison de l'API AWS pour la région choisie sur le port 443 ou au serveur vCenter sur le port 443.

Authentification et sécurité
Authentification des utilisateurs BIG-IQ

BIG-IQ offre à la fois une gestion de compte utilisateur intégrée et une intégration avec des protocoles externes courants tels que TACACS, RADIUS et LDAP.

Dimensionnement et planification des capacités
Réseaux et connectivité

Combien de VE BIG-IP Per-App seront nécessaires ?

Il existe deux limites critiques sur les instances BIG-IP Per-App VE :

  • Objets
  • Débit

Contrairement à un déploiement plus traditionnel, les VE BIG-IP Per-App sont généralement déployés dans une configuration entièrement active avec le périphérique de gestion du trafic de niveau 1 prenant en charge la haute disponibilité et la mise à l'échelle.  En règle générale, cela signifie un débit réel plus élevé par instance VE provisionnée que dans une paire de haute disponibilité (HA) active-veille plus centrée sur le matériel où il est nécessaire de conserver une capacité de réserve pour le basculement, même dans une configuration active-active. Les VE BIG-IP Per-App sont disponibles en licences de débit de 25 Mbps et 200 Mbps et sont conçus pour évoluer à l'aide de groupes de mise à l'échelle de services.

La première étape consiste à déterminer une estimation de base du débit requis pour chaque application pour laquelle la gestion du trafic est prévue. Ensuite, décidez si la licence de 25 Mbps ou de 200 Mbps est appropriée. Pour des besoins de débit plus importants par application, la licence 200 Mbps est appropriée car elle comporte moins de périphériques au total. Pour des besoins plus petits ou plus précis, la licence 25 Mbps est plus appropriée. Si l’optimisation de l’utilisation des ressources est importante, la licence 200 Mbps permettra une utilisation plus efficace du matériel sous-jacent pour un débit particulier.

Illustration graphique de la mise à l'échelle et du dimensionnement des VE BIG-IP Per-App
Figure 5 : Mise à l'échelle et dimensionnement des VE BIG-IP Per-App

Il est possible de mélanger et d'associer différents types de licences au sein d'un environnement, mais une application spécifique ne sera prise en charge que par un seul type de licence.

Pour chaque application, déterminez :

  • Débit total requis
  • Croissance probable
  • Volatilité

Lorsque l’on pense à la volatilité, il y a quelques variables à prendre en compte. Premièrement, les déclencheurs des événements de mise à l’échelle sont basés sur le débit, les seuils de CPU et/ou la mémoire du périphérique le plus occupé d’un groupe de mise à l’échelle de service, pris sur une moyenne de cinq minutes. Étant donné qu'une nouvelle instance BIG-IP Per-App VE prendra un certain temps pour devenir active après le démarrage, il est recommandé de provisionner l'exigence de base avec une capacité correspondant à environ 20 minutes de croissance maximale prévue. De cette façon, les services peuvent s’adapter à la demande tout en ayant une certaine capacité à gérer les pics prévus.

Bien que le dimensionnement puisse être complexe, avec BIG-IP Cloud Edition, les instances de chaque application peuvent s'adapter à la demande. Il n'est donc pas nécessaire de viser la perfection ou de créer une capacité de réserve excessive.

Dimensionnement des instances de scaler de service BIG-IP

La capacité de mise à l’échelle du service est implémentée différemment selon les environnements.

Dans AWS, la mise à l'échelle et la réduction sont gérées par l'équilibreur de charge AWS ELB Classic simple à utiliser.

Dans VMware, les fonctions de mise à l'échelle des services, de DDoS de couche 4 et de pare-feu sont fournies par des VE BIG-IP spéciaux. Ces VE sont configurés pour distribuer simplement le trafic aux VE BIG-IP Per-App et également pour fournir un contrôle d'accès à la couche réseau et une atténuation des attaques DDoS.

Les instances à mise à l'échelle automatique sont conçues pour offrir un débit élevé, une faible complexité et être partageables entre plusieurs applications.

API et intégrations

BIG-IQ propose une API REST, permettant le déploiement de services d'application à partir du catalogue de services par programmation. Pour plus de détails sur l'API REST, veuillez consulter la documentation BIG-IQ .

Conclusion

BIG-IP Cloud Edition offre la puissance, la sécurité et la flexibilité des services d'application F5 de nouvelles manières. Il s’agit notamment d’une nouvelle plateforme par application qui peut évoluer à la hausse ou à la baisse à la demande, ainsi que de fonctionnalités en libre-service. Les équipes de sécurité peuvent créer des politiques de sécurité des applications et d’atténuation des attaques DDoS, et les équipes réseau peuvent ensuite les joindre à des modèles d’application et les ajouter au catalogue de services pour des utilisateurs spécifiques. Les équipes d'application peuvent choisir parmi un catalogue de services prédéfini et déployer des services dans un groupe de mise à l'échelle de services qui s'adaptera pour répondre aux exigences de leurs applications.

Le résultat final est une solution hautement flexible et évolutive qui fournit des services d’application F5 de niveau entreprise, avec la flexibilité des instances dédiées, accompagnée d’une réduction mesurable des frais généraux opérationnels. Cette approche permet aux bonnes équipes de faire le bon travail : désormais, les propriétaires d’applications peuvent mieux collaborer avec les équipes d’opérations réseau, de développement et de sécurité dans un cadre agile pour améliorer considérablement les performances, la disponibilité et la sécurité de toutes les applications.

Publié le 30 mai 2018
  • Partager sur Facebook
  • Partager sur X
  • Partager sur Linkedin
  • Partager par e-mail
  • Partager via AddThis

Connectez-vous avec F5

F5 Labs

Les dernières nouveautés en matière de renseignement sur les menaces applicatives.

DevCentral

La communauté F5 pour les forums de discussion et les articles d'experts.

Salle de presse F5

Actualités, blogs F5 et plus encore.