Si vous ne l’avez pas remarqué, les conteneurs continuent de gagner du terrain à une vitesse surprenante. Même le cloud ne peut pas se vanter d’une telle adoption zélée. Il est important de se rappeler que le déploiement de conteneurs en production ne signifie pas que tout est déplacé vers des conteneurs. Du moins pas encore. Comme c’est le cas avec de nombreuses technologies émergentes, les entreprises commencent à déployer leurs solutions application par application afin de résoudre les problèmes propres à leur organisation et à leur environnement.
Pourtant, le taux de croissance est stupéfiant et il est peu probable que nous le voyions ralentir de sitôt. Plus il est utilisé, plus les bonnes pratiques et les architectures évoluent, et plus les applications seront migrées. À cet égard, il suit une multitude d’autres technologies et modèles tels que le cloud, le client-serveur et le mobile. Il faut ramper avant de pouvoir marcher, et peu de temps après, on court.
Nous sommes ravis de faire partie de l’écosystème des conteneurs alors qu’il progresse rapidement sur son chemin vers les environnements de production partout dans le monde, qu’ils soient dans le cloud public ou privé, ou dans leurs propres environnements dans le centre de données.
Lors de notre dernier point sur F5 Container Connector ce printemps, nous annoncions la prise en charge de Kubernetes. Dans le même temps, le contrôle d’ingress est devenu une nécessité majeure pour les environnements conteneurisés, surtout parce que les API basées sur des microservices représentent une large part des applications conteneurisées. Vous vous souvenez sans doute que les contrôleurs d’ingress assurent un routage essentiel aux applications (couche 7) pour les API et autres applications conteneurisées. Même si la plupart des proxies d’applications, comme BIG-IP, savent très bien assurer cette fonction (puisqu’il s’agit de routage basé sur les URIs et les en-têtes HTTP), un élément manquait encore. Pour s’intégrer pleinement à l’écosystème des conteneurs, il faut que les composants supportent son modèle déclaratif de provisionnement et de configuration. Cela implique de lire automatiquement les fichiers de ressources et de les convertir en configurations opérationnelles.
Un bon exemple est Kubernetes , qui utilise des annotations pour joindre les métadonnées nécessaires à l’intégration des composants dans l’écosystème des conteneurs. Pour fournir un contrôle d’entrée à Kubernetes, il nous suffisait de permettre à Container Connector de s’abonner aux bons événements et d’indiquer au BIG-IP comment implémenter le bon routage en fonction des informations fournies.
Ce que nous avons fait.
Mais Kubernetes n’est pas le seul acteur du marché (même s’il est sans doute l’un des leaders) et nombre de nos clients ont adopté Red Hat OpenShift Origin ou Cloud Foundry comme plateformes de choix. Et nous sommes ravis de les soutenir également avec la dernière version de Container Connector.
F5 Container Connector est gratuit et vous pouvez le télécharger pour n'importe lequel ou tous ces environnements (et Marathon aussi !) à partir du référentiel Docker . Vous trouverez plus d'informations sur toutes nos intégrations de conteneurs ici, y compris l'installation et l'intégration.