BLOG

Naviguer dans l'évolution du cloud avec une stratégie de réseau multicloud

Miniature de Derek Yee
Derek Yee
Publié le 19 mars 2024

Le réseau multicloud est-il vraiment magique ?

Dans le domaine du cloud computing en évolution rapide, les réseaux multicloud connaissent un regain d’intérêt. Les récentes acquisitions par des fournisseurs qui ne disposaient auparavant pas d’une solution multicloud complète soulignent la demande croissante des clients pour une solution simplifiée pour les aider à naviguer dans les complexités du multicloud.

Cependant, au milieu de cette résurgence, il devient de plus en plus clair que les tentatives de nombreux acteurs du marché manquent quelque peu de vision à court terme et qu'ils passent à côté d'une réelle opportunité de réduire les complexités auxquelles les clients sont confrontés.

Le réseau est fondamental mais limité

À mesure que le cloud computing continue d’évoluer, les réseaux multicloud apparaissent désormais au premier plan des considérations technologiques des entreprises. La prolifération des capacités informatiques au-delà des centres de données traditionnels , s’étendant aux installations périphériques distantes et aux succursales physiques, impose un nouveau paradigme entre les environnements physiques et cloud. Avec l’avènement de la conteneurisation , des microservices et des API , les applications sont devenues de plus en plus décentralisées et dynamiques, posant de nouveaux défis aux architectures de réseau conventionnelles. Ces applications peuvent désormais être déployées sur des sites hautement distribués, sans être limitées par la nécessité de disposer de fermes de serveurs massives.

La grande majorité des solutions de réseau multicloud disponibles aujourd’hui se concentrent principalement sur la couche de transport réseau. Le réseau tel que nous le connaissons aujourd’hui n’est pas sensible aux applications : ce n’est pas à cela qu’il a été conçu. De plus, le réseau a été principalement conçu pour la connectivité site à site (nord-sud) et n'est pas équipé pour prendre en charge l'augmentation de la connectivité des services d'applications est-ouest qui s'étend au-delà des clusters dans un seul cloud ou site physique. C'est pourquoi nous voyons des problèmes surgir lorsque des entreprises subissent des fusions ou des acquisitions importantes, où des adresses IP disparates stockées dans les tables de routage réseau doivent désormais partager la même infrastructure et se heurter inévitablement à des problèmes de chevauchement d'IP , augmentant ainsi la complexité opérationnelle.

Les réseaux traditionnels sont souvent perçus comme des « tuyaux muets » et génèrent des frais opérationnels et des inefficacités considérables qui entravent les équipes de développement dans les organisations hautement agiles. Beaucoup tentent de résoudre ces problèmes en commençant par le réseau, pour finalement découvrir les lacunes de cette approche. 

Le dilemme de Kubernetes

Kubernetes est devenu un outil essentiel pour orchestrer ces écosystèmes conteneurisés distribués, permettant une agilité et une évolutivité de proportions massives. Kubernetes, une plateforme d'orchestration de conteneurs open source développée à l'origine par Google, a rapidement été adoptée comme norme de facto pour le déploiement et la gestion d'applications conteneurisées.

Kubernetes fournit une plateforme permettant d'automatiser le déploiement, la mise à l'échelle et la gestion des applications conteneurisées. En faisant abstraction de l’infrastructure sous-jacente, Kubernetes permet aux développeurs de se concentrer sur la création et le déploiement d’applications sans être encombrés par les complexités de la gestion des ressources d’infrastructure. Cependant, Kubernetes en soi (du moins dans sa forme open source) apporte son propre degré de complexité. D’où la prévalence des distributions commerciales qui visent à faire abstraction d’une partie de la complexité.

Mais cela nous ramène directement au point de départ. Prenons par exemple l’une des distributions les plus largement disponibles dans le commerce, Red Hat OpenShift. OpenShift est largement déployé dans les environnements d’entreprise, principalement dans les centres de données sur site. Ces mêmes entreprises déploient également des clusters de services dans le cloud, par exemple dans AWS , et utilisent très probablement Amazon Elastic Kubernetes Service (EKS) et souhaitent intégrer des services dans Red Hat OpenShift on AWS (ROSA) . Des environnements d'outils discrets qui ne sont pas conçus pour être intégrés : le problème du multicloud réapparaît une fois de plus.

La faille de sécurité du réseau cloud

Chaque solution de réseau multicloud disponible sur le marché aujourd’hui apportera un certain degré de sécurité inhérente, de la segmentation avancée au pare-feu réseau natif et aux capacités d’insertion de services. Mais encore une fois, nous oublions le facteur moteur que sont les applications. Ces solutions ne parviennent pas à prendre en compte les menaces malveillantes qui utilisent des attaques de logique métier qui compromettent les services d’application distribués et les points de terminaison d’API qui s’étendent sur plusieurs sites cloud et périphériques. Le réseau peut être sécurisé tout en laissant les applications qu’il dessert vulnérables aux attaques. Les entreprises sont obligées de déployer plusieurs solutions de sécurité ponctuelles et d’appliquer une énorme quantité de gouvernance par les équipes de sécurité pour garantir que l’ensemble de leurs catalogues d’applications hybrides et multicloud distribuées sont protégés.
 

Plaidoyer en faveur d’un réseau multicloud sécurisé

Extrait vidéo : Définition d'un réseau multicloud sécurisé avec Kyndryl et F5

Les entreprises avant-gardistes relèvent le défi et remodèlent le paysage. Prenons l’exemple de McGraw Hill . Face à un besoin urgent de migrer des applications critiques vers le cloud, McGraw Hill a priorisé les besoins applicatifs et les exigences de sécurité, en sélectionnant F5 Distributed Cloud Services pour répondre à leurs exigences strictes. Avec F5, ils peuvent étendre de manière transparente leur réseau sur site à n’importe quel environnement cloud, garantissant ainsi une sécurité cohérente au niveau des applications sur n’importe quel cloud.

De même, la Direction de l’agriculture et de l’économie rurale (ARE) du gouvernement écossais a reconnu la nécessité d’un nouveau paradigme pour répondre aux architectures d’application modernes. En tirant parti des services cloud distribués, ARE transfère sans effort les charges de travail entre OpenShift et EKS, en adoptant la flexibilité et l'agilité des environnements multicloud. Comme l'a déclaré Neil Smith, responsable de l'infrastructure, « les environnements multicloud sont là pour rester. Avec F5, nous pouvons pivoter et profiter d'un environnement Kubernetes conteneurisé avec une gamme complète de services et de solutions qui prennent en charge cette évolution.

Ces réussites illustrent une évolution vers une approche centrée sur les applications et axée sur la sécurité pour les réseaux multicloud. En priorisant les besoins des applications et les exigences de sécurité tout en complétant l’infrastructure réseau sous-jacente préexistante, les entreprises peuvent naviguer dans les complexités des environnements multicloud avec confiance et efficacité. La mise en réseau multicloud sécurisée, et non la « magie », aidera les organisations qui s’appuient sur des architectures d’applications modernes à exploiter sa puissance pour stimuler l’innovation et le succès à l’ère numérique.