Alors que nous continuons à décomposer le centre de données en brisant les applications et les réseaux dont elles dépendent, un aphorisme commercial reste vrai : la vitesse est reine. La performance reste une préoccupation au niveau de l'entreprise qui a un impact sur tout, des ventes à la productivité, en réduisant les bénéfices et en les écrasant parfois.
Un article récent sur DZone, How Fast Are Web Applications in 2016, s'est penché sur certains détails concernant les performances, notant que « pour une application Web typique, 4,2 % des transactions sont abandonnées ». Cela est basé sur « cinq milliards d’interactions utilisateur avec 500 applications Web différentes ».
La manière dont cela se traduit en dollars et impacte les bénéfices ou la productivité dépend bien sûr du modèle économique. Cela pourrait représenter des millions, voire des milliards de dollars, ou des heures perdues et des clients mécontents de l’augmentation des temps d’appel.
Quoi qu’il en soit, les performances restent une considération importante tant pour les développeurs que pour les opérations. Et par opérations, j’entends toutes les opérations : infrastructure, réseau, stockage et sécurité. Notre enquête la plus récente sur l'état de la distribution des applications continue de confirmer l'attitude de tous les rôles informatiques selon laquelle les performances sont essentielles. Il s'agissait de la solution la moins susceptible d'être abandonnée au profit d'une meilleure sécurité (seuls 9 % seraient prêts à conclure un tel accord) et elle a été citée par 14 % des répondants comme un défi important rencontré dans les implémentations multi-cloud.
Malgré cela, seulement 38 % ont indiqué qu'ils utilisaient actuellement des services d'accélération d'applications, et seulement 22 % prévoyaient de les mettre en œuvre au cours de l'année prochaine. De manière assez surprenante, 40 % d’entre eux ont déclaré qu’ils n’avaient pas l’intention de déployer ou d’utiliser l’accélération des applications.
Cela peut être dû au fait que la perception de ce qu’implique « l’accélération des applications » est quelque peu floue. Et pas non plus à cause du « cloud », mais parce qu’il a évolué et s’est transformé au fil des années, passant de la qualité de service (QoS) à l’actualisation delta et aux caches basés sur le navigateur, jusqu’aux interfaces d’application (AFE) qui sont en réalité des proxys spécialisés dotés de capacités très axées sur les performances.
La plupart du temps, lorsque nous pensons à « accélération d’application », nous pensons à la compression et à la mise en cache, à la minification et à l’optimisation des images. Nous ne considérons pas les optimisations de protocole comme faisant partie de la mentalité « Nous avons besoin de Warp 9, Scotty » qui imprègne les attentes des entreprises et des utilisateurs aujourd’hui. Mais nous devrions.
Oh, nous voyons le déchargement de protocole être très utilisé ces jours-ci. Au cours de l'année 2015, l'utilisation du déchargement SSL côté client (le côté qui gère le HTTP sécurisé avec les utilisateurs) est passée d'un peu moins de 80 % à près de 100 %. Cela n’est pas surprenant étant donné l’attention accrue accordée aux communications sécurisées avec des initiatives telles que « Let’s Encrypt ! » et « SSL Everywhere ». SSL/TLS a un impact sur les performances (et pas dans le bon sens), en particulier lorsque la charge augmente. Le déchargement vers un proxy capable est logique, et nous voyons des organisations faire exactement cela pour compenser l'impact sur les performances de la sécurisation de l'ensemble.
Mais nous ne constatons pas d’augmentation similaire du côté serveur de l’équation. L’utilisation du multiplexage TCP pour améliorer les performances (et augmenter simultanément la capacité des ressources) n’a pas beaucoup changé au cours de l’année écoulée. Près de la moitié (environ 46 % de manière constante) des organisations utilisent cette technique d’optimisation méconnue.
C’est effrayant quand on sait que beaucoup de ces mêmes organisations connaissent actuellement la fièvre des conteneurs.
Pourquoi est-ce effrayant ? Laissez-moi vous expliquer pourquoi… Bien qu’il soit tout à fait possible que la virtualisation ait permis aux organisations d’affiner la pile TCP de chaque instance pour garantir les meilleures performances possibles par application, l’arrivée des conteneurs menace ce modèle. C’est parce que les conteneurs partagent une seule pile réseau. Le réglage d'une application déployée dans un conteneur ne garantit pas la meilleure configuration pour une autre application dans un autre conteneur sur le même hôte .
Étant donné que les optimisations basées sur TCP, comme le multiplexage TCP, fonctionnent au niveau de la couche de protocole, elles sont comme des blaireaux à miel. Ils ne se soucient pas de savoir si l’application est dans un conteneur, une machine virtuelle ou nue sur une plateforme Web. Ils désactiveront complètement cette connexion et amélioreront les performances, quelle que soit la manière ou l'endroit où l'application est déployée. Ces services ne s'intéressent qu'au protocole et tirent parti de la séparation entre le côté client et le côté serveur pour garantir que le côté client est optimisé pour le client et le côté serveur pour l'application. Cela signifie des améliorations de performances multipliées par deux.
Les services et techniques d’accélération d’applications traditionnels sont impressionnants, ne vous méprenez pas, et comme vous pouvez le voir dans le graphique multicolore ci-dessus, les organisations en profitent pour améliorer les performances de leurs applications. Mais il y a encore beaucoup à faire et, comme l’indiquent les données de performance mentionnées ci-dessus, il y a plus que ce qui devrait être fait.
C’est une bonne idée d’examiner votre proxy (celui que vous utilisez probablement uniquement pour équilibrer la charge) et de déterminer s’il peut faire plus pour les performances de votre application que ce que vous utilisez actuellement.
Découvrez comment F5 rend les applications plus rapides, plus intelligentes et plus sûres.