Le cloud a toujours été une question d’économies d’échelle. La transformation numérique poussant les organisations à rechercher de nouvelles opportunités pour améliorer la productivité (interne) et le profit (externe) grâce aux applications, la vitesse à laquelle les opérations et les applications doivent évoluer a augmenté de manière exponentielle. Le nombre d’applications et la fréquence à laquelle elles sont mises à jour et améliorées sont devenus ingérables avec les méthodes manuelles traditionnelles. La mise à l’échelle des applications et des opérations a atteint un goulot d’étranglement humain. Nous ne pouvons tout simplement pas envoyer plus de monde sur le problème et espérer les mêmes résultats. Le coût par application – par utilisateur, par client, par transaction – augmente bien plus vite que les revenus et les économies de coûts réalisés. Ce déséquilibre rend impossible la poursuite de la distribution des applications comme nous l’avons fait par le passé.
Le cloud a toujours promis de changer cette équation en introduisant la puissance de la standardisation. Il ne s’agit pas simplement de remplir des racks avec des copies exactes des mêmes serveurs white-box, mais de standardiser les opérations. Le cloud public y parvient en fournissant une plateforme standardisée via laquelle les opérations peuvent s’interfacer avec les ressources. En standardisant l’approvisionnement et la gestion de ces ressources (services) de base communes (calcul, réseau et stockage), l’automatisation (c’est-à-dire DevOps) peut être appliquée et une économie d’échelle plus importante peut être obtenue.
Mais les applications ont besoin de plus que de simples services de base communs. Elles doivent être plus rapides et plus sûres, ce qui implique de devenir plus intelligents dans la manière de fournir les services parfois sur mesure dont les applications ont besoin, comme la sécurité et les performances.
Les applications peuvent partager des besoins communs en matière de sécurité et de performances, mais ce qui est commun n’est pas toujours suffisant pour protéger et propulser les applications que les consommateurs demandent aujourd’hui. Ils ont besoin d’une sécurité standard ainsi que d’ une protection contre les attaques au niveau de la plateforme et du protocole. Ils ont besoin d’améliorations de performances positives qui ajoutent de la valeur sous la forme d’un gain de temps consacré à la saisie de mots de passe et à la production de rapports.
Mais vous n’aurez pas le temps de vous lancer dans des configurations personnalisées ou des fioritures sur mesure si vous n’avez pas d’abord standardisé. C’est ça le cloud, qu’il soit sur site ou hors site. Le cloud est la première étape pour permettre l’attention nécessaire pour obtenir un avantage concurrentiel et ravir les consommateurs avec des applications rapides et sécurisées avec lesquelles interagir avec votre entreprise.
Cependant, toutes les applications ne sont pas adaptées à n’importe quel environnement cloud. Certains ont besoin du confort et de la sécurité d’un environnement d’entreprise. D’autres ne peuvent prospérer que s’ils sont dans l’espace public, dans un cloud public. C’est l’une des raisons pour lesquelles nous assistons à l’essor des stratégies et des implémentations multi-cloud, ainsi qu’à de nouveaux environnements (comme la colocation et les interconnexions) qui aident à les concrétiser. Car tout comme nous avons toujours fonctionné sur le principe « le bon outil pour le travail », aujourd’hui l’équivalent numérique est « le bon cloud pour le travail ».
L’utilisation d’une stratégie multi-cloud rend la standardisation plus difficile. Chaque environnement peut être standardisé lui-même , mais pas entre eux. Les outils et les cadres aident à relever ce défi en fournissant une couche d’« interface standard » aux opérateurs chargés de gérer les déploiements hors site. Il s’agit d’un niveau opérationnel qui permet la standardisation dans un monde où les nuages sont aussi différents que les flocons de neige.
Une fois que vous avez standardisé les services communs de base nécessaires pour atteindre les économies d'échelle que vous recherchez, vous devez prendre en compte les services d'application qui offrent sécurité , protection et performances positives nécessaires pour fidéliser les consommateurs. Il a été constaté que les attaques de systèmes sont la cause de pannes de centres de données qui connaît la croissance la plus rapide , passant de 2 % en 2010 à 22 % des pannes. Et même si les attaques directes sur une application dans le cloud ne peuvent plus détruire le centre de données, la destruction d’une application étroitement liée à votre marque peut être dévastatrice pour votre réputation et vos résultats.
La même stratégie est également nécessaire ici. Vous devez utiliser une plateforme qui offre une « interface opérationnelle » standard aux opérateurs et architectes responsables de la création, du déploiement et de la gestion de ces services d’application. Cette interface standard fournit le même type de niveau opérationnel pour les services d’application que les outils et les frameworks que vous utilisez pour les services de base communs.
Une fois que vous avez standardisé et que vous avez votre interface opérationnelle partagée, vous pouvez automatiser. Vous gagnerez gros si vous automatisez d’abord les services et processus communs et partagés, puis utilisez les économies de temps et de budget réalisées grâce à cet effort pour financer des services et processus plus avancés et potentiellement sur mesure. Ici, l’interface opérationnelle commune – le niveau d’opérations – est rentable en encourageant la réutilisation des scripts et du code ainsi qu’en tirant parti des compétences existantes pour atteindre le niveau d’automatisation nécessaire pour atteindre la parité avec les développeurs qui valident le code plusieurs fois par jour et s’attendent à des déploiements plus fréquents.
L’automatisation est l’ingrédient secret pour améliorer les économies d’échelle et réduire la variation des résultats (ce qui est en réalité le terme Six Sigma/Lean pour « éliminer les défauts et les erreurs dans les processus »). Nous savons, grâce à des études, qu’environ 22 % des pannes sont le résultat d’une erreur humaine. Et nous savons, grâce à d’autres études, que le service informatique consacre environ 15,9 % de son temps au dépannage et à la correction, dont certains sont probablement le résultat direct de ces erreurs humaines. L’automatisation peut libérer du temps non seulement en réduisant le pourcentage important de concentration de l’informatique sur le provisionnement, les mises à jour, les correctifs et la gestion de la configuration, mais également en réduisant le nombre d’erreurs et le temps passé à les trouver – et à les corriger.
Enfin, vous avez libéré suffisamment de temps et de budget pour vous concentrer sur l’innovation. Qu’il s’agisse de participer de manière plus agressive à des sessions d’idéation liées à l’entreprise ou de rechercher de nouvelles opportunités pour optimiser l’informatique, tout est question d’innovation. Et tout cela est rendu possible par l’automatisation, qui n’excelle véritablement que lorsqu’elle est appliquée à un système standardisé.
Ce n’est pas une nouveauté : les chaînes de montage et l’automatisation permettent depuis plus d’un siècle de réaliser des économies d’échelle indispensables. Et ils commencent tous par les mêmes étapes de standardisation puis d’automatisation afin d’innover avec les économies de temps et de coûts réalisées. Il existe de nombreuses techniques et maîtres des arts obscurs permettant d'optimiser cette automatisation pour obtenir des avantages encore plus grands, mais avant d'y parvenir, vous devez d'abord standardiser.
Pour l'informatique, cela signifie examiner les outils, les cadres et les plateformes sur lesquels vous comptez sur toutes les propriétés (hors site et sur site, cloud et traditionnelles) et les standardiser afin de pouvoir commencer à automatiser pour innover.