BLOG

La rigidez de la organización, no el hardware, está retrasando las implementaciones de aplicaciones

Miniatura de Lori MacVittie
Lori MacVittie
Publicado el 17 de octubre de 2016

La solidificación de la brecha entre la TI tradicional y una TI más ágil impulsada por DevOps está dando lugar al surgimiento de una arquitectura de centro de datos esencialmente de dos niveles. Esto no debería sorprender a quienes prestan atención. Durante años, me han inundado con preguntas de operaciones y desarrolladores que querían avanzar más rápido, con mayor frecuencia, pero se veían obstaculizados por la rigidez, no del hardware en la red principal, sino de los procesos que requieren aprobaciones manuales y procesos para implementar cambios.

La red todavía está en el camino

La fricción que existe naturalmente entre aquellos encargados de mantener la transferencia segura, estable y rápida de datos dentro y fuera del centro de datos y aquellos encargados de llevar al mercado (ahora) aquellas aplicações y características que se cree que son el catalizador para el crecimiento del negocio provoca muchas palabras acaloradas, acusaciones y malos sentimientos.

A muchos les gusta culpar a “boxen”. Esas piezas de hardware antiguas y heredadas que residen en la red y que, a pesar de brindar los servicios críticos que las aplicações necesitan para escalar y mantenerse seguras, simplemente "estorban". Pero la realidad es que esos boxeadores no tienen la culpa. Casi todos los que hay hoy en día tienen una API que permite a cualquier persona con acceso a curl y conocimientos prácticos de HTTP configurar, administrar y manipular los servicios que acompañan a cada implementación de aplicação . Muchas de estas mismas “cajas” están virtualizadas y sirven para brindar el mismo tipo de experiencia virtual que la que se encuentra más profundamente en el centro de datos.

No son precisamente obstáculos en la vía rápida que supone la noción del despliegue continuo.

Más bien, es la rigidez de las organizaciones, en la cultura, como suelen decir los defensores de DevOps, lo que causa esta fricción y ralentiza las implementaciones de aplicação . Debido a que existe una necesidad de mantener la estabilidad y la seguridad en la producción que no necesariamente existe en el entorno más volátil del desarrollo de aplicaciones, hay menos tolerancia a los errores y las inevitables interrupciones que estos causan en el negocio.

Esto no es necesariamente algo malo. La red principal ciertamente necesita mantener un alto nivel de disponibilidad, no sólo para garantizar el acceso a las aplicações dentro del centro de datos, sino también para aquellos usuarios que dependen de soluciones SaaS públicas para hacer su trabajo.

Sin embargo, las organizaciones necesitan relajar las restricciones para equilibrar mejor las necesidades de ambos niveles arquitectónicos en el centro de datos moderno. Las implementaciones de aplicaciones deben realizarse con mayor rapidez y frecuencia. Para lograrlo, las organizaciones deben examinar seriamente los procesos actualmente vigentes, que casi con certeza son más rígidos e inflexibles que el marco que rigen. Los procesos operativos de TI son hoy tan importantes para las empresas como sus propios procesos de negocio, aquellos que los líderes empresariales entienden que deben examinarse, evaluarse, documentarse, automatizarse y mejorarse para obtener beneficios en la eficiencia y el rendimiento empresarial. Lo que es más importante, deben ser lo suficientemente ágiles para poder cambiarlos cuando sea necesario. Pero para lograrlo, las organizaciones deben comprender esos procesos y estar dispuestas a evaluarlos con un ojo crítico para detectar ineficiencias y obstáculos.

En un informe de AIIM Industry Watch de 2016 titulado “ Gestión de la información: estado de la industria 2016 ”, el cincuenta y cinco por ciento de los encuestados dijo que la gestión de procesos de negocio (BPM) era importante (38%) o imperativa (17%) para su negocio.

En lo que respecta al uso de la tecnología para mejorar los procesos, las empresas vieron mejoras en todos los ámbitos:

❶ Un tercio de las organizaciones han visto una disminución en sus ciclos de revisión y aprobación y el 62% dice que han obtenido beneficios de un mejor enrutamiento hacia y entre individuos. Para el 42%, los beneficios provienen de una mayor agilidad organizacional y enrutamiento entre procesos.

❷ El procesamiento más rápido de actividades críticas para el negocio ha proporcionado el mayor valor para el 53% de los encuestados. El 45% afirma que su mayor valor es el menor procesamiento de errores y excepciones.

❸ El 41% de los encuestados ha recuperado la inversión en un año, de los cuales el 17% afirma que el ROI es en un plazo de 6 meses. Para el 25% su retorno sobre la inversión se obtuvo en 18 meses.

TI utiliza a menudo el término “orquestación”, pero rara vez analiza su relación con el proceso. Es cuando se utiliza la orquestación para automatizar los procesos operativos que rigen las implementaciones que se verán mejoras reales. Se trata de descubrir desperdicios y brechas en el flujo de valor y eliminar tiempos de espera, aprobaciones innecesarias y redundancias que brindarán a las organizaciones el mismo tipo de ganancias en velocidad y agilidad que han visto en el proceso comercial .

Podemos llamarlo DevOps o podemos llamarlo Gestión de Procesos Operacionales (OPM), pero la realidad es que los dos están estrechamente relacionados. Las organizaciones necesitan hacer con los procesos de TI operativos lo que ya han hecho con los procesos comerciales para lograr una mayor agilidad y velocidad en las implementaciones de aplicaciones sin sacrificar la estabilidad ni la seguridad.

Y tiene muy poco que ver con si hay cajas o no en el centro de datos.