«Los datos son el nuevo petróleo» o «Los datos son la grasa de la economía digital». Si eres como yo, probablemente hayas escuchado estas frases, o tal vez incluso la frase más propia de una escuela de negocios: "monetización del agotamiento de los datos", hasta el punto de convertirse en clichés. Pero, como todos los buenos clichés, se basan en una verdad fundamental o, en este caso, en un par de verdades complementarias. La primera verdad es la observación de que los datos resultantes de los procesos operativos normales contienen un valor latente. La segunda verdad, relacionada pero a menudo no mencionada, es que el proceso intensivo de destilar ese valor latente es un viaje de varios pasos, aunque tiene etapas naturales de progresión y madurez a lo largo del camino.
Dando un paso atrás, el concepto de recolectar datos de las operaciones para obtener valor comercial ciertamente no es nuevo. De hecho, las industrias que dependen de la optimización de la logística (como los sectores de alimentación y reparto a domicilio) han comprendido y adoptado este concepto desde hace mucho tiempo. De manera similar, la tendencia empresarial moderna hacia la “ transformación digital ” es una generalización de esta idea, generalmente aplicada primero a los procesos y flujos de trabajo internos del negocio. Es evidente que se está produciendo una evolución análoga en el espacio de las aplicações y los servicios de aplicação . En este artículo, me gustaría centrarme en cómo la evolución de las aplicações y los servicios de aplicação interactúa y armoniza con la megatendencia más amplia de extracción de valor de datos, dónde se encuentra esa simbiosis hoy y, finalmente, hacia dónde se dirige en el futuro cercano.
Este viaje comienza con la recopilación de datos. Es útil pensar en los datos como el combustible del sistema; si no tienes el combustible, no puedes alimentar los motores que hacen el trabajo. Superficialmente, parece que esto es un hecho consumado, dado que las soluciones de servicios de aplicação proporcionan una gran cantidad de eventos y estadísticas disponibles para seguridad, confiabilidad, gestión del rendimiento y orquestación. Pero los datos a menudo no están estructurados, la sintaxis es variable y la semántica suele ser ad hoc. Piense en un ejemplo simple, pero común: ¿Cómo se representa el concepto de tiempo en sus datos? Normalmente, hay muchas formas de representar algo tan conceptualmente simple como una marca de tiempo. Esto ilustra la necesidad de una lengua franca, una representación común de “átomos” básicos que describen eventos y estadísticas. En términos tecnológicos, lo llamamos “ingestión de datos”, construida sobre un esquema de datos consistente y aprovechando adaptadores/traductores según sea necesario. Esta necesidad fue históricamente uno de los impulsores clave que permitieron el crecimiento y el valor para los proveedores de SIEM, quienes satisficieron la necesidad de proporcionar este vocabulario estandarizado para proporcionar una visión holística de la seguridad a través de una profusión de soluciones puntuales de seguridad. La capacidad de tener como resultado una presentación integrada de los datos (un informe presencial organizado y holístico de lo que está sucediendo ahora y lo que sucedió en el pasado) es la fase del viaje en la que se encuentra la mayor parte de la industria hoy en día. Dentro del ecosistema de aplicação actual, esto se ejemplifica principalmente en los mercados verticales SIEM y APM.
El siguiente paso del viaje es dar sentido a los informes de los testigos presenciales: buscar puntos en común, destilar los datos en patrones descriptibles e identificar anomalías. Debido al volumen de datos involucrados, los humanos generalmente reciben ayuda o apoyo de computadoras en esta actividad. Esta asistencia puede adoptar la forma de uso de técnicas de clasificación estadística avanzadas, a menudo no supervisadas, a veces aumentadas con exploración y visualización de datos guiadas por humanos.
Un ejemplo del ámbito anti-DoS es la visualización de la naturaleza geográfica del tráfico entrante, a menudo utilizada para identificar tráfico malicioso que se origina en un pequeño conjunto de países. Otro ejemplo se encuentra en el espacio de las herramientas de análisis del comportamiento del usuario ("UBA") que caracterizan los atributos de los comportamientos humanos frente a los comportamientos de los bots. Estas soluciones a menudo utilizan análisis estadístico para asignar probabilidades a la probabilidad de que una interacción web provenga de un humano.
Esta fase del recorrido, " Destilar y describir ", es una evolución del paso anterior " Recopilar e informar ". Todavía depende, fundamentalmente, de tener un conjunto grande y estructurado de datos sobre los cuales aplicar el análisis. Como se mencionó anteriormente, este enfoque es la base de algunas de las soluciones puntuales más recientes (aunque con un enfoque limitado) para la seguridad de las aplicação .
El tercer paso de este viaje es ir más allá del modesto análisis de “ Destilar y describir ” para realizar inferencias analíticas más profundas que resulten en predicciones y pronósticos sobre observaciones futuras anticipadas. Esto lleva la solución a algo más que puramente reactivo, al realizar extrapolaciones inteligentes del comportamiento futuro esperado. Un ejemplo en la capa de infraestructura de aplicaciones se puede encontrar en el espacio de Gestión del Rendimiento de Aplicação (APM), es decir, la identificación de patrones de comportamiento basados en el tiempo y el uso de esos patrones para pronosticar futuros requisitos de recursos. Otro ejemplo, utilizando un caso de uso de lógica de negocios de aplicação , es cómo los sitios de viajes utilizan técnicas de aprendizaje automático (“ML”) para predecir la oferta y la demanda de rutas específicas en fechas futuras. Las tecnologías empleadas aquí con mayor frecuencia son tecnologías de análisis avanzadas, especialmente aquellas basadas en series de tiempo y técnicas de regresión lineal, que se basan en los patrones de datos encontrados en el paso anterior.
El cuarto y último paso implica “cerrar el círculo” para implementar ajustes y remediaciones viables en todo el sistema. El análisis de los dos pasos anteriores se traduce en un conjunto de recomendaciones proactivas. En este punto, el sistema se vuelve adaptativo y robusto ante ataques y cambios en su entorno. Por ejemplo, una infraestructura de aplicaciones conceptual que utilice la capacidad tendría la capacidad de crear o destruir de forma proactiva instancias de carga de trabajo de contenedores, según la demanda prevista. O, en el contexto de la seguridad de las aplicação , podría filtrar de forma proactiva el tráfico generado por botnets basándose en comportamientos de botnets aprendidos previamente. Hoy en día ya existe un ejemplo notable en el ámbito de la lógica empresarial: en forma de precios dinámicos, nuevamente basados en la oferta y la demanda previstas.
La tecnología subyacente suele estar basada en reglas, que se utilizan para traducir predicciones en acciones. Sin embargo, en el contexto de la infraestructura de aplicaciones y los servicios de aplicação , este enfoque a menudo se combina con directivas más declarativas o basadas en intenciones para la configuración y la orquestación.
Este viaje —de “Recopilar e informar” a “Destilar y describir”, a “Inferir y predecir” y, finalmente, a “Razonar y prescribir”— es una progresión natural. Cada avance incremental se basa en los anteriores y desbloquea un nivel de valor nuevo y más incisivo. El conjunto actual de soluciones a los desafíos en los espacios de servicios e infraestructura de aplicaciones presenta una madurez desigual a lo largo de esta progresión de extracción de valor de datos y, por lo general, no están bien integradas en la profusión de soluciones puntuales.
El paso precursor que permite hacerlo —el proverbial “combustible” para el “motor” de datos— es ganar visibilidad en un amplio conjunto de servicios de aplicação . Esta instrumentación, implementada en múltiples puntos de la cadena de distribución de aplicação y combinada con los principios de semántica de datos consistentes y repositorios de datos federados, es una de las formas en que F5 está acelerando nuestro viaje hacia el futuro de los servicios de aplicação . Tenemos la intención de acelerar aún más nuestro ritmo para ofrecer valor a nuestros clientes ampliando simultáneamente el embudo de datos para permitir mejores integraciones de soluciones puntuales, así como acelerando el desarrollo avanzado de los componentes tecnológicos relevantes.
En futuros artículos, espero ampliar más el tema de la arquitectura guiada por datos, tanto acercándome para profundizar en las tecnologías centrales involucradas, como alejándome para examinar las interacciones de múltiples ecosistemas de datos a través de múltiples canales de datos soberanos.