„Daten sind das neue Öl“ oder „Daten sind das Schmiermittel der digitalen Wirtschaft.“ Wenn Sie so sind wie ich, haben Sie diese Sätze oder vielleicht sogar die eher aus der Business School stammende Phrase „Monetarisierung von Datenabgasen“ wahrscheinlich schon so oft gehört, dass sie schon zu Klischees geworden sind. Doch wie alle guten Klischees basieren sie auf einer grundlegenden Wahrheit, oder in diesem Fall auf einem sich ergänzenden Paar von Wahrheiten. Die erste Wahrheit ist die Beobachtung, dass die Daten, die bei normalen Betriebsvorgängen als Nebenprodukt entstehen, einen latenten Wert enthalten. Die zweite, damit zusammenhängende, aber oft unerwähnte Wahrheit besteht darin, dass der intensive Prozess der Freilegung dieses latenten Werts ein Prozess ist, der mehrere Schritte umfasst, obwohl es auf dem Weg dorthin natürliche Stufen der Entwicklung und Reife gibt.
Wenn man einen Schritt zurücktritt, ist das Konzept, Betriebsdaten zu nutzen, um geschäftlichen Nutzen zu erzielen, sicherlich nicht neu. Tatsächlich haben Branchen, die auf eine Optimierung der Logistik angewiesen sind – wie etwa der Lebensmittel- und Lieferhandel – dieses Konzept schon lange verstanden und angenommen. Auch der moderne Unternehmenstrend zur „ digitalen Transformation “ stellt eine Verallgemeinerung dieser Idee dar, die typischerweise zunächst auf interne Geschäftsprozesse und Arbeitsabläufe angewandt wird. Bemerkenswerterweise gibt es im Bereich der Anwendungen und Anwendungsdienste eine analoge Entwicklung. In diesem Artikel möchte ich mich darauf konzentrieren, wie die Entwicklung von Anwendungen und Anwendungsdiensten mit dem größeren Megatrend der Datenwertgewinnung interagiert und harmoniert, wo diese Symbiose heute steht und schließlich, wohin sie in naher Zukunft geht.
Diese Reise beginnt mit der Datenerfassung. Es ist hilfreich, sich Daten als den Treibstoff des Systems vorzustellen. Ohne diesen Treibstoff können die Motoren, die die Arbeit verrichten, nicht angetrieben werden. Oberflächlich betrachtet scheint dies eine vollendete Tatsache zu sein, da Anwendungsdienstlösungen eine Fülle von Ereignissen und Statistiken für Sicherheit, Zuverlässigkeit, Leistungsmanagement und Orchestrierung bereitstellen. Allerdings sind die Daten häufig unstrukturiert, die Syntax variabel und die Semantik häufig ad hoc. Denken Sie an ein einfaches, aber allgemeines Beispiel: Wie wird das Konzept der Zeit in Ihren Daten dargestellt? Normalerweise gibt es viele Möglichkeiten, etwas konzeptionell so Einfaches wie einen Zeitstempel darzustellen. Dies verdeutlicht die Notwendigkeit einer Lingua Franca, einer gemeinsamen Darstellung grundlegender „Atome“, die Ereignisse und Statistiken beschreiben. In der Technologiesprache bezeichnen wir dies als „Datenaufnahme“, die auf einem konsistenten Datenschema basiert und nach Bedarf Adapter/Übersetzer nutzt. Dieser Bedarf war in der Vergangenheit einer der Haupttreiber für Wachstum und Wertschöpfung für SIEM-Anbieter, die dem Bedarf nachkamen, dieses standardisierte Vokabular bereitzustellen, um eine ganzheitliche Sicht auf die Sicherheit einer Vielzahl von Sicherheitspunktlösungen zu bieten. Die Fähigkeit, als Ausgabe eine integrierte Präsentation der Daten zu erhalten – einen geordneten und ganzheitlichen Augenzeugenbericht dessen, was jetzt geschieht und was in der Vergangenheit geschehen ist – ist die Phase der Entwicklung, in der sich der Großteil der Branche heute befindet. Im heutigen Anwendungsökosystem wird dies vor allem durch die Marktvertikalen SIEM und APM veranschaulicht.
Der nächste Schritt besteht darin, die Augenzeugenberichte zu verstehen: nach Gemeinsamkeiten zu suchen, die Daten in beschreibbare Muster zu zerlegen und Anomalien zu identifizieren. Aufgrund der Datenmenge werden Menschen bei dieser Tätigkeit normalerweise durch Computer unterstützt oder ergänzt. Diese Unterstützung kann in Form der Verwendung fortgeschrittener, oft unbeaufsichtigter statistischer Klassifizierungstechniken erfolgen, die manchmal durch eine von Menschen geleitete Datenerkundung und -visualisierung ergänzt werden.
Ein Beispiel aus dem Anti-DoS-Bereich ist die Visualisierung der geografischen Natur des eingehenden Datenverkehrs, die häufig verwendet wird, um bösartigen Datenverkehr zu identifizieren, der aus einer kleinen Anzahl von Ländern stammt. Ein weiteres Beispiel sind Tools zur Benutzerverhaltensanalyse („UBA“), die die Eigenschaften menschlichen Verhaltens im Vergleich zu Bot-Verhalten charakterisieren. Diese Lösungen nutzen häufig statistische Analysen, um die Wahrscheinlichkeit zu bestimmen, mit der eine Webinteraktion von einem Menschen stammt.
Diese Phase der Reise – „ Destillieren und Beschreiben “ – ist eine Weiterentwicklung des vorherigen Schritts „ Sammeln und Berichten “. Es beruht grundsätzlich immer noch auf einem großen, strukturierten Datenpool für die Analyse. Wie oben erwähnt, ist dieser Ansatz die Grundlage für einige der neueren (wenn auch eng fokussierten) Punktlösungen für die Anwendungssicherheit.
Der dritte Schritt auf diesem Weg besteht darin, über die grundlegende Analyse von „Destillieren & Beschreiben“ hinauszugehen und tiefere analytische Erkenntnisse zu gewinnen, die zu Prognosen und Vorhersagen zukünftiger Ereignisse führen. So entwickelt sich die Lösung von rein reaktiv zu proaktiv, indem wir intelligente Rückschlüsse auf erwartetes zukünftiges Verhalten ziehen. Ein Beispiel aus der Anwendungsinfrastruktur bietet der Bereich Application Performance Management (APM), hier insbesondere die Erkennung zeitbasierter Verhaltensmuster und deren Nutzung zur Vorhersage künftiger Ressourcenbedarfe. Ein weiteres Beispiel aus der Anwendungsgeschäftslogik zeigt, wie Reiseseiten Machine-Learning-Methoden nutzen, um Angebot und Nachfrage für bestimmte Strecken an zukünftigen Terminen vorauszusagen. Die häufig eingesetzten Technologien basieren meist auf fortschrittlichen Analysemethoden, besonders Zeitreihen- und linearen Regressionsmodellen, die auf den im vorherigen Schritt erkannten Datenmustern aufbauen.
Der vierte und letzte Schritt umfasst das „Schließen des Kreises“, um umsetzbare Anpassungen und Korrekturen am gesamten System vorzunehmen. Die Analyse der beiden vorherigen Schritte wird in eine Reihe proaktiver Empfehlungen umgesetzt. An diesem Punkt wird das System anpassungsfähig und robust gegenüber Angriffen und Änderungen in seiner Umgebung. Beispielsweise hätte eine konzeptionelle Anwendungsinfrastruktur, die diese Funktion nutzt, die Möglichkeit, Container-Workload-Instanzen je nach prognostizierter Nachfrage proaktiv zu erstellen oder zu zerstören. Oder es könnte im Kontext der Anwendungssicherheit den von Botnetzen generierten Datenverkehr proaktiv filtern, basierend auf zuvor erlernten Botnetz-Verhaltensweisen. Ein bemerkenswertes Beispiel gibt es bereits heute im Bereich der Geschäftslogik – in Form der dynamischen Preisgestaltung, die ebenfalls auf dem erwarteten Angebot und der erwarteten Nachfrage basiert.
Die zugrunde liegende Technologie ist häufig regelbasiert und dient dazu, Vorhersagen in Aktionen umzusetzen. Im Kontext der Anwendungsinfrastruktur und der Anwendungsdienste wird dieser Ansatz jedoch häufig mit stärker absichtsbasierten oder deklarativen Anweisungen für die Konfiguration und Orchestrierung gekoppelt.
Diese Reise – vom „Erfassen und Berichten“ über das „Destillieren und Beschreiben“ und „Schließen und Vorhersagen“ bis hin zum „Begründen und Verschreiben“ – ist eine natürliche Weiterentwicklung. Jeder einzelne Fortschritt baut auf den vorherigen auf und erschließt eine neue und tiefgreifendere Wertebene. Die heutigen Lösungen für die Herausforderungen in den Bereichen Anwendungsinfrastruktur und -dienste sind in ihrem Reifegrad im Verlauf der Datenwertextraktion unterschiedlich ausgereift und in der Regel nicht gut in die Vielzahl der Punktlösungen integriert.
Der vorbereitende Schritt – der sprichwörtliche „Treibstoff“ für den Daten-„Motor“ – wird in einer Vielzahl von Anwendungsdiensten immer sichtbarer. Diese Instrumentierung, die an mehreren Punkten in der Anwendungsbereitstellungskette eingesetzt und mit den Prinzipien einer konsistenten Datensemantik und föderierten Datenspeichern gekoppelt wird, ist eine der Möglichkeiten, mit denen F5 unsere Reise in die Zukunft der Anwendungsdienste beschleunigt. Wir möchten die Wertschöpfung für unsere Kunden noch weiter beschleunigen, indem wir gleichzeitig den Datentrichter erweitern, um eine bessere Integration von Punktlösungen zu ermöglichen, und die Weiterentwicklung der relevanten Technologiebausteine vorantreiben.
In zukünftigen Artikeln möchte ich näher auf die datengesteuerte Architektur eingehen, indem ich sowohl näher heranzoome, um tiefer in die beteiligten Kerntechnologien einzutauchen, als auch herauszoome, um die Interaktionen mehrerer Datenökosysteme über mehrere souveräne Datenpipelines hinweg zu untersuchen.