BLOG

Entlastung der Teams – ThreatML mit überwachtem Lernen

John Pinkham Miniaturbild
Johannes Pinkham
Veröffentlicht am 21. Juni 2022

Threat Stack heißt jetzt F5 Distributed Cloud App Infrastructure Protection (AIP). Beginnen Sie noch heute damit, Distributed Cloud AIP mit Ihrem Team zu verwenden.

Cybersicherheit bringt oft eine hohe Ressourcenbelastung für DevSecOps-Teams mit sich. Mit den passenden Cloud-Sicherheitslösungen können wir diese Belastung deutlich reduzieren. Chris Ford, RVP für Produkt und Entwicklung bei Threat Stack, erklärt, wie ThreatML mit überwachten Lernverfahren false positives und false negatives bei der Erkennung minimiert. Er zeigt auf, wie maschinelles Lernen im Schutz der Anwendungsinfrastruktur die Teams entlastet und dabei sicherstellt, dass Sie genau die Sicherheitslücken und Bedrohungen erkennen, die wirklich relevant sind. Im Auszug aus dem Webinar „Maschinelles Lernen richtig einsetzen“ erläutert er zudem, wie maschinelles Lernen viele Prozesse wie Feinabstimmung, Hinzufügen von Unterdrückungen und kontextbezogene Prüfung von Alarmen durch eine mehrschichtige Erkennung automatisiert.

 

 

Transkript Über Arbeitserleichterung durch überwachtes Lernen

Chris Ford, RVP of Product and Engineering, Threat Stack, über Supervised Learning

„Wir wollten wirklich eine Lösung schaffen, die die Anzahl der Ergebnisse, die Sicherheitsteams durchgehen müssen, deutlich reduziert. Und die Sicherheitsteams stehen unter Stress.  Die Zahl der Bedrohungen nimmt zu, die meisten Sicherheitsteams sind jedoch von relativ überschaubarer Größe. Ihnen bleibt daher nicht viel Zeit, die Ergebnisse zu sichten.  Sie müssen jedoch bereit sein, eine Feststellung zu treffen, wenn ein echtes Sicherheitsproblem vorliegt. Deshalb wollten wir sicherstellen, dass unser Ansatz auf eine sehr hohe Wirksamkeit ausgerichtet ist. Das heißt, dass wir nur vor Dingen warnen, die eine echte Bedrohung darstellen, aber auch sicherstellen, dass wir bekannte und unbekannte Verhaltensweisen angemessen abdecken.

Es gibt auch unbekannte Verhaltensweisen, Dinge, nach denen Sie nicht gesucht haben, aber suchen sollten.  Und hier kann maschinelles Lernen ins Spiel kommen, insbesondere die Anomalieerkennung mittels unüberwachtem Lernen.

Überwachtes Lernen verknüpft also Regeln und Anomalieerkennung auf eine schöne Art und Weise, indem beide Ansätze zur Verfügung stehen und überwachtes Lernen im Grunde dazu verwendet wird, die Ergebnisse beider Ansätze zu filtern, sodass man nach dem sucht, was vorhersehbar ist: Was ist das?

Letztendlich reduzieren Sie sowohl falsch positive als auch falsch negative Ergebnisse. So reduzieren Sie die Belastung der Teams und finden die Dinge, die Sie finden sollten. Und weil wir hier maschinelles Lernen verwenden, automatisieren Sie einen Großteil der Feinabstimmung, das Hinzufügen von Unterdrückungen und die Überprüfung von Warnungen.“

Erfahren Sie, wie ThreatML mit überwachtem Lernen die Belastung von DevSecOps-Teams reduziert: Kontaktieren Sie uns noch heute .

Threat Stack heißt jetzt F5 Distributed Cloud App Infrastructure Protection (AIP). Beginnen Sie noch heute damit, Distributed Cloud AIP mit Ihrem Team zu verwenden.