BLOG

Häufigste Bedenken zu KI und Datenschutz

F5 Newsroom Mitarbeiter Vorschaubild
F5 Newsroom-Mitarbeiter
Veröffentlicht am 16. Juli 2025

Künstliche Intelligenz ist da: 96 % der Organisationen, die am F5 2025 State of Application Strategy Report teilnahmen, setzen aktuell KI-Modelle ein.

KI verspricht Unternehmen, klüger, schneller und effizienter zu arbeiten, birgt jedoch auch Risiken und Bedenken. Wir betreiben KI-Systeme, insbesondere solche mit maschinellem Lernen und großen Sprachmodellen (LLMs), auf der Grundlage großer Datenmengen, mit denen wir KI-Modelle trainieren, optimieren und antreiben. Dabei können personenbezogene Daten wie Identifikationsmerkmale, Verhaltensmuster, Standortangaben sowie finanzielle und gesundheitsbezogene Informationen enthalten sein. Da KI immer stärker in Alltagsanwendungen integriert wird, steigt Ihr Risiko, dass persönliche Daten offengelegt oder missbraucht werden. Der Schutz von Daten bei KI ist deshalb zu einem zentralen Anliegen geworden.

In diesem Blogbeitrag erläutern wir, was KI-Datenschutz bedeutet, und zeigen auf, wie KI Datenschutzrisiken und -bedenken erzeugt. Wir analysieren außerdem die rechtlichen Vorgaben im Bereich KI-Datenschutz und geben Ihnen klare Empfehlungen zum Schutz der Datenprivatsphäre bei KI-Anwendungen.

Was versteht man unter KI-Datenschutz?

KI-Datenschutz umfasst alle Maßnahmen, mit denen Sie die von KI-Systemen erfassten, gespeicherten und verarbeiteten Daten schützen. KI-Datenschutz hängt eng mit dem Datenschutz zusammen, der besagt, dass Sie die Kontrolle über Ihre persönlichen Daten behalten sollen. Dennoch ist KI-Datenschutz ein eigenständiges Konzept, das sich in wichtigen Aspekten unterscheidet.

KI-Systeme verarbeiten riesige Datenmengen. Je mehr Daten sie aufnehmen, desto genauer und leistungsfähiger werden sie.  Schätzungsweise hat ChatGPT-4 etwa 1,8 Billionen Parameter, und die enorme Datenmenge weckt berechtigte Datenschutzbedenken. Da wir diese Systeme mit sehr großen Datensätzen trainieren – häufig aus dem Internet oder anderen umfangreichen Quellen – ist es eine Herausforderung sicherzustellen, dass keine privaten oder persönlichen Daten enthalten sind und dass dafür jeweils eine Zustimmung vorliegt.

KI-Pipelines – von der Datenerfassung bis zur Anwendungsbereitstellung – sind meist weitgehend automatisiert. Haben Sie keine Datenschutzvorgaben von Anfang an im System verankert, erschwert das die Identifikation von Datenschutzproblemen erheblich. Sie müssen potenzielle Herausforderungen frühzeitig erkennen, da Nachlässigkeiten später gravierende Datenschutzrisiken nach sich ziehen können, die schwer zu beheben sind. Wenn personenbezogene Daten in einem Trainingsdatensatz genutzt wurden und die Person die Löschung verlangt, welche Konsequenzen hat das für das KI-Modell?

KI erkennt von Natur aus Muster sehr gut. So kann ein KI-System getrennte Daten verknüpfen und daraus sehr genaue Schlüsse auf private Informationen einer Person ziehen. KI speichert nicht einfach nur ab – sie lernt Zusammenhänge. Das erhöht das Risiko, dass das Modell aus einer Kombination von Merkmalen eine Identität ableitet oder Datenfragmente zusammensetzt, um vertrauliche Informationen zu rekonstruieren.

Diese Probleme werfen gravierende ethische und regulatorische Fragen auf, auch wenn die Daten im KI-System anonymisiert sind.

Datenschutzfragen bei KI-Daten

Die Öffentlichkeit sorgt sich sehr um ihre Privatsphäre, ist aber oft unsicher, wie sie sich effektiv schützen kann. Laut Pew Research misstrauen 70 % der Amerikaner Unternehmen darin, KI verantwortungsbewusst einzusetzen, und 81 % gehen davon aus, dass Organisationen ihre persönlichen Daten auf eine Weise nutzen, die ihnen Unbehagen bereiten würde. Die Umfrage zeigt, dass 78 % der Befragten sich vertrauensvoll in der Lage sehen, die richtigen Entscheidungen zum Schutz ihrer persönlichen Daten zu treffen, dabei aber 56 % online Datenschutzrichtlinien oft oder sogar regelmäßig akzeptieren, ohne sie zuvor zu lesen.

Die öffentliche Meinung zur Nutzung personenbezogener Daten durch KI variiert stark je nach Anlass. Laut demselben Bericht von Pew Research fühlen sich nur 28 % der Befragten wohl dabei, KI zur Entscheidung über den Anspruch auf Sozialleistungen einzusetzen, während 42 % keine Bedenken haben, dass ein smarter Lautsprecher Stimmen analysiert, um einzelne Nutzer zu erkennen.

Organisationen müssen sowohl gesetzliche Vorgaben zu KI und Datenschutz als auch die öffentliche Meinung und das Vertrauen in die Nutzung personenbezogener Daten beachten.

Wie KI Cybersicherheitsrisiken verursacht

KI-Systeme sind während des gesamten Anwendungslebenszyklus Cybersicherheitsrisiken ausgesetzt. Sie müssen Sie in jeder Phase der Entwicklung und Bereitstellung genau verstehen und adressieren, um den ethischen und sicheren Umgang mit KI-Daten sicherzustellen.

  • Datenaufnahme.  KI-Modelle erfordern enorme Datenmengen für das Training, und die Datenerfassung stellt oft das größte Risiko für den Datenschutz dar – besonders wenn vertrauliche Informationen wie Gesundheitsdaten, persönliche Finanzinformationen oder biometrische Daten involviert sind. Möglicherweise haben Sie oder andere persönliche Daten ohne Ihr ausdrückliches Einverständnis oder auf nicht vollständig transparente Weise erhoben.
  • Training von KI-Modellen. Während des Trainings lernt ein KI-Modell Muster aus den eingespeisten Daten.  Auch wenn personenbezogene Daten mit Ihrer Zustimmung erhoben werden, können KI-Modelle diese Daten für andere Zwecke als die ursprünglich vorgesehenen nutzen. Die Trainingsphase wirft oft Fragen zur Vertrauenswürdigkeit und Transparenz auf, besonders wenn Sie den Eindruck haben, nicht ausreichend informiert oder sogar getäuscht zu sein, wie KI-Systeme Ihre Daten verwenden. So tolerieren viele, dass Organisationen ihre Daten zur Kontoverwaltung nutzen, würden aber nicht zustimmen, wenn sie erfahren, dass die Informationen zum Training eines KI-Systems eingesetzt werden.
  • Inferenzmaschine. In der Inferenzphase wird das trainierte KI-Modell verwendet, um aus neuen Daten Erkenntnisse oder Vorhersagen zu generieren. Datenschutzrisiken entstehen hier, weil KI-Systeme können auf der Grundlage scheinbar harmloser, anonymisierter Eingaben äußerst präzise Rückschlüsse auf Einzelpersonen ziehen oder in den Trainingsdaten vorhandene Voreingenommenheiten aufdecken oder verstärken. Diese Situation ähnelt Open-Source Intelligence (OSINT), der Praxis, Informationen aus öffentlich zugänglichen Quellen zu sammeln. OSINT spielt eine entscheidende Rolle in der Cybersicherheit, Bedrohungserkennung, Ermittlungen und Wettbewerbsforschung, indem es offene Daten in strategische Erkenntnisse umwandelt. Bei OSINT handelt es sich jedoch nicht um unberechtigter Zugriff oder Hacking, sondern nur die Erhebung von Daten, die legal und öffentlich verfügbar sind.
  • Anwendungsebene. KI-Anwendungen bieten Hackern einen attraktiven Zugang, da sie der sichtbarste und am leichtesten zugängliche Teil eines KI-Systems sind. Angreifer nutzen APIs oder Webdienste, um Zugriff auf umfangreiche vertrauliche Daten zu erlangen. Durch mangelnde Zugriffskontrollen, zu ausführliche Fehlermeldungen oder übermäßig ausführliche KI-Antworten können KI-Anwendungen vertrauliche Daten unbeabsichtigt auch für berechtigte Nutzer offenlegen.

Datenschutzrisiken durch generative KI

Generative KI-Systeme wie LLMs, die Text, Bilder, Code oder Audio erstellen, erhöhen das Risiko für Datenschutz erheblich. Wir trainieren die meisten KI-Modelle mit Datensätzen, die aus dem öffentlichen Internet gesammelt wurden, oft ohne ausdrückliche Erlaubnis oder informierte Zustimmung der Quellen oder Inhaltsersteller. Außerdem können diese gesammelten Daten persönliche Identifikationsmerkmale enthalten, die das generative KI-System bei der Nutzung potenziell preisgeben könnte.

Generative KI-Anwendungen, insbesondere öffentlich zugängliche Schreibassistenten, Chatbots und Bildgeneratoren, sind üblicherweise interaktiv und über das Web erreichbar. Das macht sie anfällig für Prompt-Injections, bei denen Angreifer Eingaben erstellen, um das Verhalten des Modells zu steuern, Kontrollen zu umgehen oder die KI zu veranlassen, eingeschränkte, anstößige oder vertrauliche Inhalte zu erzeugen. Außerdem können Nutzer persönliche oder vertrauliche Daten in KI-Tools einfügen, ohne zu wissen, dass die Daten im System gespeichert und zum Trainieren oder Feinabstimmen künftiger KI-Modelle genutzt werden, was die Informationen versehentlichen Datenlecks aussetzt.

Diese beiden Faktoren ergeben zusammen riskante Situationen: Ein LLM, das mit nicht genehmigten oder sensiblen Inhalten trainiert wurde, könnte dazu gebracht werden, diese Inhalte erneut zu erzeugen und dabei persönliche Informationen preiszugeben. Oder Sie könnten vertrauliche Daten versehentlich in Eingaben eingeben und so unbefugtem Zugriff oder Missbrauch aussetzen.

Datenschutzgesetze für KI

Mit der zunehmenden Verbreitung von KI entwickeln Regierungen Gesetze oder passen sie an, um Risiken im Bereich Datenschutz zu adressieren, vor allem bei Systemen, die personenbezogene oder vertrauliche Daten verwenden oder speichern. Aktuell haben 144 Länder nationale Datenschutzgesetze verabschiedet, während andere Länder wie die USA ein Sammelsurium lokaler Datenschutzvorschriften aufweisen. Nicht alle dieser Vorschriften richten sich ausdrücklich an KI, doch in den meisten Fällen müssen KI-Systeme diese einhalten.

Zu den Datenschutzgesetzen gehören unter anderem die folgenden Beispiele.

  • Datenschutz-Grundverordnung (DSGVO) der Europäischen Union
    Die DSGVO fordert, dass personenbezogene Daten fair, transparent und nur für klar definierte Zwecke erhoben und verwendet werden, die zum Zeitpunkt der Erhebung festgelegt sind. Sie beschränken die Datenerhebung auf das notwendige Maß, bewahren Daten nur so lange auf, wie es wirklich erforderlich ist, und setzen strenge Maßnahmen um, um Sicherheit und Vertraulichkeit zu gewährleisten. Auch wenn die DSGVO künstliche Intelligenz nicht ausdrücklich erwähnt, muss jedes KI-System, das personenbezogene Daten erhebt, verarbeitet oder speichert, die DSGVO-Grundsätze strikt einhalten und verantwortungsvoll mit den Daten während des gesamten KI-Lebenszyklus umgehen.
  • Gesetz der Europäischen Union über Künstliche Intelligenz
    Der EU-KI-Act ist der weltweit erste umfassende regulatorische Rahmen für Künstliche Intelligenz, den eine bedeutende Regierungsinstitution eingeführt hat. Er untersagt KI-Anwendungen, die ein „inakzeptables Risiko“ darstellen, etwa von der Regierung betriebene Social Scoring-Verfahren oder das wahllose Erfassen von Gesichtsbildern aus Überwachungskameraaufnahmen. Zudem verpflichtet er „hochriskante“ KI-Systeme zu strengen rechtlichen Vorgaben, darunter auch Werkzeuge für die Lebenslaufprüfung bei Einstellungsverfahren. Entwickler hochriskanter KI-Systeme setzen strenge Datenverwaltungspraktiken um und sorgen dafür, dass alle Trainings-, Validierungs- und Testdatensätze klar definierte Qualitätsstandards erfüllen.
  • Vorschriften der US-Bundesstaaten
    Der California Consumer Privacy Act (CCPA) und der Texas Data Privacy and Security Act geben Ihnen mehr Kontrolle über Ihre personenbezogenen Daten. Diese Gesetze sichern Ihnen wichtige Rechte zu, etwa das Recht zu wissen, wie Organisationen Ihre Daten erheben, nutzen und weitergeben, das Recht auf Löschung Ihrer persönlichen Informationen und das Recht, dem Verkauf oder der Weitergabe Ihrer Daten zu widersprechen.

    Der Utah Artificial Intelligence and Policy Act richtet sich gezielt auf risikoreiche generative KI-Anwendungen. Er verlangt, dass KI-Systeme klar offenlegen, wenn Sie mit generativer KI interagieren, um Transparenz zu schaffen und Ihnen eine informierte Nutzung KI-gesteuerter Anwendungen zu ermöglichen.

Die Kanzlei White & Case veröffentlicht AI Watch: Global Regulatory Tracker, eine verlässliche Quelle, um bei KI-Datenschutzbestimmungen stets informiert zu bleiben.

Beste Praktiken zum Schutz der Privatsphäre bei KI

Da KI-Systeme immer komplexer und umfassender werden, schützen Sie die Datenprivatsphäre während des gesamten KI-Anwendungslebenszyklus. Diese bewährten Methoden helfen Ihnen, Vorschriften einzuhalten, das Vertrauen der Nutzer zu stärken und Risiken zu minimieren.

  • Entwickeln Sie strenge Richtlinien zur Datenverwaltung . Umfassende Leitlinien sollten Dazu gehören Datenklassifizierung, rollenbasierte Zugriffskontrollen, Datensicherheit wie Verschlüsselung und Pseudonymisierung, regelmäßige Audits und die Ausrichtung an relevanten Datenschutzbestimmungen wie DSGVO und CCPA.
  • Begrenzen Sie die Datenerfassung. Sammeln Sie nur die Daten, die die KI-Funktion wirklich benötigt. Weniger Daten erhöhen Ihre Sicherheit und erfüllen Anforderungen zahlreicher Datenschutzgesetze.
  • Holen Sie eine eindeutige Zustimmung ein. Erläutern Sie Benutzern klar, wie Sie ihre Daten erfassen, verwenden und speichern. Fordern Sie immer eine ausdrückliche und informierte Einwilligung ein, bevor Sie personenbezogene Daten erheben und nutzen. Diese Offenheit ist nicht nur in vielen Rechtsordnungen vorgeschrieben, sondern stärkt auch das Vertrauen der Nutzer.
  • Überprüfen Sie die Lieferkette der Trainingsdaten. Vergewissern Sie sich, dass Drittanbieterdatensätze zur KI-Modellschulung vertrauenswürdig sind und strikte Datenschutzrichtlinien einhalten.
  • Befolgen Sie bewährte Anwendungssicherheitsrichtlinien. Stärken Sie die Basis Ihrer KI-Systeme durch bewährte Maßnahmen zur Datensicherheit, einschließlich sicherer Identitäts- und Zugriffsverwaltung, Verschlüsselung der Daten im Transit und im Ruhezustand sowie Anonymisierung personenbezogener Daten.
  • Führen Sie fortlaufende Risikobewertungen durch. Risikomanagement ist nie ein einmaliger Prozess. Bei KI, die sich schnell entwickelt, sollten Sie die Datenschutzrisiken regelmäßig neu bewerten. Bewerten Sie kontinuierlich, um neue Bedrohungen zu erkennen, Compliance zu gewährleisten und Governance-Richtlinien bei Bedarf anzupassen.
  • Nutzen Sie Software, um den Schutz von Daten zu steigern. Setzen Sie intelligente Werkzeuge wie die F5 Application Delivery and Security Platform ein, um die Übersichtlichkeit zu verbessern, die Einhaltung von Datenschutzvorgaben zu stärken und vertrauliche Datenflüsse durch KI-Anwendungen in Echtzeit zu kontrollieren.
  • Bewerten Sie die Datenschutzrichtlinien von Anbietern und Partnern sorgfältig. Achten Sie darauf, dass alle Technologiepartner und Dienstleister strenge Datenschutz- und Datensicherheitsstandards einhalten. KI-Daten fließen oft durch gemeinsame Ökosysteme, weshalb die Kontrolle durch Dritte entscheidend ist, um Risiken zu reduzieren; hier finden Sie die Datenschutzrichtlinien von F5.

Rahmenwerke zur Verwaltung von KI-Risiken

Eine zentrale Vorgabe in allen KI-spezifischen Vorschriften verlangt, KI-Anwendungen nach Risikostufen einzuteilen. Mit diesem risikoorientierten Ansatz können Sie passende Schutzmaßnahmen und Kontrollen gezielt entsprechend der möglichen Auswirkungen des KI-Systems umsetzen.

Zu den risikoreichen KI-Anwendungen zählen möglicherweise:

  • Sicherheitskritische Systeme, bei denen Sie KI-Funktionalität in kritischer Infrastruktur, im Transportsektor oder in medizinischen Geräten einsetzen, deren Ausfälle Leben oder Sachwerte gefährden können.
  • Beschäftigungs- und Bildungssysteme, in denen wir KI-Tools bei der Einstellung, Zulassung, Leistungsbewertung oder dem Zugang zu Bildungsmöglichkeiten einsetzen und bei denen Voreingenommenheit oder Fehler die Rechte und Chancen von Personen massiv beeinträchtigen können.
  • Öffentliche Sicherheit und Strafverfolgung, bei denen Systeme zur Gesichtserkennung, vorausschauenden Polizeiarbeit, Überwachung oder Risikobewertung bürgerrechtliche und Diskriminierungsbedenken hervorrufen können.
  • Öffentlich zugängliche generative KI, wenn Anwendungen, die Text, Bilder oder Videos erzeugen, direkt für Sie als Nutzer bereitstehen – besonders in Fällen, wo die Ergebnisse Verhalten beeinflussen, Fehlinformationen verbreiten oder versehentlich vertrauliche Informationen preisgeben können.

Die USA Das National Institute of Standards and Technology (NIST) veröffentlichte 2023 ein Framework zum Risikomanagement Künstlicher Intelligenz (AI RMF), das praktische Leitlinien für zahlreiche Branchen und Anwendungsfälle bietet. Für Entwickler von KI-Anwendungen erweist sich dieses Framework als hilfreich, da es nicht einfach nur Hochrisiko-Kategorien definiert, sondern konkrete Anleitungen zur Risikoermittlung und -minderung liefert.

Der AI RMF Core gliedert sich in vier Hauptfunktionen, die einen kontinuierlichen und zyklischen Ansatz für das KI-Risikomanagement darstellen:

  1. Leiten. Wir legen organisatorische Richtlinien, Prozesse, Verfahren und Praktiken fest und überwachen sie, um eine verantwortungsbewusste KI-Entwicklung zu fördern sowie für Transparenz und eine wirkungsvolle Umsetzung zu sorgen.
  2. Karte. Verstehen Sie den Kontext, in dem das KI-System arbeitet, und bewerten Sie den gesamten Anwendungslebenszyklus, um Risiken und potenzielle Auswirkungen in jeder Phase der KI-Entwicklung einzuschätzen.
  3. Messen. Bewerten, überwachen und quantifizieren Sie KI-Risiken und Auswirkungen mit passenden Werkzeugen, Kennzahlen und Bewertungsmethoden.
  4. Verwalten. Priorisieren Sie Risiken und reagieren Sie gezielt, indem Sie Maßnahmen und Sicherheitskontrollen einsetzen, um Schäden zu minimieren und Ergebnisse zu verbessern. Stellen Sie Ressourcen bereit, um AI-Systeme kontinuierlich zu überwachen, effizient auf Vorfälle zu reagieren, diese zu beheben und transparent zu kommunizieren.

KI-Innovation mit Datenschutz in Einklang bringen

Während die Innovationen im Bereich KI zunehmend Fahrt aufnehmen, müssen Sie eine Balance schaffen zwischen technologischem Fortschritt und dem festen Schutz Ihrer Datenprivatsphäre. Die bestehenden Datenschutzrichtlinien berücksichtigen, wie wichtig es ist, Raum für fortlaufende Innovation zu schaffen und gleichzeitig klare Schutzmaßnahmen für Datenprivatsphäre und Datensicherheit zu gewährleisten.

Allgemeine Datenschutzgesetze – wie DSGVO und CCPA – legen den grundlegenden Rahmen fest, mit dem Sie den Datenschutz steuern, selbst wenn sich KI-spezifische Regelungen weiterentwickeln. Sie sollten die datenschutzrechtlichen Auswirkungen Ihrer KI-Systeme fortlaufend prüfen, besonders bei funktionalen Neuerungen oder sich abzeichnenden Anwendungsfällen.

Bewerten Sie fortlaufend die Datenschutzaspekte von KI in Ihrem Unternehmen und aktualisieren Sie regelmäßig Ihre Richtlinien zur Datenverwaltung, um sie an neue Technologien, gesetzliche Vorgaben und kulturelle Erwartungen anzupassen.