Eine Datenschutz-Folgenabschätzung (DSFA) gemäß Art. 35 DSGVO ist für die meisten KI-Systeme mit personenbezogenen Daten verpflichtend, wenn Profiling, Scoring, Überwachung oder andere Hochrisiko-Konstellationen vorliegen. Die BfDI-Blacklist beziehungsweise Muss-Liste nach Art. 35 Abs. 4 DSGVO und der AI Act mit seiner Grundrechte-Folgenabschätzung nach Art. 27 verschärfen den praktischen Handlungsdruck zusätzlich.
Für die Praxis ist deshalb die kurze Antwort entscheidend: Sobald Ihr KI-System Personen bewertet, Verhalten prognostiziert, sensible Daten verarbeitet oder in einem sensiblen Entscheidungskontext eingesetzt wird, sollten Sie eine DSFA nicht als Option, sondern als Standardprüfung behandeln. Wer zuerst die datenschutzrechtliche Grundlogik einordnen will, findet den Überblick in KI-Verordnung vs. DSGVO, die operative Alltagsnutzung in ChatGPT im Unternehmen und AI Act und die allgemeine Datenschutzschnittstelle in DSGVO und AI Act — Brauche ich zwei Schulungen?.
Wann ist eine DSFA für KI-Systeme Pflicht?
Pflicht ist die DSFA immer dann, wenn eine Verarbeitung nach Art. 35 Abs. 1 DSGVO voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen erzeugt. Art. 35 Abs. 3 DSGVO nennt drei Kernfälle, die bei KI besonders oft relevant sind: systematische und umfassende Bewertung persönlicher Aspekte auf Basis automatisierter Verarbeitung einschließlich Profiling, umfangreiche Verarbeitung besonderer Kategorien personenbezogener Daten und systematische umfangreiche Überwachung öffentlich zugänglicher Bereiche.
Für KI-Systeme reicht es jedoch nicht, nur diese drei Gesetzesbeispiele abzuhaken. Die WP248-Leitlinien des früheren Art.-29-Datenschutzgremiums, die vom EDPB getragen werden, arbeiten mit mehreren Risikokriterien, die bei KI häufig kumulieren: Bewertung oder Scoring, automatisierte Entscheidungen mit erheblicher Wirkung, systematische Überwachung, sensible Daten, innovative Nutzung neuer Technologien, große Reichweite, Datenabgleich oder die Verarbeitung von Daten schutzbedürftiger Personen. Schon zwei oder mehr dieser Kriterien können praktisch sehr deutlich in Richtung DSFA-Pflicht weisen.
Die deutsche Aufsicht konkretisiert diese Schwelle zusätzlich über Muss-Listen nach Art. 35 Abs. 4 DSGVO. Die oft verkürzt als BfDI-Blacklist bezeichnete BfDI-Liste gilt formal für öffentliche Stellen des Bundes in ihrem Zuständigkeitsbereich, ist aber als Auslegungssignal gerade für KI-Vorhaben wichtig, weil sie unter anderem Konstellationen mit Scoring, Profilbildung, umfassender Bewertung und Überwachungscharakter greifbar macht. Für private Unternehmen kommen außerdem die DSK-Listen der Länderaufsichten hinzu. Wer also ein HR-Tool, ein Fraud-Scoring, eine Videoanalyse oder einen KI-gestützten Kundenselektionsprozess einführt, sollte nicht fragen, ob KI an sich eine DSFA auslöst, sondern ob die konkrete Verarbeitung in diese bekannten Risikobündel fällt.
Die Entscheidung lässt sich pragmatisch über vier Prüfungsfragen strukturieren:
- Werden personenbezogene Daten verarbeitet oder mit anderen Daten zusammengeführt, sodass Personen identifizierbar werden?
- Bewertet das System Menschen, erstellt Scores, Prioritäten, Empfehlungen oder Prognosen über Verhalten, Leistung, Eignung oder Risiko?
- Hat das Ergebnis spürbare Folgen für Bewerber, Beschäftigte, Kunden, Patienten, Bürger oder andere Betroffene?
- Kommen neue Technologien, sensible Daten, Überwachung oder großflächige Verarbeitung hinzu?
Wenn Sie mehrere dieser Fragen mit Ja beantworten, ist eine DSFA regelmäßig angezeigt. Für die begriffliche Einordnung helfen auch das Glossar zu DSFA und der Beitrag KI-Verordnung vs. DSGVO, weil gerade intransparente Modelle die Betroffenenperspektive verschärfen.
KI-spezifische Risiken richtig bewerten
KI-Systeme erhöhen das DSFA-Risiko nicht allein wegen des Wortes KI, sondern wegen typischer Wirkmechanismen. Besonders relevant sind Profiling, Scoring, systematische Überwachung, Intransparenz, fehleranfällige Trainingsdaten, Rückkopplungseffekte und eine große Distanz zwischen Datenerhebung und späterem Einsatzkontext. Genau diese Kombination macht aus einem scheinbar normalen Softwareprojekt oft ein Vorhaben mit hohem Risiko.
Ein Recruiting-System ist das klassische Beispiel. Bereits eine Rangfolge von Bewerbern, eine Eignungsprognose oder eine automatisierte Vorsortierung kann personenbezogene Daten in einer Weise bewerten, die erhebliche Auswirkungen auf berufliche Chancen hat. In diesem Fall müssen Sie in der DSFA nicht nur Datenschutzfragen zu Rechtsgrundlage, Speicherfristen und Informationspflichten prüfen, sondern auch Fehlklassifikation, Diskriminierung, unklare Eingangsparameter, menschliche Übersteuerung und die tatsächliche Rolle des Fachbereichs im Entscheidungsprozess. Vertiefend dazu passen KI-Verordnung vs. DSGVO und der regulatorische Gesamtvergleich AI Act vs. NIS2 vs. DSGVO.
Auch bei Chatbots und generativer KI können DSFA-Pflichten schnell entstehen. Ein interner Textassistent ohne Personenbezug ist datenschutzrechtlich oft deutlich harmloser als ein Support-Chatbot, der Beschwerden, Vertragsdaten, Gesundheitsinformationen oder Bewerberanfragen verarbeitet. Sobald das System personenbezogene Inhalte entgegennimmt, daraus Profile ableitet, Gesprächsverläufe auswertet oder Mitarbeiter zu riskanten Eingaben verleitet, rückt Art. 35 DSGVO in den Vordergrund. Genau deshalb sollte die operative Prüfung immer auch die Nutzungsrealität abdecken, wie im Beitrag ChatGPT im Unternehmen und AI Act beschrieben.
Die folgende Tabelle zeigt typische Einordnungsmuster:
| KI-Anwendung | Typische Datenlage | DSFA-Risiko | Warum? |
|---|---|---|---|
| Interner Textassistent ohne Personenbezug | keine oder nur anonymisierte Inhalte | eher niedrig | kein Personenbezug, keine Bewertung natürlicher Personen |
| Support- oder CRM-Chatbot | Kunden-, Vertrags- oder Kommunikationsdaten | mittel bis hoch | Profilbildung, Datenfülle, mögliche Fehlzuordnung und Transparenzdefizite |
| HR-Tool für Bewerbervorauswahl | Bewerberdaten, Bewertungen, Lebensläufe | sehr hoch | Profiling, erhebliche Wirkung, potenziell Hochrisiko nach AI Act |
| Kredit- oder Fraud-Scoring | Finanz- und Verhaltensdaten | sehr hoch | Scoring, erhebliche wirtschaftliche Folgen, Bias-Risiko |
| Videoüberwachung mit Analysefunktionen | Bilddaten, Verhaltensmuster, ggf. Biometrie | sehr hoch | systematische Überwachung, große Reichweite, sensible Kontexte |
Die eigentliche Kunst einer KI-DSFA liegt deshalb nicht im Ausfüllen eines Formulars, sondern in der sauberen Übersetzung technischer Eigenschaften in Betroffenenrisiken. Fragen Sie konkret: Welche Daten gehen in das System ein, welche Schlüsse zieht es, wer sieht die Ergebnisse, wie werden Fehler korrigiert, welche Gruppen können strukturell benachteiligt werden und wie wahrscheinlich ist eine Zweckausweitung? Wer diese Ebene überspringt, erstellt zwar Dokumentation, aber keine belastbare Folgenabschätzung.
DSFA vs. AI Act FRIA: Was ist der Unterschied?
Die DSFA nach Art. 35 DSGVO und die Grundrechte-Folgenabschätzung nach Art. 27 AI Act verfolgen unterschiedliche Zwecke. Die DSFA bewertet Datenschutzrisiken aus einer Verarbeitung personenbezogener Daten. Die FRIA bewertet breitere Auswirkungen bestimmter Hochrisiko-KI-Systeme auf Grundrechte, also etwa Datenschutz, Nichtdiskriminierung, Menschenwürde, Zugang zu Leistungen oder wirksamen Rechtsschutz.
Wichtig ist die genaue Normstruktur des AI Act. Betreiberpflichten für Hochrisiko-KI stehen in Art. 26. Dort heißt es in Art. 26 Abs. 9, dass Betreiber die Anbieterinformationen aus Art. 13 nutzen sollen, um eine DSFA nach Art. 35 DSGVO zu erfüllen, soweit diese erforderlich ist. Die eigentliche Grundrechte-Folgenabschätzung steht jedoch in Art. 27 AI Act. Sie gilt nicht für alle KI-Systeme, sondern für bestimmte Deployer-Konstellationen bei Hochrisiko-KI, insbesondere für Einrichtungen des öffentlichen Rechts, private Anbieter öffentlicher Dienste und Deployer bestimmter Systeme aus Anhang III Ziffer 5 Buchstabe b und c. Das ist rechtlich enger als eine pauschale Aussage "jede Hochrisiko-KI braucht FRIA".
Für Unternehmen ist daher folgende Abgrenzung zentral:
| Kriterium | DSFA | Grundrechte-Folgenabschätzung |
|---|---|---|
| Rechtsgrundlage | Art. 35 DSGVO | Art. 27 AI Act |
| Fokus | Schutz personenbezogener Daten und Betroffenenrechte | breitere Grundrechtsauswirkungen des KI-Einsatzes |
| Auslöser | hohes Risiko der Datenverarbeitung | bestimmte Deployer-Konstellationen bei Hochrisiko-KI |
| Adressat | Verantwortlicher nach DSGVO | Deployer nach AI Act |
| Zeitpunkt | vor Beginn der Verarbeitung | vor dem ersten Einsatz des Systems |
| Ergebnis | Risikobewertung, Maßnahmen, ggf. Vorabkonsultation | Grundrechtsbewertung, Maßnahmen, Meldung an Marktüberwachung |
Kann eine DSFA beide Anforderungen abdecken? Teilweise ja, aber nicht automatisch. Art. 27 Abs. 4 AI Act erlaubt ausdrücklich, dass die FRIA eine bereits durchgeführte DSFA ergänzt. Das spricht für ein integriertes Verfahren mit gemeinsamem Kern, nicht für zwei vollständig getrennte Dokumentensilos. In der Praxis ist ein gemeinsames Assessment sinnvoll, wenn ein KI-System zugleich personenbezogene Daten verarbeitet und in einen AI-Act-Kontext fällt. Dann sollten Sie einen gemeinsamen Basisblock für Systembeschreibung, Datenfluss, Stakeholder, Risiken und Maßnahmen verwenden und anschließend datenschutzrechtliche sowie grundrechtliche Spezialkapitel ergänzen.
Wer diese Überschneidung organisatorisch sauber abbilden will, sollte auch die Governance-Perspektive aus dem ISO-42001-Hub und den übergreifenden Risikokontext aus AI Act, NIS2 und DSGVO im Vergleich einbeziehen. Gerade bei KI in kritischen Prozessen sind Datenschutz, Grundrechte, Informationssicherheit und Betriebsstabilität selten sauber voneinander zu trennen.
DSFA-Prozess für KI-Systeme Schritt für Schritt
Eine belastbare DSFA beginnt nicht erst kurz vor Go-live, sondern bereits in Beschaffung, Fachkonzept und Pilotphase. Art. 35 Abs. 7 DSGVO gibt dafür den Mindestinhalt vor: Beschreibung der geplanten Verarbeitung und Zwecke, Bewertung von Notwendigkeit und Verhältnismäßigkeit, Bewertung der Risiken für die Rechte und Freiheiten sowie die geplanten Abhilfemaßnahmen. Für KI-Projekte lässt sich daraus ein sechsstufiger Prozess ableiten.
1. Systematisch beschreiben
Beschreiben Sie das KI-System so konkret, dass ein Außenstehender die Verarbeitung nachvollziehen kann. Dazu gehören Zweck, Anbieter oder Eigenentwicklung, Datenquellen, Modellart, Input- und Output-Daten, Nutzergruppen, Entscheidungen im Prozess, Schnittstellen, Speicherorte, Empfänger, Aufbewahrungsfristen und internationale Transfers. Bei eingekaufter KI sollten Sie außerdem die Informationen aus der Anbieterdokumentation nach AI Act Art. 13 und Art. 26 systematisch auswerten.
2. Notwendigkeit und Verhältnismäßigkeit prüfen
Prüfen Sie, ob der Zweck legitim ist, welche Rechtsgrundlage greift, ob der gleiche Zweck mit weniger eingriffsintensiven Mitteln erreichbar wäre und welche Datenelemente wirklich erforderlich sind. Gerade bei KI-Projekten zeigt sich hier oft, dass Teams deutlich mehr Daten einspeisen wollen als tatsächlich nötig. Datenminimierung ist kein Anhängsel, sondern ein Kernhebel zur Risikoreduzierung.
3. Risiken aus Sicht der Betroffenen identifizieren
Bewerten Sie Risiken nicht aus Sicht des Projekts, sondern aus Sicht der betroffenen Personen. Typische Schäden sind Fehlbewertungen, Diskriminierung, unberechtigte Offenlegung, Kontrollverlust, Reputationsschäden, Ausschluss von Chancen, ungerechtfertigte Beobachtung oder eine faktische Entmündigung durch intransparente Systeme. Bei KI sollte diese Analyse ausdrücklich auch Trainingsdatenfehler, Modellgrenzen, Drift, fehlerhafte Prompts, fehlende Erklärbarkeit und blinde Automatisierung erfassen.
4. Maßnahmen definieren und Restrisiken bewerten
Leiten Sie konkrete Maßnahmen ab: Rollen- und Rechtekonzepte, Datenminimierung, Prompt-Regeln, Logging, Vier-Augen-Freigaben, Stichproben, Bias-Tests, Löschkonzepte, Einschränkung besonders riskanter Eingaben, Beschwerdewege und Eskalationsmechanismen. Erst danach bewerten Sie, ob das Restrisiko akzeptabel ist. Bleibt trotz Maßnahmen ein hohes Risiko bestehen, verlangt Art. 36 DSGVO eine Vorabkonsultation der Aufsichtsbehörde.
5. DSB, Fachbereich und gegebenenfalls Betroffene einbinden
Art. 35 Abs. 2 DSGVO verpflichtet dazu, den Datenschutzbeauftragten zu beteiligen, sofern einer benannt ist. Darüber hinaus sollten Fachbereich, IT, Informationssicherheit, Einkauf und gegebenenfalls Arbeitnehmervertretung oder andere relevante Stakeholder eingebunden werden. Bei besonders betroffenen Gruppen kann es sinnvoll sein, ihre Perspektive strukturiert einzuholen, auch wenn die DSGVO keine allgemeine Pflicht zu einer öffentlichen Konsultation kennt.
6. Vor Inbetriebnahme freigeben und später aktualisieren
Die DSFA ist kein Einmalpapier. Die Europäische Kommission beschreibt sie ausdrücklich als lebendes Instrument. Sie müssen die Bewertung aktualisieren, wenn sich Zweck, Datenquellen, Modelllogik, Nutzerkreis, Anbieterarchitektur oder Risikolage wesentlich ändern. Bei KI-Systemen ist diese Aktualisierung besonders wichtig, weil sich Modelle, Features und Nutzungsweisen oft schneller verändern als klassische Fachverfahren.
Tools und Templates für eine saubere KI-DSFA
Wer eine KI-DSFA effizient aufsetzen will, sollte nicht bei null anfangen. Für den deutschsprachigen Raum ist das DSK-Kurzpapier Nr. 5 ein guter Einstieg, weil es die Logik der DSFA kompakt strukturiert und den Mindestprozess verständlich zusammenfasst. Für Teams, die ein geführtes Werkzeug bevorzugen, ist das CNIL PIA Tool praktisch, weil es den Ablauf schrittweise durch die Analyse führt und gerade bei interdisziplinären Workshops eine gute Moderationshilfe sein kann.
Als methodischer Referenzrahmen eignet sich außerdem ISO/IEC 29134:2023, weil der Standard den Prozess und den Aufbau eines Privacy-Impact-Assessments systematisiert. Für KI-Projekte ist das vor allem dann sinnvoll, wenn Sie mehrere Assessments parallel harmonisieren wollen, etwa DSFA, AI-Act-Risikobewertung und interne Governance-Prüfungen. Standards ersetzen keine Rechtsprüfung, helfen aber, Qualität und Wiederholbarkeit zu erhöhen.
Sinnvoll ist in der Praxis eine Vorlagenstruktur mit sieben Pflichtfeldern:
- Projektsteckbrief und Verantwortlichkeiten
- Datenarten, Quellen, Transfers und Empfänger
- KI-Funktion, Einsatzkontext und Entscheidungswirkung
- Risikokriterien nach Art. 35 DSGVO und WP248
- Betroffenenrisiken und besonders betroffene Gruppen
- Technische und organisatorische Maßnahmen
- Restrisiko, Freigabe, Review-Termin und Änderungsanlässe
Häufige Fehler bei der DSFA für KI-Systeme
Der häufigste Fehler ist der Zeitpunkt. Viele Unternehmen starten die DSFA erst dann, wenn Toolauswahl, Vertragsverhandlung und Pilotbetrieb praktisch abgeschlossen sind. Dann wird aus einem Risikoinstrument nur noch ein Rechtfertigungsdokument. Bei KI ist das besonders problematisch, weil Datenflüsse, Rollen, Trainingslogik und Aufsichtsmechanismen zu diesem Zeitpunkt oft schon faktisch feststehen.
Der zweite Fehler ist Oberflächlichkeit. Eine KI-DSFA ist wertlos, wenn sie nur Datenschutzfloskeln wie "Zugriff beschränkt" oder "verschlüsselte Übertragung" enthält, ohne die eigentlichen KI-Risiken zu bewerten. Sie müssen wissen, ob das System Personen sortiert, Empfehlungen erzeugt, implizite Profile bildet, sensible Merkmale indirekt rekonstruiert oder Fehlentscheidungen verstärkt.
Der dritte Fehler ist die fehlende Betroffenenperspektive. Viele Assessments beschreiben den Nutzen für das Unternehmen, aber nicht den möglichen Schaden für Bewerber, Beschäftigte, Kunden oder Bürger. Genau diese Perspektive verlangt Art. 35 DSGVO. Bei KI gehört dazu ausdrücklich die Frage, welche Gruppen häufiger falsch klassifiziert werden können und wie Betroffene Korrektur, Widerspruch oder menschliche Überprüfung erreichen.
Der vierte Fehler ist die falsche Verzahnung mit dem AI Act. DSFA und FRIA sind weder identisch noch vollständig getrennt. Wer beide vermischt, riskiert Lücken. Wer sie komplett separat organisiert, produziert unnötige Doppelarbeit. Richtig ist meist ein gemeinsamer Prozess mit klar getrennten Rechtskapiteln.
Fazit: DSFA für KI früh, integriert und nachweisbar durchführen
Die Datenschutz-Folgenabschätzung ist für KI-Systeme mit Personenbezug oft keine Kür, sondern ein früher Pflichtschritt nach Art. 35 DSGVO. Besonders bei HR, Scoring, Videoanalyse, Überwachung, Fraud Detection und generativer KI mit sensiblen Eingaben ist die Schwelle zum hohen Risiko schnell erreicht. Der AI Act ändert daran nichts im Sinne eines Ersatzes, erhöht aber den Druck zur strukturierten Vorabprüfung, weil bei bestimmten Hochrisiko-Systemen zusätzlich eine Grundrechte-Folgenabschätzung nach Art. 27 relevant wird.
Die pragmatische Empfehlung lautet deshalb: Führen Sie DSFA, KI-Risikobewertung und gegebenenfalls FRIA in einem abgestimmten Freigabeprozess zusammen, statt drei voneinander isolierte Prüfstränge aufzubauen. Wenn Sie Datenschutz, Rollen, Freigaben und Nachweise im Unternehmen jetzt sauber strukturieren wollen, ist unsere EU AI Act Schulung der passende nächste Schritt. Ergänzend helfen Ihnen KI-Verordnung vs. DSGVO, der Glossarbegriff Grundrechte-Folgenabschätzung und der Überblick zu DSFA, um die rechtliche und operative Linie intern konsistent aufzubauen.