Fairness im KI-Kontext ist die gerechte, diskriminierungsfreie Behandlung von Personengruppen durch ein KI-System - messbar durch Metriken wie Demographic Parity und Equal Opportunity. Als Fairness Definition KI reicht deshalb kein allgemeines Gerechtigkeitsversprechen, sondern nur ein nachweisbarer Umgang mit Daten, Modellentscheidungen und Auswirkungen.
Warum Fairness für ISO 42001 und den EU AI Act wichtig ist
Fairness ist für Compliance relevant, weil ungerechtfertigte Benachteiligung schnell zu Grundrechts-, Haftungs- und Reputationsrisiken führt. Der EU AI Act adressiert das Thema vor allem über Art. 10 EU-VO 2024/1689: Hochrisiko-KI braucht Daten-Governance und Datensätze, die relevant, repräsentativ und möglichst fehlerfrei sind. Erwägungsgrund 47 betont zusätzlich, dass Verzerrungen erkannt, verhindert und gemindert werden sollen.
ISO/IEC 42001:2023 ergänzt diese rechtliche Perspektive um einen Managementrahmen. Klausel 5.2 verlangt eine AI Policy, Klausel 6.1 die Bestimmung von Chancen und Risiken, Klausel 8.2 die Behandlung von KI-Risiken und Klausel 9.1 die Überwachung der Wirksamkeit. Fairness ist damit Teil eines belastbaren AI-Management-Systems.
In der Praxis hängt Fairness eng mit Bias und Diskriminierung in KI, Daten-Governance und Erklärbarkeit zusammen. Ohne diese drei Bausteine lassen sich Benachteiligungen kaum erkennen oder korrigieren.
Wichtige Fairness-Metriken
Fairness lässt sich nicht mit einer einzigen Kennzahl beweisen. Unternehmen sollten die Metrik nach Zweck und Risiko wählen.
| Metrik | Vereinfachte Formel | Wofür sie nützlich ist |
|---|---|---|
| Demographic Parity | P(positiv | Gruppe A) = P(positiv | Gruppe B) | Prüft, ob Gruppen ähnlich häufig positive Ergebnisse erhalten |
| Equal Opportunity | TPR_A = TPR_B | Prüft, ob berechtigte positive Fälle gruppenübergreifend erkannt werden |
| Equalized Odds | TPR_A = TPR_B und FPR_A = FPR_B | Prüft gleichzeitig Treffer- und Fehlalarmraten |
| Predictive Parity | PPV_A = PPV_B | Prüft, ob positive Vorhersagen je Gruppe ähnlich verlässlich sind |
| Disparate Impact Ratio | Auswahlrate A / Auswahlrate B | Praktischer Frühindikator für mögliche Benachteiligung |
Wichtig ist die Grenze dieser Metriken: Nicht alle Ziele lassen sich gleichzeitig maximieren. Ein Recruiting-Modell kann bei gleicher Auswahlrate unfair sein, wenn die Fehlerraten auseinanderlaufen. Darum braucht Fairness immer fachliche Begründung und dokumentierte Abwägungen.
Praxisbeispiel aus einem KMU
Ein Handelsunternehmen mit 120 Mitarbeitenden nutzt ein KI-System zur Vorauswahl von Bewerbungen. Nach einigen Monaten zeigt die Gruppenanalyse eine auffällige Disparate-Impact-Quote und eine niedrigere True-Positive-Rate für ältere Bewerbende.
Entscheidend ist, ob Unterschiede sachlich gerechtfertigt sind oder auf verzerrten Trainingsdaten, ungeeigneten Merkmalen oder fehlerhaften Schwellenwerten beruhen. Das Unternehmen prüft deshalb Datengrundlage und Freigabeprozess, entfernt problematische Proxy-Merkmale und ergänzt eine Zweitprüfung. Genau dieses Zusammenspiel aus Risikoprüfung, Anpassung und Monitoring entspricht dem Governance-Gedanken von ISO 42001.
Was Unternehmen konkret tun sollten
Fairness wird beherrschbar, wenn Sie sie als Prüfpunkt organisieren. Definieren Sie Anwendungsfälle, Metriken, Schwellenwerte und Verantwortlichkeiten vor dem Produktivstart. Wiederholen Sie die Messung nach Modellupdates, Datenänderungen und Beschwerden.
Für KMU reicht oft ein schlanker Prozess: Use Case erfassen, Risiko einstufen, Datengrundlage prüfen, zwei bis drei Fairness-Metriken testen, Ergebnisse dokumentieren und Eskalationswege festlegen. Wenn Sie Fairness systematisch mit Rollen, Nachweisen und regulatorischen Pflichten verbinden wollen, hilft die EU AI Act Schulung beim Einstieg. Für den Managementsystem-Blick ergänzt der ISO-42001-Leitfaden die Umsetzung.