Bias und Diskriminierung in KI bezeichnen gemäß Art. 10 und Art. 27 der EU-Verordnung 2024/1689 systematische Verzerrungen oder Benachteiligungen, die durch Daten, Modelllogik oder fehlerhafte Nutzung entstehen können. Gerade in sensiblen Bereichen wie Recruiting, Kreditvergabe oder Versicherung werden solche Effekte schnell zu einem Compliance- und Haftungsproblem.
In einfachen Worten
Bias bedeutet nicht nur „schlechte Daten“. Auch ungeeignete Ziele, fehlende Kontrollen oder blinde Übernahme von Ergebnissen können diskriminierende Wirkungen erzeugen. Deshalb gehören zu diesem Thema immer Erklärbarkeit, funktionierende Human Oversight und ein realistischer Blick auf mögliche Haftungsfragen wie bei der AI Liability Directive.
Praxisrelevanz
Ein Bewerbertool kann statistisch sauber wirken und trotzdem ältere Personen, Frauen oder bestimmte Sprachmuster benachteiligen. Unternehmen müssen deshalb nicht nur Genauigkeit, sondern auch Auswirkungen auf betroffene Gruppen ernst nehmen. Im Hochrisikobereich wird das zusätzlich über Daten-Governance, Grundrechtsfolgen und Dokumentation relevant.
Was Unternehmen jetzt tun sollten
Prüfen Sie Datengrundlagen, Testgruppen, Freigabeprozesse und Beschwerden nicht erst nach einem Vorfall. Ergänzend helfen die FAQ, der Kurs und das Glossar zu KI-Inventar, wenn Sie Risiken systematisch über alle eingesetzten Systeme hinweg erfassen wollen.