Was regelt Artikel 14?
Artikel 14 verlangt, dass Hochrisiko-KI wirksam von natürlichen Personen beaufsichtigt werden kann. Gemeint ist keine symbolische Freigabe, sondern die Fähigkeit, das System zu verstehen, Anomalien zu erkennen, Ausgaben zu hinterfragen und notfalls einzugreifen.
Kurz im Gesetzestext: „... effectively overseen by natural persons ...“ (Art. 14)
Der Artikel adressiert ausdrücklich das Risiko des Automation Bias. Menschen sollen sich nicht blind auf KI-Empfehlungen verlassen, nur weil sie technisch wirken. Deshalb müssen Aufsichtspersonen Grenzen, Leistungsprofile und typische Fehlfunktionen kennen. In bestimmten Bereichen wie biometrischer Identifizierung oder manchen behördlichen Kontexten geht Art. 14 noch weiter und verlangt faktisch ein Vier-Augen-Prinzip.
Was bedeutet das für Ihr Unternehmen?
Unternehmen sollten menschliche Aufsicht nicht an die falschen Personen delegieren. Wer KI-Ausgaben überwacht, braucht Kompetenz, Autorität und echte Handlungsmöglichkeiten. Eine Fachkraft, die Ausgaben zwar sehen, aber nicht übersteuern darf, erfüllt Art. 14 praktisch nicht. Deshalb ist der Artikel eng mit KI-Kompetenz und den Betreiberpflichten aus Artikel 26 verbunden.
Ein belastbarer Mindeststandard umfasst:
- klare Rollen für die Aufsicht,
- dokumentierte Eskalations- und Stop-Prozesse,
- Schulung zu Grenzen und Fehlmustern des Systems.
Besonders wichtig ist das in HR-, Kredit- oder biometrischen Anwendungen, also dort, wo Artikel 6 Hochrisiko-KI auslöst. Mehr Begriffe finden Sie im Glossar, weitere Erklärseiten im Wissensbereich und einen kompakten Praxiseinstieg auf der Kursseite.
Wirksame Aufsicht heißt deshalb immer auch: Zuständige Personen dürfen einer KI fachlich widersprechen und organisatorisch stoppen.