← Zur Wissens-Übersicht
AI Act Hochrisiko KIKI Verordnung HochrisikoAnnex III AI ActHochrisiko-KI-Systeme

AI Act Hochrisiko-KI: Bin ich betroffen? Annex III erklärt

Wann ein KI-System nach Art. 6 und Anhang III der EU-VO 2024/1689 als Hochrisiko-KI gilt und wie Unternehmen ihre Betroffenheit prüfen.

Veröffentlicht: 21. Februar 2026Letzte Aktualisierung: 23. März 20269 Min. Lesezeit

Ja, Ihr Unternehmen kann betroffen sein, wenn ein KI-System Entscheidungen über Menschen, Bildung, kritische Infrastruktur, Kreditwürdigkeit oder ähnliche sensible Bereiche unterstützt. Maßgeblich sind Art. 6 Abs. 2 und Anhang III der EU-VO 2024/1689; die Annex-III-Pflichten gelten nach Art. 113 ab dem 2. August 2026.

Was macht ein KI-System nach dem AI Act zur Hochrisiko-KI?

Hochrisiko-KI entsteht nicht durch das Marketing eines Tools, sondern durch den konkreten Einsatzkontext. Art. 6 EU-VO 2024/1689 kennt zwei Wege: erstens KI als Sicherheitskomponente regulierter Produkte und zweitens eigenständige KI-Systeme in den Bereichen des Anhangs III. Für die meisten Unternehmen ist der zweite Weg entscheidend, weil hier typische Unternehmensanwendungen wie Recruiting, Prüfungsüberwachung oder Kreditwürdigkeitsbewertung auftauchen.

Anhang III ist deshalb praktisch wichtiger als viele Teams denken. Nicht jede generative KI ist automatisch hochriskant, aber dieselbe Technologie kann hochriskant werden, wenn sie Bewerber vorsortiert, Prüfungen überwacht oder den Zugang zu wesentlichen Leistungen beeinflusst. Entscheidend ist also nicht, ob ein Produkt “mit KI” wirbt, sondern ob sein Output Rechte, Chancen oder Sicherheitslagen natürlicher Personen spürbar beeinflusst.

  • Art. 6 Abs. 2 verbindet Hochrisiko-KI mit dem Einsatzkontext, nicht mit dem Modellnamen.
  • Anhang III erfasst typische Unternehmensprozesse wie Recruiting, Prüfung und Scoring.
  • Entscheidend ist die Wirkung auf Rechte, Chancen oder Sicherheit natürlicher Personen.

Der Schnelltest: Bin ich wahrscheinlich betroffen?

Sie sind wahrscheinlich betroffen, wenn Sie mehrere dieser Fragen mit Ja beantworten:

  1. Nutzt Ihr Unternehmen KI in einem Bereich, der in Anhang III genannt ist, etwa Personal, Bildung, Kredit, Versicherungen oder kritische Infrastruktur?
  2. Hat der Output des Systems erkennbaren Einfluss auf eine Entscheidung über Menschen, ihre Chancen oder ihre Sicherheit?
  3. Würde ein falsches Ergebnis zu Benachteiligung, Rechtsnachteilen, Sicherheitsproblemen oder wirtschaftlich gravierenden Folgen führen?
  4. Profilieren Sie natürliche Personen mit dem System oder lassen Sie Profile in Entscheidungen einfließen?
  5. Entwickeln Sie das System selbst oder setzen Sie ein fremdes System in einem sensiblen Prozess ein?

Wenn Sie bei Punkt 1 bis 4 nicken, sollten Sie die Einordnung nicht auf später verschieben. Parallel lohnt sich ein Blick in unsere FAQ zum EU AI Act, weil dort die allgemeine Schulungspflicht und der Nachweisrahmen für Unternehmen bereits zusammengefasst sind.

Welche Annex-III-Bereiche sind für Unternehmen besonders relevant?

Anhang III listet acht Bereiche. Für den Mittelstand sind nicht alle gleich wahrscheinlich, aber mehrere tauchen schneller auf als vermutet.

Bereich aus Anhang IIITypische UnternehmensbeispieleWarum er oft übersehen wird
BiometrieEmotionserkennung am Arbeitsplatz, biometrische Kategorisierung, FernidentifizierungWird oft als “nur Sicherheitstechnik” missverstanden
Kritische InfrastrukturKI in Strom-, Wasser-, Wärme-, Gas- oder VerkehrssystemenRelevanz wird auf Großkonzerne reduziert
Bildung und BerufsausbildungPrüfungsaufsicht, Bewertung, Einstufung, ZugangssystemeInterne Akademien und Zertifikatsprüfungen werden oft vergessen
Beschäftigung und PersonalmanagementCV-Screening, Ranking, Eignungsprognosen, LeistungsüberwachungGerade HR-Tools werden als “nur Assistenz” verkauft
Wesentliche DienstleistungenKredit-Scoring, Versicherungsrisiko, Notruf-PriorisierungFinanz- und Versicherungsfunktionen sitzen oft in Drittsoftware
StrafverfolgungFür private Unternehmen meist nur ausnahmsweise relevantHäufig kein Standardfall im KMU
Migration, Asyl, GrenzkontrolleFür private Unternehmen selten direkt relevantWird eher im öffentlichen Sektor wichtig
Justiz und demokratische ProzesseWahlbeeinflussung, Rechtsanwendung, TatsachenbewertungFür Unternehmen meist nur mittelbar relevant

Für die meisten privaten Unternehmen sind besonders drei Cluster kritisch: Personal, Bildung und wesentliche Dienstleistungen. Genau dort werden heute viele KI-Funktionen als Effizienzfeature verkauft, obwohl der AI Act nicht nach Komfort, sondern nach Risikofolge fragt.

Recruiting und Personalentscheidungen sind der klassische Mittelstandsfall

Recruiting ist einer der klarsten Praxisfälle für Hochrisiko-KI. Anhang III nennt Systeme zur Rekrutierung, Auswahl natürlicher Personen, Entscheidungen über Beschäftigungsverhältnisse, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung ausdrücklich. Wenn ein System Kandidaten vorsortiert, Eignungsscores erstellt oder Mitarbeiterleistung überwacht, ist die Schwelle zur Hochrisiko-KI oft näher als das Vertriebsmaterial vermuten lässt.

Auch “nur unterstützende” HR-KI ist nicht automatisch harmlos. Wenn Recruiter sich faktisch auf Scores oder Rankings verlassen, beeinflusst das Ergebnis die Entscheidung sehr wohl. Unternehmen sollten deshalb nicht nur die Oberfläche eines Tools prüfen, sondern den realen Entscheidungsfluss im Prozess dokumentieren.

Bildung, Prüfung und interne Qualifizierung können ebenfalls erfasst sein

Bildungsbezug ist nicht auf Universitäten begrenzt. Anhang III erfasst auch Systeme zur Bewertung von Lernergebnissen, zur Bestimmung des Bildungsniveaus oder zur Überwachung bei Prüfungen. Für Unternehmen kann das relevant werden, wenn sie KI in Eignungstests, Schulungsprüfungen oder automatisierten Lernbewertungen einsetzen.

Gerade bei internen Assessments wird Hochrisiko-KI oft unterschätzt. Sobald das System über Zugang, Bewertung oder Weiterentwicklung von Personen mitentscheidet, sollten Sie genauer hinschauen. Wenn Sie dagegen nur allgemeine Lerninhalte zum sicheren KI-Einsatz vermitteln wollen, ist unser Kurs für die Art.-4-Pflicht gedacht und nicht selbst Teil eines Annex-III-Use-Cases.

Kredit, Versicherung und andere wesentliche Dienstleistungen sind keine reine Bankensache

Wesentliche private Dienstleistungen sind nicht nur ein Thema für Großbanken. Der Anhang III nennt unter anderem Kreditwürdigkeitsbewertung und Risikobewertung bei Lebens- und Krankenversicherung. Wer in Finanzierung, Leasing, Versicherungsvertrieb oder Scoring-nahen Modellen arbeitet, sollte prüfen, ob KI den Zugang zu wirtschaftlich wesentlichen Leistungen beeinflusst.

Auch SaaS-Anbieter sollten hier wachsam sein. Wenn Sie ein KI-Modul an Kunden liefern, das genau solche Entscheidungen unterstützt, kann Ihre Rolle in Richtung Anbieter kippen. Dann greifen nicht nur Governance-Fragen für den Einsatz, sondern auch die Anbieterpflichten aus Kapitel III.

Was ist meistens keine Hochrisiko-KI?

Viele verbreitete Unternehmensanwendungen sind nach heutigem Stand nicht automatisch Hochrisiko-KI. Typische Beispiele sind Textentwürfe, Übersetzungen, Meeting-Zusammenfassungen, Ideensammlungen oder allgemeine Rechercheassistenten. Diese Systeme können andere Rechtsfragen auslösen, etwa Datenschutz, Geheimnisschutz oder Transparenz, aber sie fallen nicht allein deshalb unter Anhang III.

Die Entwarnung gilt jedoch nur, solange der Einsatzkontext unsensibel bleibt. Dasselbe Grundmodell kann unkritisch sein, wenn es Marketingtexte formuliert, und hochriskant werden, wenn es Bewerber bewertet oder Kreditentscheidungen vorbereitet. “Wir nutzen nur ChatGPT” ist deshalb keine belastbare Klassifizierung, sondern höchstens eine technische Beschreibung.

  • Nicht automatisch hochriskant sind meist Textentwürfe, Übersetzungen und Meeting-Zusammenfassungen.
  • Hochriskant wird derselbe Modelltyp, wenn er in Annex-III-Prozesse mit Personenbezug eingebunden wird.
  • Die technische Bezeichnung eines Tools ersetzt keine rechtliche Einordnung nach Art. 6.

Welche Ausnahmen nennt Art. 6 Abs. 3?

Art. 6 Abs. 3 enthält eine wichtige, aber eng begrenzte Ausnahme. Ein Annex-III-System gilt ausnahmsweise nicht als hochriskant, wenn es kein signifikantes Risiko für Gesundheit, Sicherheit oder Grundrechte natürlicher Personen erzeugt und etwa nur eine begrenzte prozedurale Aufgabe erfüllt, das Ergebnis einer schon abgeschlossenen menschlichen Tätigkeit verbessert, Muster erkennt, ohne eine frühere menschliche Bewertung zu ersetzen oder zu beeinflussen, oder nur eine vorbereitende Aufgabe übernimmt.

Diese Ausnahme ist keine pauschale Beruhigungspille. Wer sich darauf beruft, muss die eigene Bewertung dokumentieren; der Verordnungstext nennt das ausdrücklich in Art. 6 Abs. 4. Außerdem bleibt ein System immer hochriskant, wenn es Profiling natürlicher Personen vornimmt. Genau daran scheitern viele allzu optimistische Einordnungen im Personal- und Scoring-Umfeld.

  • Art. 6 Abs. 3 greift nur bei eng begrenzten, nicht signifikanten Risikokonstellationen.
  • Art. 6 Abs. 4 verlangt eine dokumentierte Begründung der Ausnahme.
  • Profiling natürlicher Personen schließt die Ausnahme aus.

Welche Pflichten kommen bei echter Betroffenheit auf Unternehmen zu?

Wenn Ihr System tatsächlich unter Anhang III fällt, geht es nicht mehr nur um Awareness, sondern um Governance. Kapitel III verlangt dann unter anderem ein Risikomanagementsystem, Daten- und Daten-Governance, technische Dokumentation, Protokollierung, Transparenz gegenüber Betreibern, menschliche Aufsicht sowie Anforderungen an Genauigkeit, Robustheit und Cybersicherheit. Der Pflichtenkern steht in Art. 8 bis 15.

Welche Pflichten Sie konkret tragen, hängt von Ihrer Rolle ab. Anbieter treffen insbesondere die Anforderungen aus Art. 16, Betreiber die Anforderungen aus Art. 26. Für viele Unternehmen bedeutet das praktisch: erst KI-Inventar aufbauen, dann jeden sensiblen Use Case sauber klassifizieren, anschließend Verantwortlichkeiten, Dokumentation und Schulungen festziehen. Wenn Sie nachvollziehbar dokumentieren wollen, wer im Unternehmen welche Grundlagen verstanden hat, hilft ein klar strukturiertes Schulungsformat mit Kurs, Test und Zertifikat.

Die Open-Source-Ausnahme aus Art. 2 Abs. 12 gilt nicht für Hochrisiko-KI nach Art. 6 Abs. 2 und Anhang III. Wenn Sie ein Open-Source-Modell wie Llama oder Mistral in Recruiting, Prüfung, Kreditwürdigkeitsbewertung oder einem anderen Annex-III-Fall einsetzen, greifen für Anbieter die vollen Pflichten aus Art. 16, darunter Risikomanagement, technische Dokumentation, Konformitätsbewertung, Registrierung und Marktüberwachung, auch wenn Code, Gewichte und Modellkarten frei verfügbar sind. Warum Open Source in Hochrisiko-Kontexten keine Entlastung schafft und welche Folgen das für Betreiber und Anbieter hat, erläutert der Beitrag Open-Source-KI im Hochrisiko-Einsatz.

  • Anbieterpflichten nach Art. 16 gelten auch dann, wenn das eingesetzte Modell Open Source ist.
  • Betreiberpflichten nach Art. 26 bleiben zusätzlich relevant, wenn Sie das System produktiv einsetzen.
  • Ein frei zugängliches Modell ersetzt weder Risikomanagement noch technische Dokumentation.

Welche Fristen und Risiken sollten Sie kennen?

Die Fristen sind klar und sollten intern mit Datum kommuniziert werden. Seit dem 2. Februar 2025 gilt die allgemeine KI-Kompetenzpflicht aus Art. 4. Die speziellen Pflichten für Hochrisiko-KI nach Anhang III greifen nach Art. 113 ab dem 2. August 2026. Wer Annex-III-Use-Cases erst im Sommer 2026 identifiziert, startet zu spät.

Auch bei den Sanktionen lohnt sich Genauigkeit statt Alarmismus. Die oft zitierten bis zu 35 Mio. EUR oder 7 % Jahresumsatz gelten nach Art. 99 Abs. 3 für verbotene Praktiken aus Art. 5. Für Verstöße gegen operatorbezogene Pflichten, also etwa Anbieter-, Betreiber- oder Transparenzpflichten, nennt Art. 99 Abs. 4 bis zu 15 Mio. EUR oder 3 % Jahresumsatz. Wer intern sauber kommuniziert, vermeidet zwei Fehler zugleich: Verharmlosung und falsche Panik.

  • Seit dem 2. Februar 2025 gilt Art. 4 zur KI-Kompetenz.
  • Ab dem 2. August 2026 gelten die Annex-III-Pflichten vollständig.
  • Art. 99 Abs. 4 sieht bei Pflichtverstößen bis zu 15 Mio. EUR oder 3 % Jahresumsatz vor.

Was Unternehmen jetzt konkret tun sollten

Der pragmatische Weg ist kurz und machbar. Erfassen Sie zuerst alle KI-Use-Cases mit Personenbezug oder Sicherheitsbezug. Ordnen Sie danach jeden Fall einem Geschäftsprozess zu, nicht nur einem Tool. Prüfen Sie anschließend, ob ein Annex-III-Bereich betroffen ist, ob eine Ausnahme aus Art. 6 Abs. 3 realistisch trägt und ob Profiling vorliegt. Erst danach sollten Sie entscheiden, ob Sie nur Art. 4 sauber umsetzen oder zusätzlich High-Risk-Governance vorbereiten müssen.

Wenn Sie dafür ein gemeinsames Grundverständnis im Team schaffen wollen, starten Sie mit einer kompakten Schulung und gleichen Sie die Ergebnisse mit Ihren Prozessen ab. Unsere Wissensübersicht bündelt die Einordnung, die FAQ beantwortet Standardfragen und auf der Seite Über uns sehen Sie, wie wir die Inhalte aufbereiten.

  • Erfassen Sie alle KI-Use-Cases mit Personen- oder Sicherheitsbezug.
  • Prüfen Sie danach Anhang III, Art. 6 Abs. 3 und mögliches Profiling.
  • Legen Sie erst dann Rollen, Nachweise und Schulungen verbindlich fest.

Fazit: Betroffen sind nicht nur Hersteller, sondern auch Unternehmen mit sensiblen KI-Prozessen

Annex III betrifft nicht nur “große KI-Anbieter”, sondern oft ganz normale Unternehmensprozesse mit hoher Wirkung auf Menschen. Wenn KI bei Recruiting, Prüfungen, Kredit, Versicherung oder kritischer Infrastruktur mitentscheidet, ist eine Hochrisiko-Prüfung Pflichtprogramm. Wenn Sie noch unsicher sind, ob bei Ihnen nur KI-Kompetenz oder bereits High-Risk-Governance ansteht, ist genau jetzt der richtige Zeitpunkt für Inventar, Einordnung und dokumentierte Schulung.

  • Prüfen Sie nicht das Tool isoliert, sondern den konkreten Geschäftsprozess.
  • Dokumentieren Sie jede Ausnahmeentscheidung mit Artikelbezug und Datum.
  • Planen Sie die Umsetzung vor dem 2. August 2026, nicht erst zum Stichtag.

FAQ

Ist ChatGPT automatisch ein Hochrisiko-KI-System?

Nein. Ein allgemeines KI-Modell ist nicht allein wegen seines Namens oder seiner Technologie hochriskant. Entscheidend ist der konkrete Einsatz in einem Annex-III-Bereich und die Frage, ob der Output Entscheidungen über Menschen oder ihre Rechte spürbar beeinflusst.

Ist KI im Recruiting nach dem AI Act regelmäßig Hochrisiko-KI?

Ja, sehr oft. Anhang III nennt Rekrutierung, Auswahl, Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung ausdrücklich. Wer KI dort produktiv einsetzt, sollte grundsätzlich von einer ernsthaften Hochrisiko-Prüfung ausgehen.

Gilt eine vorbereitende KI-Auswertung immer als Ausnahme?

Nein. Eine vorbereitende Aufgabe kann unter Art. 6 Abs. 3 relevant sein, aber nur, wenn kein signifikantes Risiko für Gesundheit, Sicherheit oder Grundrechte entsteht und das System die Entscheidung nicht materiell beeinflusst. In der Praxis ist diese Hürde enger, als viele Anbieter behaupten.

Was, wenn mein Softwareanbieter behauptet, das System sei nicht hochriskant?

Dann sollten Sie sich die Begründung zeigen lassen. Art. 6 Abs. 4 verlangt für solche Fälle eine dokumentierte Bewertung. Als einsetzendes Unternehmen sollten Sie nicht blind auf Marketingaussagen vertrauen, sondern den realen Prozess und die tatsächliche Wirkung des Systems prüfen.

Reicht eine Schulung allein aus, wenn wir Annex-III-Systeme einsetzen?

Nein. Eine Schulung deckt die KI-Kompetenzpflicht aus Art. 4 ab und schafft internes Grundverständnis, ersetzt aber keine Klassifizierung, Dokumentation oder Governance für Hochrisiko-KI. Sie ist der Startpunkt, nicht der Abschluss der Compliance-Arbeit.

Weiterlesen

Ihr KI-Nachweis in 90 Minuten

Seit Februar 2025 gilt der EU AI Act. Jedes Unternehmen in der EU muss nachweisen, dass seine Mitarbeiter im Umgang mit KI geschult sind. Per Gesetz und ohne Ausnahme. Ohne Nachweis drohen Bußgelder bis 35 Mio. EUR oder 7% des Jahresumsatzes.