Kostenloser Selbst-Check

AI Act Selbst-Check: Ist Ihr Unternehmen betroffen?

Seit dem 2. Februar 2025 müssen Unternehmen bei beruflicher KI-Nutzung Art. 4 zur KI-Kompetenz beachten. Dieser Selbst-Check zeigt in 7 Fragen, wie hoch Ihr aktueller Handlungsdruck ungefähr ist und ob sensible AI-Act-Bereiche berührt werden.

Letzte Aktualisierung: 16. März 2026Rechtsgrundlagen: Art. 4, Art. 5, Art. 6, Art. 50, Art. 113 EU-VO 2024/1689

Die Ergebnisstufen Minimal, Begrenzt, Hoch und Kritisch sind eine Orientierungshilfe für den Handlungsdruck. Die offizielle Logik des AI Act unterscheidet verbotene Praktiken nach Art. 5, Hochrisiko-KI nach Art. 6 in Verbindung mit Anhang III sowie Transparenzpflichten nach Art. 50.

Schritt 1 von 70 von 7 Fragen beantwortet

1. Nutzen Sie KI-Systeme im Unternehmen?

Gemeint sind etwa ChatGPT, Copilot, generative Suche oder automatisierte Workflows.

Sobald Mitarbeitende beruflich mit KI-Systemen arbeiten, wird Art. 4 zur KI-Kompetenz relevant.

Minimal

Aktuell geringe direkte Betroffenheit, solange kein produktiver KI-Einsatz besteht.

Vor dem ersten Rollout sollten Sie trotzdem Regeln, Verantwortlichkeiten und eine kurze Startschulung vorbereiten.

Begrenzt

KI wird bereits genutzt, aber nach Ihren Angaben ohne klaren Hochrisiko-Fokus.

Hier stehen Art. 4, interne Regeln, Inventar, Kennzeichnung und Schulungsnachweis im Vordergrund.

Hoch

Ihre Angaben zeigen Nähe zu Hochrisiko-Bereichen oder erhöhten Betreiber- und Anbieterpflichten.

Sie sollten Use Cases gegen Art. 6 und Anhang III prüfen, Verantwortlichkeiten festlegen und die Dokumentation vertiefen.

Kritisch

Es gibt deutliche Signale für besonders sensible oder potenziell verbotene KI-Nutzung.

Hier ist eine sofortige rechtliche und fachliche Prüfung sinnvoll, bevor der Use Case weiter ausgerollt wird.

Was der Selbst-Check bewusst priorisiert

Der Check gewichtet Fälle höher, in denen KI über Personen urteilt, über Zugang oder Leistungen mitentscheidet oder in besonders sensiblen Bereichen eingesetzt wird. Genau dort steigen ab dem 2. August 2026 die formalen Anforderungen für Hochrisiko-KI besonders deutlich.

Wenn Sie nach dem Ergebnis direkt weiterarbeiten wollen, gehen Sie zuerst in die FAQ, prüfen Sie danach den Kursüberblick und nutzen Sie die Über-uns-Seite, wenn Sie die Positionierung und den praktischen Rollout-Kontext einordnen möchten.

Kurs-CTA

Wenn Ihr Ergebnis nicht mehr „Minimal“ ist, sollten betroffene Teams jetzt geschult werden.

Unser Kurs übersetzt Art. 4, verbotene Praktiken, Hochrisiko-Logik, Transparenz und Schulungsnachweis in 90 Minuten auf Unternehmenspraxis.

Häufige Fragen zum Selbst-Check

Ist das Ergebnis eine offizielle Risikoklassifizierung nach dem AI Act?

Nein. Der Selbst-Check liefert nur eine orientierende Ersteinschätzung. Die offizielle Systematik des AI Act unterscheidet insbesondere verbotene Praktiken nach Art. 5, Hochrisiko-KI nach Art. 6 in Verbindung mit Anhang III, Transparenzpflichten nach Art. 50 und sonstige KI-Systeme.

Warum ist schon der Einsatz von ChatGPT oder Copilot relevant?

Weil Art. 4 der EU-VO 2024/1689 seit dem 2. Februar 2025 gilt. Unternehmen müssen seit diesem Datum sicherstellen, dass Mitarbeitende und andere eingesetzte Personen über ausreichende KI-Kompetenz verfügen, sobald sie beruflich mit KI-Systemen arbeiten.

Warum bewertet der Selbst-Check HR und Kundenentscheidungen strenger?

Weil KI in Recruiting, Personalauswahl und anderen personenbezogenen Bewertungsprozessen besonders nah an Hochrisiko-Fällen nach Anhang III liegt. Ähnlich sensibel sind Kredit-, Versicherungs-, Preis- oder Zugangsentscheidungen über natürliche Personen.

Was bedeutet „Kritisch“ in diesem Selbst-Check?

„Kritisch“ ist hier keine gesetzliche Kategorie, sondern ein Warnsignal für akuten Prüfbedarf. Typische Auslöser sind biometrische Systeme sowie insbesondere Emotionserkennung am Arbeitsplatz oder in Bildungsumgebungen. Letztere ist nach Art. 5 grundsätzlich verboten, außer für medizinische oder sicherheitsrelevante Zwecke.