Kapitel IX sowie Art. 99 bis 101 EU-VO 2024/1689
AI Act Enforcement ist die praktische Durchsetzung des AI Act durch Marktüberwachung, Untersuchungen, Korrekturmaßnahmen und Sanktionen.
AI Act EnforcementDurchsetzung AI ActArt 99 AI Act
AI Act Enforcement umfasst behördliche Kontrolle, Untersuchungen, Anordnungen und Sanktionen zur praktischen Durchsetzung der KI-Verordnung.
Begriff ansehen →Kein Artikel im AI Act; COM(2022) 496, offiziell zurückgezogen am 6. Oktober 2025
Die AI Liability Directive war ein eigenständiger Richtlinienvorschlag zur zivilrechtlichen Haftung bei KI-Schäden; sie ist kein Teil der EU-VO 2024/1689.
AI Liability DirectiveKI-HaftungsrichtlinieHaftung KI EU
Die AI Liability Directive war ein separater EU-Richtlinienvorschlag zur Beweisführung bei KI-Schäden und gehört nicht zum eigentlichen AI Act.
Begriff ansehen →Art. 4 und Art. 3 Nr. 56 EU-VO 2024/1689
AI Literacy ist die englische Bezeichnung für KI-Kompetenz und meint das Wissen, Verständnis und Risikobewusstsein für den sachkundigen Umgang mit KI-Systemen.
AI LiteracyKI AlphabetisierungKI Kompetenz englisch
AI Literacy ist die englische Bezeichnung für KI-Kompetenz und beschreibt das erforderliche Wissen für den sachkundigen Einsatz von KI.
Begriff ansehen →Art. 3 Nr. 3 und Nr. 4 EU-VO 2024/1689
Anbieter entwickeln oder bringen KI-Systeme unter eigenem Namen in Verkehr, während Betreiber KI-Systeme in eigener Verantwortung beruflich einsetzen.
Anbieter Betreiber AI ActProvider Deployer AI ActKI Anbieter
Anbieter entwickeln oder vermarkten KI-Systeme, Betreiber nutzen sie in eigener Verantwortung. Diese Rollen entscheiden über die Pflichten im AI Act.
Begriff ansehen →Art. 10 und Art. 27 EU-VO 2024/1689
Bias und Diskriminierung in KI sind systematische Verzerrungen oder Benachteiligungen, die aus Daten, Modellen, Prozessen oder Nutzungskontexten entstehen können.
Bias in KIDiskriminierung KIArt 10 AI Act
Bias und Diskriminierung in KI entstehen, wenn Daten, Modelle oder Prozesse bestimmte Gruppen systematisch benachteiligen oder verzerren.
Begriff ansehen →Art. 3 und Art. 5 EU-VO 2024/1689
Biometrische Fernidentifizierung bezeichnet die Identifizierung natürlicher Personen aus der Distanz anhand biometrischer Daten wie Gesichtsbild oder Gangmuster.
Biometrische FernidentifizierungRemote biometric identificationAI Act Biometrie
Biometrische Fernidentifizierung meint die Identifizierung einer Person aus der Distanz anhand biometrischer Daten.
Begriff ansehen →Art. 48 EU-VO 2024/1689
Die CE-Kennzeichnung bestaetigt bei Hochrisiko-KI-Systemen, dass das erforderliche Konformitaetsverfahren nach dem EU AI Act durchlaufen wurde.
CE Kennzeichnung KICE Kennzeichnung AI ActHochrisiko KI CE
Die CE-Kennzeichnung zeigt bei Hochrisiko-KI-Systemen, dass das Konformitaetsverfahren nach dem EU AI Act ordnungsgemäß durchlaufen wurde.
Begriff ansehen →Art. 10 EU-VO 2024/1689
Daten-Governance nach Art. 10 EU-VO 2024/1689 umfasst Regeln für Qualitaet, Relevanz, Repraesentativitaet und Dokumentation der Daten in Hochrisiko-KI-Systemen.
Daten Governance AI ActArt 10 AI ActKI Datenqualitaet
Daten-Governance umfasst Regeln und Qualitaetsanforderungen für Trainings-, Validierungs- und Testdaten von Hochrisiko-KI.
Begriff ansehen →EU-Gesetzgebungsvorschlag, Stand 16. Maerz 2026
Der Digital Omnibus ist ein EU-Gesetzespaket mit möglichen Änderungen an Digitalregeln wie dem AI Act; Stand 16. Maerz 2026 handelt es sich um Vorschlaege, nicht um geltendes Recht.
Digital Omnibus AI ActAI Act VerschiebungDigital Omnibus EU
Der Digital Omnibus ist ein Reformpaket der EU, das auch den AI Act beruehren kann. Stand 16. Maerz 2026 ist er kein geltendes Recht.
Begriff ansehen →Art. 3 und Art. 5 EU-VO 2024/1689
Echtzeitbiometrie bezeichnet die biometrische Fernidentifizierung nahezu ohne spuerbaren Zeitverzug; ihr Einsatz durch Strafverfolgungsbehörden in öffentlichen Raeumen ist nach Art. 5 grundsaetzlich verboten, ausser in engen Ausnahmen.
EchtzeitbiometrieReal time biometric identificationAI Act Biometrie
Echtzeitbiometrie meint die biometrische Fernidentifizierung nahezu ohne Zeitverzug und ist für Strafverfolgung in öffentlichen Raeumen grundsaetzlich verboten, ausser in engen Ausnahmen.
Begriff ansehen →Art. 13 und Art. 14 EU-VO 2024/1689
Erklärbarkeit ist die nachvollziehbare Beschreibung von Funktionsweise, Grenzen und Ausgaben eines KI-Systems für Betreiber und Aufsichtspersonen.
Erklärbarkeit KIExplainability AI ActArt 13 AI Act
Erklärbarkeit bedeutet, dass Ausgaben und Grenzen eines KI-Systems so beschrieben werden, dass Menschen sie richtig interpretieren und überwachen können.
Begriff ansehen →Kap. VII EU-VO 2024/1689
Das EU AI Office ist die zentrale Einheit der EU-Kommission für Koordination, Leitlinien und Teile der Durchsetzung des EU AI Act, insbesondere bei GPAI-Modellen.
EU AI OfficeArtificial Intelligence OfficeAI Office EU
Das EU AI Office koordiniert die Umsetzung des AI Act auf EU-Ebene und spielt besonders bei GPAI-Modellen eine zentrale Rolle.
Begriff ansehen →Art. 3 Nr. 63 sowie Art. 51 bis 56 EU-VO 2024/1689
General-Purpose AI bezeichnet KI-Modelle mit allgemeinem Verwendungszweck, die für viele verschiedene Aufgaben eingesetzt oder in andere Systeme integriert werden können.
GPAI AI ActGeneral Purpose AIKI Basismodelle
General-Purpose AI bezeichnet KI-Modelle mit allgemeinem Verwendungszweck, für die seit dem 2. August 2025 eigene Regeln gelten.
Begriff ansehen →Art. 3 Nr. 63, Art. 53 und Art. 55
GPAI beziehungsweise KI-Basismodelle sind nach Art. 3 Nr. 63 EU-VO 2024/1689 allgemein einsetzbare Modelle mit breitem Aufgabenspektrum und eigenen Regeln.
GPAIKI BasismodelleGeneral Purpose AI
GPAI beziehungsweise KI-Basismodelle sind nach Art. 3 Nr. 63 EU-VO 2024/1689 allgemein einsetzbare Modelle mit breitem Aufgabenspektrum und eigenen Regeln.
Begriff ansehen →Art. 27 EU-VO 2024/1689
Die Grundrechte-Folgenabschätzung ist die Prüfung nach Art. 27 EU-VO 2024/1689, wie sich bestimmte Hochrisiko-KI-Systeme auf Grundrechte betroffener Personen auswirken.
Grundrechte FolgenabschätzungArt 27 AI ActFRIA AI Act
Die Grundrechte-Folgenabschätzung verlangt für bestimmte Hochrisiko-KI eine Prüfung, wie sich das System auf Rechte und Freiheiten natürlicher Personen auswirkt.
Begriff ansehen →Art. 40 EU-VO 2024/1689
Harmonisierte Standards sind europaeische Normen, deren Anwendung eine Vermutung der Konformitaet mit bestimmten Anforderungen des EU AI Act begründen kann.
Harmonisierte Standards AI ActAI Act StandardsKonformitaetsvermutung KI
Harmonisierte Standards können Anbietern helfen, Konformitaet mit dem AI Act einfacher nachzuweisen.
Begriff ansehen →Art. 6 bis 49 und Anhang I, III EU-VO 2024/1689
Ein Hochrisiko-KI-System ist ein KI-System, das gemäß Art. 6 EU-VO 2024/1689 unter Anhang I oder Anhang III fällt und deshalb strengen Compliance-Pflichten unterliegt.
Hochrisiko KI SystemAI Act HochrisikoAnhang III AI Act
Ein Hochrisiko-KI-System ist ein KI-System nach Art. 6 EU-VO 2024/1689, für das ab dem 2. August 2026 strenge Pflichten gelten.
Begriff ansehen →Art. 13 und Anhang IV EU-VO 2024/1689
Interoperabilität ist die Fähigkeit eines KI-Systems, Informationen, Schnittstellen und Protokolle so bereitzustellen, dass andere Systeme und Prozesse sie verlässlich nutzen können.
Interoperabilität KIAI Act SchnittstellenArt 13 AI Act
Interoperabilität beschreibt im AI-Act-Kontext, ob Informationen, Schnittstellen und Nachweise eines KI-Systems in bestehende Prozesse eingebunden werden können.
Begriff ansehen →Art. 3 Nr. 3 und 4
KI-Anbieter und KI-Betreiber bezeichnen nach Art. 3 Nr. 3 und 4 EU-VO 2024/1689 zwei unterschiedliche Rollen mit unterschiedlichen Pflichten im AI Act.
KI AnbieterKI BetreiberProvider Deployer
KI-Anbieter und KI-Betreiber bezeichnen nach Art. 3 Nr. 3 und 4 EU-VO 2024/1689 zwei unterschiedliche Rollen mit unterschiedlichen Pflichten im AI Act.
Begriff ansehen →Keine ausdrückliche Pflicht in Art. 4 EU-VO 2024/1689
KI-Beauftragte sind interne Verantwortliche für Koordination, Richtlinien und Nachweise rund um KI, ohne dass der EU AI Act diese Rolle ausdrücklich vorschreibt.
KI BeauftragterAI Officer UnternehmenKI Verantwortlicher
Ein KI-Beauftragter ist keine ausdrückliche Pflicht des AI Act, kann aber als interne Governance-Rolle für KI-Kompetenz, Dokumentation und Koordination sinnvoll sein.
Begriff ansehen →Art. 11, Art. 17 und Art. 49 EU-VO 2024/1689
Ein KI-Inventar ist ein strukturiertes internes Register aller im Unternehmen genutzten oder entwickelten KI-Systeme einschließlich Zweck, Rolle und Risikoeinordnung.
KI-InventarAI System RegistryKI Register Unternehmen
Ein KI-Inventar ist das interne Register aller eingesetzten oder entwickelten KI-Systeme und die praktische Grundlage für Klassifizierung, Nachweise und Aufsicht.
Begriff ansehen →Art. 4 und Art. 3 Nr. 56 EU-VO 2024/1689
KI-Kompetenz bezeichnet gemäß Art. 4 und Art. 3 Nr. 56 EU-VO 2024/1689 die Fähigkeiten, Kenntnisse und das Verständnis, die für einen sachkundigen Umgang mit KI-Systemen erforderlich sind.
KI KompetenzArtikel 4 KI VerordnungAI Literacy
KI-Kompetenz bezeichnet im EU AI Act das ausreichende Wissen für den sachkundigen Einsatz von KI-Systemen und ist seit dem 2. Februar 2025 Pflicht.
Begriff ansehen →Art. 3 Nr. 1 EU-VO 2024/1689
Ein KI-System ist gemäß Art. 3 Nr. 1 EU-VO 2024/1689 ein maschinengestuetztes System, das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugt.
KI System DefinitionAI System DefinitionArt 3 KI Verordnung
Ein KI-System ist nach Art. 3 Nr. 1 EU-VO 2024/1689 ein maschinengestuetztes System, das für explizite oder implizite Ziele Vorhersagen, Inhalte oder Entscheidungen erzeugt.
Begriff ansehen →Art. 43 EU-VO 2024/1689
Die Konformitaetsbewertung ist das Verfahren, mit dem Anbieter nachweisen, dass ein Hochrisiko-KI-System die Anforderungen des EU AI Act erfuellt.
Konformitaetsbewertung AI ActAI Act KonformitaetsbewertungHochrisiko KI Prüfung
Die Konformitaetsbewertung prüft, ob ein Hochrisiko-KI-System die Anforderungen des AI Act erfuellt, bevor es in Verkehr gebracht wird.
Begriff ansehen →Art. 47 und Anhang V EU-VO 2024/1689
Die EU-Konformitaetserklärung ist die formale Erklärung des Anbieters, dass ein Hochrisiko-KI-System die einschlaegigen Anforderungen des EU AI Act erfuellt.
Konformitaetserklärung AI ActEU Konformitaetserklärung KIAI Act Anbieterpflichten
Die EU-Konformitaetserklärung ist die formale Erklärung des Anbieters, dass ein Hochrisiko-KI-System die Anforderungen des AI Act erfuellt.
Begriff ansehen →Kap. IX sowie Art. 70 EU-VO 2024/1689
Eine Marktaufsichtsbehörde überwacht die Einhaltung des EU AI Act, prüft Unterlagen und kann bei nicht konformen KI-Systemen einschreiten.
Marktaufsichtsbehörde AI ActAI Act AufsichtBundesnetzagentur AI Act
Marktaufsichtsbehörden überwachen, ob KI-Systeme die Anforderungen des AI Act einhalten, und können Maßnahmen bei Verstoßen anordnen.
Begriff ansehen →Kapitel IX, insbesondere Art. 74 EU-VO 2024/1689
Marktüberwachung ist die behördliche Kontrolle von KI-Systemen, Unterlagen und Compliance-Prozessen nach Kapitel IX des AI Act.
Marktüberwachung KIMarket Surveillance AI ActAI Act Aufsicht
Marktüberwachung meint die behördliche Kontrolle, ob KI-Systeme die Anforderungen des AI Act einhalten und welche Maßnahmen bei Verstößen folgen.
Begriff ansehen →Art. 14 EU-VO 2024/1689
Menschliche Aufsicht nach Art. 14 EU-VO 2024/1689 verlangt, dass Hochrisiko-KI-Systeme so gestaltet und genutzt werden, dass Menschen ihre Wirkung verstehen, überwachen und notfalls eingreifen können.
Menschliche Aufsicht AI ActArt 14 AI ActHuman Oversight KI
Menschliche Aufsicht bedeutet, dass Hochrisiko-KI nicht unkontrolliert laufen darf, sondern durch geeignete Personen überwacht und notfalls korrigiert werden kann.
Begriff ansehen →Art. 28 bis 39 EU-VO 2024/1689
Eine notifizierte Stelle ist eine benannte, unabhängige Konformitaetsbewertungsstelle, die in bestimmten Fällen die Konformitaet von Hochrisiko-KI mitprüft.
Notifizierte Stelle AI ActBenannte Stelle KIAI Act conformity body
Eine notifizierte Stelle ist eine benannte, unabhängige Prüfstelle, die in bestimmten Fällen an der Konformitaetsbewertung beteiligt ist.
Begriff ansehen →Art. 72 EU-VO 2024/1689
Post-Market-Monitoring ist die laufende Beobachtung eines Hochrisiko-KI-Systems nach dem Inverkehrbringen, um neue Risiken, Fehlfunktionen und Compliance-Probleme früh zu erkennen.
Post Market Monitoring AI ActMarktbeobachtung KIAI Act Art 72
Post-Market-Monitoring bezeichnet die laufende Beobachtung eines Hochrisiko-KI-Systems nach dem Inverkehrbringen.
Begriff ansehen →Art. 17 EU-VO 2024/1689
Das Qualitaetsmanagementsystem nach Art. 17 EU-VO 2024/1689 umfasst die organisatorischen Prozesse, Verantwortlichkeiten und Kontrollen für Hochrisiko-KI bei Anbietern.
Qualitaetsmanagementsystem AI ActArt 17 AI ActQMS KI
Ein Qualitaetsmanagementsystem legt die organisatorischen Prozesse fest, mit denen Anbieter Hochrisiko-KI compliant entwickeln und betreiben.
Begriff ansehen →Art. 5, Art. 6 und Art. 50 EU-VO 2024/1689
Die Risikoklassen im AI Act ordnen KI-Systeme in verbotene Praktiken, Hochrisiko, begrenztes Risiko und minimales Risiko ein.
AI Act RisikoklassenRisikoklassen KI VerordnungKI Verordnung Risiko
Der EU AI Act arbeitet mit vier Risikoklassen: verboten, hochriskant, begrenztes Risiko und minimales Risiko.
Begriff ansehen →Art. 9 EU-VO 2024/1689
Ein Risikomanagement-System ist gemäß Art. 9 EU-VO 2024/1689 ein kontinuierlicher Prozess zur Identifikation, Bewertung und Minderung von Risiken bei Hochrisiko-KI-Systemen.
Risikomanagement System AI ActArt 9 AI ActKI Risikomanagement
Ein Risikomanagement-System ist der laufende Prozess, mit dem Anbieter Risiken von Hochrisiko-KI identifizieren, bewerten und mindern.
Begriff ansehen →Art. 57 bis 59 EU-VO 2024/1689
Eine Regulatory Sandbox ist ein beaufsichtigtes Testumfeld nach dem AI Act, in dem KI-Systeme unter regulatorischer Begleitung entwickelt, validiert oder erprobt werden.
Regulatory Sandbox AI ActAI Sandbox EUKI Reallabor
Eine Regulatory Sandbox ist ein beaufsichtigtes Testumfeld, in dem KI-Systeme unter regulatorischer Begleitung entwickelt oder erprobt werden können.
Begriff ansehen →Art. 57 bis 59 EU-VO 2024/1689
Ein Sandbox-Verfahren ist ein behördlich begleitetes Testumfeld, in dem Unternehmen KI-Systeme vor dem regulären Markteinsatz strukturiert erproben können.
Sandbox-VerfahrenRegulatory Sandbox AI ActKI-Reallabor
Ein Sandbox-Verfahren ist ein beaufsichtigtes Testumfeld, in dem KI-Systeme unter regulatorischer Begleitung entwickelt oder erprobt werden können.
Begriff ansehen →Art. 4 EU-VO 2024/1689; kein starres Format vorgeschrieben
Ein Schulungsnachweis dokumentiert die Maßnahmen, Inhalte und Teilnehmenden, mit denen ein Unternehmen KI-Kompetenz im Sinne von Art. 4 EU-VO 2024/1689 aufgebaut hat.
AI Act SchulungsnachweisKI KompetenznachweisKI Schulung dokumentieren
Ein Schulungsnachweis dokumentiert, welche Maßnahmen ein Unternehmen zur KI-Kompetenz seiner Teams umgesetzt hat. Der AI Act schreibt dafür kein starres Format vor.
Begriff ansehen →Art. 3, Art. 51 und Art. 55 EU-VO 2024/1689
Systemisches Risiko bezeichnet im EU AI Act besonders weitreichende Risiken bestimmter GPAI-Modelle, für die verschaerfte Anforderungen und Aufsicht gelten.
Systemisches Risiko AI ActGPAI systemisches RisikoAI Office GPAI
Systemisches Risiko bezeichnet im AI Act besonders weitreichende Risiken bestimmter GPAI-Modelle, für die verschaerfte Pflichten gelten.
Begriff ansehen →Art. 11 und Anhang IV EU-VO 2024/1689
Die technische Dokumentation nach Art. 11 EU-VO 2024/1689 beschreibt Aufbau, Zweck, Risiken, Daten und Schutzmaßnahmen eines Hochrisiko-KI-Systems.
Technische Dokumentation AI ActArt 11 AI ActKI Dokumentation
Die technische Dokumentation beschreibt Aufbau, Zweck, Risiken und Schutzmaßnahmen eines KI-Systems und ist für Hochrisiko-KI zwingend.
Begriff ansehen →Art. 50 EU-VO 2024/1689
Transparenzpflichten nach Art. 50 EU-VO 2024/1689 verpflichten bestimmte KI-Anwendungen dazu, ihre KI-Natur oder künstliche Inhalte offenzulegen.
Transparenzpflichten AI ActArt 50 AI ActKI Kennzeichnungspflicht
Transparenzpflichten verlangen unter anderem, dass Nutzer erkennen können, wenn sie mit KI interagieren oder Inhalte künstlich erzeugt wurden.
Begriff ansehen →Art. 5 EU-VO 2024/1689
Verbotene KI-Praktiken sind KI-Nutzungen nach Art. 5 EU-VO 2024/1689, die wegen ihrer Eingriffsintensitaet grundsaetzlich untersagt sind.
Verbotene KI PraktikenArt 5 AI ActAI Act Verbote
Verbotene KI-Praktiken nach Art. 5 EU-VO 2024/1689 duerfen seit dem 2. Februar 2025 grundsaetzlich nicht eingesetzt werden.
Begriff ansehen →