NIS2 AI Act: Doppelte Compliance-Pflicht meistern
Unternehmen, die sowohl KI-Systeme einsetzen als auch unter die NIS2-Richtlinie fallen, unterliegen ab 2025/2026 einer doppelten Compliance-Pflicht aus AI Act und NIS2. Der finanzielle Hebel ist erheblich: Der AI Act sieht Bußgelder von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes vor, NIS2 für wesentliche Einrichtungen mindestens bis zu 10 Millionen Euro oder 2 Prozent Umsatz; je nach Abgrenzung dürften in Deutschland 15.000 oder mehr Unternehmen von dieser Doppelperspektive betroffen sein, wenn sie in kritischen Sektoren tätig sind und gleichzeitig KI produktiv einsetzen.
Die kurze Antwort lautet deshalb: Ja, dieselben Unternehmen können parallel zwei europäische Compliance-Regime erfüllen müssen, aber sie sollten dafür kein doppeltes Parallelprogramm aufbauen. Die wirtschaftlichste Strategie ist ein integriertes Governance-Modell mit gemeinsamer Risikoarchitektur, abgestimmten Meldewegen, einer einheitlichen Lieferkettenprüfung und sauber dokumentierter KI-Kompetenz. Wer die Grundlagen zum AI Act vertiefen will, findet den Einstieg in der AI Act Checkliste für Unternehmen, die NIS2-Perspektive im NIS2-Hub und die Governance-Brücke in ISO 42001.
Wichtig ist die juristische Einordnung: Der AI Act als Verordnung gilt unmittelbar in der EU und ist seit dem 1. August 2024 in Kraft; erste Pflichten wie Art. 4 und die Verbote nach Art. 5 gelten seit dem 2. Februar 2025, weitere große Stufen folgen ab dem 2. August 2026. NIS2 ist dagegen eine Richtlinie mit Umsetzungsfrist zum 17. Oktober 2024. Für Deutschland ist deshalb zwischen der europäischen Pflichtarchitektur und der konkreten nationalen Aufsicht zu unterscheiden. Die Europäische Kommission hat Deutschland am 28. November 2024 wegen fehlender vollständiger Umsetzung adressiert. Für betroffene Unternehmen ändert das aber nichts am Handlungsdruck: Die Governance, die unter NIS2 verlangt wird, lässt sich nicht erst aufbauen, wenn die erste Prüfung ansteht.
Wo sich NIS2 und AI Act tatsächlich überschneiden
Die Überschneidung zwischen NIS2 und AI Act liegt nicht in identischen Normtexten, sondern in denselben betrieblichen Kontrollpunkten. Beide Regime fragen, ob Risiken systematisch erkannt, dokumentiert, reduziert und gegenüber Aufsicht oder Management nachgewiesen werden. Wer KI in einem NIS2-relevanten Umfeld nutzt, etwa in Energie, Gesundheitswesen, Finanzsektor, Transport, digitaler Infrastruktur oder öffentlicher Verwaltung, bearbeitet deshalb oft denselben Sachverhalt aus zwei Rechtslogiken.
Die erste Logik ist organisationsbezogen. NIS2 verlangt Cybersicherheits-Risikomanagement, Incident Handling, Business Continuity, Krisenmanagement, Lieferkettenkontrollen und Management-Verantwortung. Die zweite Logik ist systemspezifisch. Der AI Act fragt zusätzlich, ob ein KI-System verboten, transparent, begrenzt riskant oder hochriskant ist und ob für Hochrisiko-KI Anforderungen wie Risikomanagement, Daten-Governance, technische Dokumentation, menschliche Aufsicht und Cybersicherheit erfüllt sind. Die fachliche Grundlage dazu finden Sie auch in AI Act Hochrisiko-KI nach Annex III und Anbieter vs. Betreiber im AI Act.
Das Kernproblem in der Praxis lautet daher nicht "NIS2 oder AI Act?", sondern "Welche Pflichten treffen denselben Prozess gleichzeitig?". Ein Krankenhaus mit KI-gestützter Triage, eine Bank mit Kredit-Scoring, ein Energieversorger mit Laststeuerung oder ein Cloud-Anbieter mit KI-basierter Missbrauchserkennung können dieselbe technische Umgebung zugleich unter Cybersicherheits-, Governance- und KI-Sicherheitsgesichtspunkten prüfen müssen.
Welche Unternehmen doppelt betroffen sind
Doppelt betroffen sind vor allem Unternehmen, die zwei Voraussetzungen gleichzeitig erfüllen. Erstens müssen sie in den persönlichen oder sektoriellen Anwendungsbereich von NIS2 fallen. Zweitens müssen sie KI-Systeme so einsetzen, betreiben oder bereitstellen, dass neben allgemeiner KI-Nutzung auch spezifische AI-Act-Pflichten relevant werden. Nicht jedes KI-Tool erzeugt sofort einen Hochrisiko-Fall, aber fast jedes produktive KI-Programm erzeugt mindestens Governance-, Kompetenz- und Dokumentationsbedarf.
Besonders hoch ist die Überschneidung in diesen Sektoren:
- Energie: Netzsteuerung, Lastprognosen, Anomalieerkennung und Instandhaltung mit KI.
- Gesundheitswesen: Diagnostik, Priorisierung, klinische Entscheidungshilfen oder Verwaltungsautomatisierung.
- Finanzwesen: Fraud Detection, Kreditwürdigkeitsprüfung, Betrugsmuster, Marktüberwachung.
- Transport: Verkehrssteuerung, Flottenüberwachung, Routing und sicherheitskritische Assistenzsysteme.
- Digitale Infrastruktur: Cloud-Sicherheit, Abuse Detection, DDoS-Abwehr, Ressourcensteuerung.
- Öffentliche Verwaltung: Entscheidungsvorbereitung, Dokumentenverarbeitung, Leistungsgewährung.
Die Doppelbetroffenheit steigt deutlich, sobald das KI-System in einen Kernprozess eingebettet ist. Ein internes Texttool für das Marketing kann AI-Act-Kompetenzpflichten auslösen, aber typischerweise keine Hochrisiko-Architektur. Eine KI im Recruiting, in der Kreditvergabe, in der medizinischen Diagnostik oder in sicherheitskritischer Infrastruktur ist dagegen wesentlich näher an Hochrisiko-KI und damit an einer verdichteten Doppelpflicht. Unternehmen sollten deshalb zuerst ein KI-Inventar aufbauen und anschließend jeden Use Case gegen Sektor, Rolle, Kritikalität und Risikoklasse mappen.
NIS2 vs. AI Act im direkten Vergleich
Die folgende Übersicht zeigt die praktisch wichtigsten Unterschiede und Überschneidungen zwischen beiden Regimen:
| Aspekt | NIS2 | AI Act | Praktische Schlussfolgerung |
|---|---|---|---|
| Scope | Einrichtungen in wesentlichen und wichtigen Sektoren nach Richtlinie (EU) 2022/2555 | Anbieter, Betreiber, Einführer, Händler und teils Produkthersteller von KI-Systemen | Ein Unternehmen kann zugleich NIS2-Einrichtung und AI-Act-Betreiber oder Anbieter sein. |
| Regulierungslogik | Organisation und deren Netz- und Informationssysteme | KI-Systeme und ihre Rolle im Lebenszyklus | NIS2 schützt die Organisation, der AI Act steuert das KI-System. |
| Kernpflichten | Risikomanagement, Incident Response, Business Continuity, Lieferkette, Governance | Risikomanagement, Daten-Governance, Dokumentation, Transparenz, menschliche Aufsicht, Robustheit | Ein gemeinsames Control Framework ist sinnvoll, aber nicht identisch. |
| Cybersicherheit | Schutz von Infrastruktur, Netzen, Prozessen und Betriebsfähigkeit | Bei Hochrisiko-KI Schutz von Genauigkeit, Robustheit und Cybersicherheit nach Art. 15 | Sie brauchen sowohl klassische Cyberkontrollen als auch KI-spezifische Schutzmaßnahmen. |
| Meldepflichten | Frühwarnung binnen 24 Stunden, Meldung binnen 72 Stunden, Abschlussbericht binnen 1 Monat | Schwere Vorfälle bei Hochrisiko-KI grundsätzlich binnen 15 Tagen nach Art. 73 | Ein Vorfall kann zwei Meldepfade mit unterschiedlichen Behörden auslösen. |
| Bußgelder | Mindestens bis zu 10 Mio. EUR oder 2 Prozent Umsatz bei wesentlichen Einrichtungen; 7 Mio. EUR oder 1,4 Prozent bei wichtigen Einrichtungen | Bis zu 35 Mio. EUR oder 7 Prozent Umsatz je nach Verstoß | Doppelte Defizite erhöhen finanziellen Druck und Organhaftungsrisiken. |
| Zuständige Behörden | Nationale Cybersicherheits- und Aufsichtsbehörden bzw. CSIRTs | Marktüberwachungsbehörden, notifizierte Stellen, nationale Aufsicht je nach Rolle | Compliance muss behördenfähig, aber nicht zwingend in einem einzigen Bericht abbildbar sein. |
| Fristen | Umsetzungsfrist der Mitgliedstaaten: 17. Oktober 2024 | In Kraft seit 1. August 2024; erste Pflichten seit 2. Februar 2025; breite Stufe ab 2. August 2026 | 2025 und 2026 sind die entscheidenden Aufbaujahre für integrierte Programme. |
Die Tabelle macht einen Punkt deutlich: NIS2 und AI Act sind keine konkurrierenden Regime, sondern zwei Ebenen desselben Kontrollproblems. NIS2 fragt, ob Ihre Organisation cyberresilient geführt wird. Der AI Act fragt, ob Ihr KI-System rechtlich zulässig, technisch beherrscht und nachvollziehbar betrieben wird. Unternehmen, die getrennte Silos aufbauen, erzeugen deshalb oft doppelte Dokumentation und trotzdem blinde Flecken.
Überschneidung 1: gemeinsames Risikomanagementsystem
Der größte Synergiehebel liegt im Risikomanagement. NIS2 verlangt einen dokumentierten, wiederholbaren Umgang mit Cyberrisiken. Der AI Act verlangt für Hochrisiko-KI ein Risikomanagementsystem über den gesamten Lebenszyklus. Beide Anforderungen lassen sich in einer gemeinsamen Governance-Architektur bündeln, wenn die Risikofelder sauber getrennt und gleichzeitig zusammengeführt werden.
Ein praxistaugliches Modell arbeitet mit einem gemeinsamen Register und vier Kontrollschichten. Schicht eins erfasst den Use Case: Zweck, Fachbereich, Anbieter, Datenarten, betroffene Personen, Kritikalität. Schicht zwei bewertet die NIS2-Relevanz: Geschäftsprozess, Betriebsabhängigkeit, Ausfallfolgen, Lieferkettenbezug, Incident-Auswirkungen. Schicht drei bewertet den AI-Act-Status: Rolle, Risikoklasse, Transparenzpflichten, Hochrisiko-Indikatoren, Dokumentationspflichten. Schicht vier definiert Maßnahmen, Verantwortliche und Evidenzen. So vermeiden Sie getrennte Excel-Welten für IT-Security, Datenschutz, Fachbereich und Compliance.
Ein gemeinsames Risikomanagementsystem spart aber nur dann Aufwand, wenn die Mindestfragen beider Regime vollständig enthalten sind. Reine Cyberregister reichen nicht aus, wenn keine Aussage zur Rolle als Anbieter oder Betreiber, zur Risikoklassen im AI Act, zur menschlichen Aufsicht oder zur Modellrobustheit dokumentiert wird. Umgekehrt genügt ein reines AI-Act-Assessment nicht, wenn Notfallvorsorge, Lieferkettenausfälle, Backup-Konzepte oder Management-Verantwortung fehlen.
Überschneidung 2: Cybersicherheit nach Art. 15 AI Act und NIS2
Die häufigste Fehlannahme lautet, NIS2 decke die Cybersicherheit von KI bereits vollständig ab. Das ist zu kurz. NIS2 adressiert die Cybersicherheits-Governance der Einrichtung und ihrer Netz- und Informationssysteme. Art. 15 des AI Acts verlangt darüber hinaus bei Hochrisiko-KI ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit des Systems selbst.
Der Unterschied ist praktisch relevant. NIS2 fragt etwa nach Zugriffsschutz, Segmentierung, Business Continuity, Incident Detection, Verschlüsselung, Lieferkette und Krisenmanagement. Art. 15 AI Act fragt zusätzlich, ob das KI-System gegen Datenvergiftung, Modellmanipulation, adversariale Eingaben, unbefugte Änderung und Vertraulichkeitsverletzungen widerstandsfähig ist. Ein Kredit-Scoring-System kann also unter NIS2 formal gut abgesichert sein und trotzdem unter AI-Act-Gesichtspunkten unzureichend geschützt sein, wenn Trainingsdaten, Modellausgaben oder Thresholds manipulierbar bleiben.
Die operative Schlussfolgerung lautet: Klassische IT-Security-Kontrollen und KI-spezifische Security-Kontrollen müssen zusammengeführt werden. Für viele Unternehmen ist das neu, weil Security-Teams bisher Infrastruktur sichern, aber nicht die Angriffsoberfläche von Modellen, Datensätzen und Inferenzpfaden. Genau hier liegt einer der größten Reifegradunterschiede zwischen allgemeiner Cyber-Compliance und AI-Act-Readiness.
Überschneidung 3: Incident Reporting und doppelte Meldeuhr
Die kritischste Überschneidung betrifft Vorfälle. NIS2 sieht gestufte Meldefristen vor: eine Frühwarnung binnen 24 Stunden, eine Meldung binnen 72 Stunden und einen Abschlussbericht binnen einem Monat. Der AI Act verlangt für schwere Vorfälle bei Hochrisiko-KI grundsätzlich eine Meldung binnen 15 Tagen nach Art. 73. Damit kann ein einziger Vorfall zwei unterschiedliche Berichtspflichten mit verschiedenen Triggern, Fristen und Behörden auslösen.
Ein Beispiel zeigt das Problem: Ein Krankenhaus nutzt ein KI-System zur Priorisierung oder Diagnostik. Ein Manipulations- oder Datenintegritätsvorfall beeinträchtigt die Systemleistung und gefährdet die Versorgung. Aus NIS2-Sicht kann das ein erheblicher Cybervorfall sein, der schnell an die zuständige Stelle gemeldet werden muss. Aus AI-Act-Sicht kann derselbe Vorfall zusätzlich ein schwerer Vorfall eines Hochrisiko-Systems sein. Unternehmen brauchen deshalb kein gemeinsames Dokument, aber einen gemeinsamen Incident Intake mit zwei Rechtsprüfungen.
Sinnvoll ist ein Meldeprozess mit sechs festen Prüffragen:
- Ist der Vorfall sicherheitsrelevant für eine NIS2-Einrichtung oder ihren Dienst?
- Betrifft der Vorfall ein KI-System, das als Hochrisiko-KI oder sicherheitskritische Komponente einzuordnen ist?
- Welche unmittelbaren Auswirkungen bestehen für Verfügbarkeit, Integrität, Vertraulichkeit oder Sicherheit?
- Welche Behörde oder Meldestelle ist zuständig?
- Welche Evidenzen müssen innerhalb von 24 Stunden, 72 Stunden und 15 Tagen vorliegen?
- Wer entscheidet intern über Eskalation, Freigabe und externe Kommunikation?
Unternehmen, die diese Fragen nicht vorab definieren, verlieren im Ereignisfall wertvolle Zeit zwischen IT, Fachbereich, Recht und Management. Der richtige Ansatz ist ein gemeinsames Incident Playbook, das NIS2- und AI-Act-Pfade parallel abbildet.
Überschneidung 4: Lieferkette, Beschaffung und Drittparteien
NIS2 und AI Act treffen sich ebenfalls in der Lieferkette. NIS2 verlangt eine ernsthafte Betrachtung von Drittparteien, Dienstleistern, Abhängigkeiten und Beschaffungsrisiken. Der AI Act zwingt Unternehmen zusätzlich dazu, Anbieterunterlagen, Rollenverteilung, technische Dokumentation, Gebrauchsanweisungen, Trainings- und Testlogik sowie Sicherheitsmerkmale von KI-Systemen zu prüfen. Das betrifft besonders Unternehmen, die KI nicht selbst entwickeln, sondern einkaufen.
Für die Praxis bedeutet das: Einkauf, IT, Informationssicherheit und Compliance brauchen einen einheitlichen Vendor-Review. Dieser Review sollte mindestens folgende Punkte enthalten: Rolle des Anbieters, Risikoklasse des Systems, Nachweise zur Cybersicherheit, Logging und Monitoring, Incident- und Patch-Prozess, Datenverarbeitung, Supportmodell, Audit-Rechte und Verantwortlichkeiten bei Vorfällen. Ein gemeinsamer Fragebogen spart hier viel Zeit. Wer dafür noch einen Ausgangspunkt braucht, sollte die operative Perspektive aus AI Act Compliance Fehler und ChatGPT im Unternehmen ergänzen.
Überschneidung 5: Management-Verantwortung und Schulung
Doppelte Compliance ist immer auch ein Führungsproblem. NIS2 legt großen Wert auf Management-Verantwortung, Aufsicht und Governance. Der AI Act verlangt seit dem 2. Februar 2025 nach Art. 4 ausreichende KI-Kompetenz bei den Personen, die KI-Systeme betreiben oder darüber verfügen. Das bedeutet für die Organisation: Ohne strukturierte Schulung und klare Verantwortungszuweisung wird aus einem Technologieprojekt schnell ein Haftungs- und Governance-Defizit.
Viele Unternehmen behandeln Schulung noch zu eng, nämlich als HR-Maßnahme oder Nachweisfolie. Für NIS2 und AI Act reicht das nicht. Erforderlich ist ein rollenspezifisches Kompetenzmodell für Management, IT-Security, Einkauf, Fachbereiche, Datenschutz, Compliance und produktnahe Teams. Management muss die Pflichtenarchitektur verstehen und Entscheidungen freigeben können. Security muss die technische Angriffsfläche erkennen. Fachbereiche müssen wissen, wann ein Use Case freigabepflichtig ist. Genau diese Baseline beschreibt der Leitfaden KI-Kompetenz im Team.
Die wirtschaftlichste Umsetzung ist ein gemeinsames Schulungsprogramm mit gemeinsamer Basisschulung und rollenbezogenen Vertiefungen. Damit erfüllen Unternehmen weder nur formal noch doppelt, sondern verhältnismäßig. Wenn Sie die Nachweisseite direkt aufsetzen wollen, ist die EU AI Act Schulung der schnellste Baustein für dokumentierte KI-Kompetenz.
Integrierter Compliance-Fahrplan für 2025 und 2026
Die beste Antwort auf NIS2 AI Act Doppelpflicht ist kein Großprojekt mit unklarer Laufzeit, sondern ein klarer Fahrplan in fünf Phasen.
Phase 1: Scope und Inventar in 30 Tagen
Beginnen Sie mit einer belastbaren Bestandsaufnahme. Listen Sie NIS2-relevante Geschäftsprozesse, betroffene Einrichtungen, kritische Dienstleister und alle produktiven KI-Use-Cases auf. Ordnen Sie jedem KI-System Eigentümer, Fachbereich, Anbieter, Datenarten, Kritikalität, Betriebsumgebung und potenzielle AI-Act-Risikoklasse zu. Ohne Inventar ist jede weitere Steuerung zufällig.
Phase 2: Gap-Analyse in 30 bis 45 Tagen
Prüfen Sie danach die größten Lücken entlang von Governance, Technik und Nachweisen. Typische Defizite sind fehlende Rollenklärung, kein einheitliches Freigabeverfahren für KI, unzureichende Lieferantenprüfung, kein KI-spezifischer Incident-Prozess, fehlende Evidenzen zur Robustheit und keine dokumentierte Kompetenzmatrix. Die Gap-Analyse sollte bewusst beide Regime in einer Matrix zusammenführen.
Phase 3: Gemeinsames Control Framework aufbauen
Definieren Sie jetzt ein Steuerungsmodell mit verbindlichen Kontrollen. Dazu gehören ein gemeinsamer Risiko-Workflow, ein Incident Playbook, eine Vendor-Due-Diligence, eine Management-Reporting-Struktur, ein Freigabeprozess für neue KI-Use-Cases und ein Nachweissystem für Schulung und Entscheidungen. Unternehmen mit mehreren Standorten oder regulierten Fachbereichen sollten diese Kontrollen zentral definieren und lokal operationalisieren.
Phase 4: Schulung und Verantwortlichkeiten umsetzen
Schulen Sie Management und operative Rollen nicht gleichzeitig, sondern entlang ihrer tatsächlichen Pflichten. Das Management braucht Entscheidungs- und Aufsichtswissen. IT- und Security-Teams brauchen technische und prozessuale Tiefe. Fachbereiche brauchen Leitplanken zur Nutzung, Freigabe und Eskalation. Einkauf und Recht brauchen Lieferketten- und Vertragskompetenz. Die Schulung ist dabei kein Nebenprodukt, sondern ein tragender Bestandteil der Governance.
Phase 5: Testen, dokumentieren, nachschärfen
Führen Sie abschließend einen Tabletop-Test für einen KI-bezogenen Cybervorfall durch. Prüfen Sie, ob die Organisation innerhalb von Stunden entscheiden kann, welche Systeme betroffen sind, welche Meldeuhr läuft, welche Behörde zuständig ist und welche Evidenzen fehlen. Genau an diesem Test zeigt sich, ob NIS2 und AI Act nur auf Papier zusammengeführt wurden oder operativ funktionieren.
Typische Fehler bei doppelter Compliance
Der häufigste Fehler ist die falsche Organisationslogik. Viele Unternehmen vergeben NIS2 an die Informationssicherheit und den AI Act an einen isolierten Fachbereich oder an Legal. Dadurch entstehen getrennte Register, widersprüchliche Bewertungen und Lücken im Incident Management. Besser ist ein gemeinsames Governance Board mit klaren Verantwortlichkeiten.
Der zweite Fehler ist die Gleichsetzung von IT-Sicherheit mit KI-Sicherheit. Firewalls, IAM und Backups bleiben wichtig, aber sie beantworten nicht automatisch Fragen nach Datenvergiftung, Modellrobustheit, Output-Kontrollen oder menschlicher Aufsicht. Wer diese Unterscheidung übersieht, wird beim AI Act regelmäßig zu optimistisch.
Der dritte Fehler ist die Vernachlässigung der Beschaffung. Gerade eingekaufte KI-Systeme erzeugen die größten Grauzonen, weil Unternehmen die technische Logik oft nicht selbst entwickeln, aber trotzdem Pflichten als Betreiber oder Beschaffer tragen. Verträge, Anbieterunterlagen, Rollenklärung und Dokumentation gehören deshalb früh in den Prozess.
Der vierte Fehler ist fehlende Management-Einbindung. NIS2 wie AI Act sind keine rein technischen Pflichten. Ohne Vorstand, Geschäftsführung oder Bereichsleitung, die Prioritäten, Budget und Eskalationen tragen, bleibt die Umsetzung fragmentiert.
CTA: So starten Sie ohne Doppelarbeit
Wenn Ihr Unternehmen NIS2-relevant ist und gleichzeitig KI produktiv einsetzt, sollten Sie nicht zwei isolierte Compliance-Programme starten. Der sinnvollere nächste Schritt ist ein integriertes Vorgehen mit KI-Inventar, gemeinsamer Risikoarchitektur, abgestimmten Meldewegen und dokumentierter Kompetenz. Für den schnellen Einstieg in die Nachweisseite können Sie die EU AI Act Schulung nutzen; für ein vertiefendes Gespräch zur Governance-Umsetzung ist ein Termin über Kostenloses Erstgespräch der pragmatischste Startpunkt.
Häufige Fragen zu NIS2 und AI Act
Welche Unternehmen sind von NIS2 und AI Act gleichzeitig betroffen?
Gleichzeitig betroffen sind vor allem Unternehmen in NIS2-relevanten Sektoren, die KI in kritischen oder regulierten Prozessen einsetzen. Besonders hoch ist die Überschneidung bei Gesundheitswesen, Finanzsektor, Energie, Transport, digitaler Infrastruktur und öffentlicher Verwaltung.
Wie überschneiden sich NIS2 und AI Act bei Cybersicherheit?
NIS2 verlangt Cybersicherheitsmaßnahmen für die Organisation und ihre Netz- und Informationssysteme. Der AI Act verlangt zusätzlich bei Hochrisiko-KI KI-spezifische Maßnahmen zur Genauigkeit, Robustheit und Cybersicherheit des Systems selbst. Beide Ebenen müssen zusammengedacht werden.
Kann ein gemeinsames Risikomanagementsystem für NIS2 und AI Act genutzt werden?
Ja, und in der Praxis ist das meist der effizienteste Weg. Entscheidend ist, dass das System nicht nur Cyberrisiken, sondern auch AI-Act-spezifische Themen wie Rollen, Risikoklasse, technische Dokumentation, menschliche Aufsicht und Modellrobustheit abbildet.
Welche Fristen gelten für NIS2 und AI Act?
Bei NIS2 war der 17. Oktober 2024 die Umsetzungsfrist für die Mitgliedstaaten. Beim AI Act gelten erste Pflichten seit dem 2. Februar 2025, zentrale weitere Pflichten werden ab dem 2. August 2026 breit anwendbar. Für Unternehmen sind deshalb 2025 und 2026 die entscheidenden Jahre für die operative Zusammenführung.
Wie hoch sind die kombinierten Bußgelder?
Der AI Act reicht je nach Verstoß bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes. NIS2 verlangt hohe Sanktionen; für wesentliche Einrichtungen nennt die Richtlinie mindestens bis zu 10 Millionen Euro oder 2 Prozent Umsatz, für wichtige Einrichtungen mindestens bis zu 7 Millionen Euro oder 1,4 Prozent. Neben Bußgeldern entstehen zusätzlich Reputations-, Aufsichts- und Haftungsrisiken.
Was ist der schnellste erste Schritt?
Der schnellste belastbare erste Schritt ist ein gemeinsames Inventar aller KI-Use-Cases in NIS2-relevanten Prozessen, ergänzt um Rollenklärung, Kritikalität, Anbieterstatus und Meldewege. Erst danach sollten Richtlinien, Schulungen und technische Nachweise priorisiert werden.