KI-Kompetenz
seit 2. Februar 2025
Art. 4 verpflichtet Produktionsunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme bedienen, überwachen, einkaufen oder freigeben.
Produktion und Industrie
Für Produktionsleiter, Instandhaltung, EHS, Qualitätsmanagement und IT gilt: Art. 4 der EU-VO 2024/1689 verpflichtet seit dem 2. Februar 2025 zu ausreichender KI-Kompetenz. Predictive Maintenance ist meist kein automatischer Hochrisiko-Fall, doch Sicherheitskomponenten in Maschinen und bestimmte Infrastruktur-Anwendungen können über Art. 6 in das Hochrisiko-Regime fallen.
KI-Kompetenz
Art. 4 verpflichtet Produktionsunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme bedienen, überwachen, einkaufen oder freigeben.
Predictive Maintenance
Vorausschauende Wartung ist typischerweise kein automatischer Hochrisiko-Fall, solange die KI nicht selbst eine Sicherheitsfunktion übernimmt oder kritische Infrastruktur steuert.
Sicherheitskomponenten
Wenn KI Teil einer sicherheitsrelevanten Maschine oder eines regulierten Produkts ist, greift der Hochrisiko-Pfad über Art. 6 Abs. 1 und Anhang I mit dem Übergangsstichtag 2. August 2027.
Typische KI-Systeme
KI, die Ausfallwahrscheinlichkeiten für Maschinen, Lager oder Werkzeugverschleiß berechnet, ist im Regelfall kein automatischer Hochrisiko-Fall.
Relevant wird die Einordnung neu, wenn die Wartungslogik direkt Sicherheitsfunktionen übersteuert oder Ausfälle in kritischer Infrastruktur priorisiert.
Bildanalyse für Oberflächen, Maßhaltigkeit oder Ausschusserkennung ist meist minimales Risiko, solange das System keine sicherheitskritische Freigabe ersetzt.
Je stärker eine fehlerhafte Klassifikation zu Produktsicherheits- oder Personengefahren führen kann, desto genauer sollten Zweck, Aufsicht und Fallbacks geprüft werden.
KI in Roboterzellen, Sicherheits-SPS oder kollaborativen Maschinen kann hochriskant sein, wenn sie als Sicherheitskomponente eines regulierten Produkts eingesetzt wird.
Dann zählt nicht nur die Effizienz, sondern die CE-relevante Sicherheitsfunktion im Sinne von Art. 6 Abs. 1 und Anhang I.
Simulations- und Optimierungssysteme für Taktung, Energieeinsatz oder Materialfluss liegen oft außerhalb des Hochrisiko-Regimes.
Trotzdem bleiben Datenqualität, menschliche Freigaben und belastbare Betriebsgrenzen wichtig, damit Optimierungsmodelle nicht faktisch Sicherheitsentscheidungen treffen.
KI für Strom-, Gas-, Wärme- oder Wassersteuerung kann unter Anhang III Nr. 2 hochriskant werden, wenn sie als Sicherheitskomponente kritische Infrastruktur verwaltet oder betreibt.
Das betrifft nicht jede Fabrik automatisch, wohl aber bestimmte industrielle Versorger, Netze und kritische Standorte.
KI für Leistungsbewertung, Schichtsteuerung oder verhaltensbezogene Zuweisung von Aufgaben fällt nicht unter Predictive Maintenance, kann aber als Beschäftigungs-KI separat hochriskant sein.
Industrieunternehmen sollten deshalb Anlagen-KI und Personal-KI regulatorisch nie in einem Topf behandeln.
Praktische Maßnahmen
Sie sollten jedes System danach erfassen, ob es nur Wartungshinweise erzeugt, Qualitätsabweichungen meldet, Maschinen sicher steuert oder Personalentscheidungen beeinflusst. Erst diese Funktionssicht erlaubt eine belastbare Risikoklassifizierung.
Sie sollten bei Robotik, Cobots, Safety-Software und KI-gestützten Maschinensteuerungen sauber dokumentieren, ob eine Sicherheitskomponente vorliegt. Dann greifen AI-Act-Pflichten nicht isoliert, sondern im Zusammenspiel mit Produktsicherheits- und CE-Prozessen.
Sie sollten Instandhaltung, Produktion, EHS, Qualitätsmanagement, Einkauf, IT und Werksleitung nicht mit derselben Schulung abspeisen. Ausreichende KI-Kompetenz muss sich am realen Einsatz, an den Risiken und an den Override-Rechten orientieren.
Sie sollten festlegen, wer KI-Ausgaben prüft, wer Warnungen priorisiert, wer Anlagen stillsetzen darf und wann der Betrieb auf einen rein menschlichen Fallback umschaltet. Art. 14 verlangt echte Eingriffsrechte statt bloßer Kenntnisnahme.
Sie sollten bei kritischen Systemen Herstellerunterlagen, Zweckbestimmung, Betriebsgrenzen, Logging und Meldewege vor dem Rollout prüfen. Gerade in der Industrie entscheidet die Qualität der Betriebsdokumentation darüber, ob ein System kontrollierbar bleibt.
In der Produktion ist Predictive Maintenance meist nicht automatisch Hochrisiko. Für Industrieunternehmen gilt aber seit dem 2. Februar 2025 Art. 4 der EU-VO 2024/1689, und echte Hochrisiko-Pflichten entstehen dort, wo KI als Sicherheitskomponente einer Maschine dient oder als Teil kritischer Infrastruktur eingesetzt wird.
Predictive Maintenance ist eine Funktionsfrage und kein pauschaler Hochrisiko-Fall. Wenn eine KI nur Ausfallmuster erkennt, Wartungsfenster empfiehlt oder Ersatzteilbedarfe prognostiziert, spricht vieles für begrenztes oder minimales Risiko. Das passt zu der branchenspezifischen Research-Basis: Vorausschauende Wartung, Produktionsoptimierung und viele Digital-Twin-Anwendungen sind in der Industrie meist anders zu bewerten als Personal-KI, Kreditbewertung oder Notfallsteuerung.
Qualitätskontrolle ist ebenfalls nicht automatisch Hochrisiko. Bildverarbeitung für Oberflächenprüfung, Ausschussreduzierung oder Linienoptimierung bleibt regelmäßig außerhalb des Hochrisiko-Regimes, solange die KI keine sicherheitskritische Produktfreigabe ersetzt. Sobald eine Fehlklassifikation aber unmittelbar zu Gesundheits-, Maschinen- oder Produktsicherheitsrisiken führen kann, reicht eine bloße Effizienzbetrachtung nicht mehr aus. Dann müssen Zweck, Aufsicht und Fallbacks deutlich strenger geprüft werden.
Assistenzsysteme für Wartung, Dokumentation oder Bedienerhinweise sind häufig ein weiterer Grenzfall. Wenn ein industrieller Copilot nur Anleitungen zusammenfasst, Tickets vorsortiert oder Servicetexte formuliert, spricht das eher für begrenztes Risiko mit Transparenzfragen nach Art. 50. Auch hier bleibt aber entscheidend, ob das System nur unterstützt oder faktisch sicherheitskritische Entscheidungen vorgibt.
Produktionsunternehmen sollten deshalb jedes KI-System nach seiner tatsächlichen Funktion klassifizieren. Ein Wartungsmodell, ein Kamera-System für Qualitätsprüfung und eine Cobot-Steuerung mögen vom selben Anbieter stammen, regulatorisch sind sie trotzdem nicht identisch. Diese Trennung ist die Grundlage dafür, FAQ, Lieferantenangaben und interne Freigaben konsistent auszuwerten.
Hochrisiko entsteht in der Industrie vor allem über den Produktpfad aus Art. 6, Anhang I und den einschlägigen Produktsicherheitsregimen. Wenn KI Teil einer sicherheitsrelevanten Maschine, eines Cobots, einer Hebeanlage, eines Druckgeräts oder einer anderen regulierten Produktkategorie ist, wird nicht die Branche als Ganzes hochriskant, sondern das konkrete System aufgrund seiner Sicherheitsfunktion. Für diese verbleibenden produktregulierten Fälle ist der relevante Übergangsstichtag der 2. August 2027.
Ein zweiter Hochrisiko-Pfad kann über Anhang III Nr. 2 entstehen. Das betrifft KI als Sicherheitskomponente in der Verwaltung und dem Betrieb kritischer digitaler Infrastruktur sowie der Versorgung mit Wasser, Gas, Wärme oder Strom. Nicht jede Produktionsstätte ist deshalb automatisch Hochrisiko. Betroffen sind aber industrielle Betreiber, deren KI direkt versorgungs- oder sicherheitsrelevante Infrastruktur steuert. Für diese eigenständigen Hochrisiko-Systeme ist der Stichtag der 2. August 2026.
Ein dritter Risikofehler in der Praxis liegt außerhalb der Maschine selbst: Produktions-KI und Beschäftigten-KI werden oft vermischt. Sobald ein Unternehmen KI zur Leistungsbewertung, Schichtzuweisung oder Verhaltensüberwachung von Beschäftigten nutzt, verlässt es den Predictive-Maintenance-Kontext und bewegt sich in die Hochrisiko-Logik des Personalbereichs. Für Industriebetriebe ist deshalb wichtig, Anlagen-KI, Sicherheits-KI und Personal-KI organisatorisch sauber zu trennen.
Art. 4 gilt bereits und macht KI-Kompetenz zur unmittelbaren Hausaufgabe. Produktionsleiter, Instandhaltung, EHS, Qualitätsmanagement, Einkauf, IT und Werksleitung sollten deshalb heute dokumentieren können, welche KI-Systeme sie einsetzen, wer sie bedient und welche Entscheidungen ein Mensch final freigibt. Ein allgemeiner Vortrag über KI reicht in der Industrie regelmäßig nicht aus, weil Wartung, Qualitätsprüfung und Maschinenbetrieb sehr unterschiedliche Risiken auslösen.
Die erste praktische Maßnahme ist ein Systeminventar nach Funktion. Erfassen Sie, ob eine KI nur Vorhersagen liefert, Entscheidungen vorbereitet, sicherheitsrelevante Schwellenwerte setzt oder unmittelbar mit Aktoren und Anlagensteuerung verknüpft ist. Die zweite Maßnahme ist eine Rollenmatrix, damit Bediener, Instandhalter, EHS-Verantwortliche und IT nicht dieselben Lernziele bekommen. Die dritte Maßnahme ist eine klare Menschliche Aufsicht: Wer darf Warnungen ignorieren, wer muss eskalieren, wer darf Anlagen stoppen?
Auch Lieferantenunterlagen sollten früh geprüft werden. Hersteller müssen bei sensiblen Systemen Zweckbestimmung, Nutzungsgrenzen, Logging und Betriebsbedingungen sauber dokumentieren. Betreiber wiederum müssen nach Art. 26 technische und organisatorische Maßnahmen treffen, um Systeme gemäß Gebrauchsanweisung einzusetzen. Wo diese Unterlagen fehlen, steigt das Risiko, dass ein Werk ein System falsch klassifiziert oder unsicher betreibt.
Bis zum 2. August 2026 sollten Produktionsunternehmen alle Systeme markieren, die wegen kritischer Infrastruktur oder vergleichbarer Sicherheitsfunktionen unter Anhang III fallen könnten. Dazu gehören insbesondere KI-Anwendungen in werkseigenen Versorgungsnetzen, Leitständen oder sicherheitsrelevanten Steuerungsumgebungen. Für diese Fälle sollten Zuständigkeiten, Monitoring, Logging, Vorfallwege und Freigaben vor dem Stichtag belastbar beschrieben sein.
Bis zum 2. August 2027 sollten Unternehmen zusätzlich die produktregulierten Sicherheitskomponenten mit KI im Blick haben. Wer Cobots, intelligente Schutzsysteme oder KI-gestützte Maschinen mit sicherheitsrelevanter Wirkung beschafft oder integriert, sollte früh mit Engineering, Einkauf, CE-Verantwortlichen und Lieferanten klären, welche Nachweise, Konformitätsschritte und Betriebsgrenzen tatsächlich vorliegen. Wer damit erst kurz vor dem Stichtag beginnt, verliert im Maschinen- und Anlagenbau schnell Zeit zwischen Entwicklung, Beschaffung und Validierung.
Produktion und Industrie brauchen keine abstrakte KI-Debatte, sondern eine belastbare Trennung zwischen Effizienz-KI, Sicherheits-KI und Personal-KI. Genau dort setzt der Kurs an: Er übersetzt Art. 4, Hochrisiko-Logik und Dokumentationsfragen in einen praxistauglichen Schulungsnachweis mit Zertifikat für Fachbereich, Compliance und operative Verantwortung.
Wenn Sie Predictive Maintenance, visuelle Qualitätskontrolle oder KI-gestützte Maschinensteuerung einführen, sollten Sie danach die allgemeine FAQ und die Branchenübersicht nutzen, um ähnliche Use Cases intern sauber zu vergleichen. So bleibt die Einordnung nicht bei Bauchgefühl stehen, sondern wird für Einkauf, Betrieb und Führung nachvollziehbar dokumentiert.
Häufige Fragen