← Zur Branchen-Übersicht

Automobilindustrie

AI Act in der Automobilindustrie: Was für autonomes Fahren, Qualitätskontrolle und Zulieferer jetzt zählt.

Für OEMs, Entwicklungsbereiche, Qualität, Compliance und Zulieferer gilt: Art. 4 der EU-VO 2024/1689 verpflichtet seit dem 2. Februar 2025 zu ausreichender KI-Kompetenz. Hochrisiko-Pflichten entstehen in der Automobilindustrie nicht pauschal für jede KI, sondern vor allem bei Sicherheitskomponenten in Fahrzeugen, bei bestimmten Verkehrs- und Infrastruktur-Anwendungen sowie bei KI-Systemen im Personalbereich.

Veröffentlicht: 28. Februar 2026Letzte Aktualisierung: 15. März 2026Automobilindustrie
AI Act AutomobilindustrieAI Act autonomes FahrenKI Verordnung AutomobilzuliefererKI Schulung AutomobilbrancheAI Act Zulieferer Pflichten

KI-Kompetenz

seit 2. Februar 2025

Art. 4 verpflichtet Automobilunternehmen bereits heute, alle Personen mit ausreichender KI-Kompetenz auszustatten, die KI-Systeme entwickeln, validieren, einkaufen, überwachen oder operativ nutzen.

Fahrzeug-Sicherheitskomponenten

ab 2. August 2027

Wenn KI Teil einer sicherheitsrelevanten Fahrzeugfunktion ist, läuft der Hochrisiko-Pfad über Art. 6 Abs. 1 und Anhang I. Für diese verbleibenden produktregulierten Fälle ist der Übergangsstichtag der 2. August 2027.

Verkehrs- und HR-KI

ab 2. August 2026

Eigenständige Hochrisiko-Systeme nach Anhang III, etwa bestimmte Verkehrsmanagement-Anwendungen oder KI im Recruiting, werden ab dem 2. August 2026 voll anwendbar.

Typische KI-Systeme

Autonomes Fahren und ADAS

KI in Fahrassistenz, Sensorfusion, Objekterkennung oder Fahrentscheidungen ist regulatorisch besonders sensibel, wenn sie eine sicherheitsrelevante Fahrzeugfunktion trägt.

Dann ist nicht die Branche abstrakt relevant, sondern die konkrete Sicherheitskomponente im Sinne von Art. 6 Abs. 1 und Anhang I.

Verkehrs- und Flottensteuerung

KI für Verkehrsfluss, Flottenkoordination oder straßenverkehrsnahe Leitstände kann unter Anhang III Nr. 2 fallen, wenn sie die Verwaltung oder den Betrieb des Straßenverkehrs sicherheitsrelevant beeinflusst.

Das ist vom Fahrzeug selbst zu trennen: Verkehrsmanagement und Fahrzeugfunktion sind zwei unterschiedliche regulatorische Kontexte.

Qualitätskontrolle in der Produktion

Bildanalyse für Lack, Oberflächen, Spaltmaße oder Bauteilfehler ist oft minimales oder begrenztes Risiko, solange die KI keine sicherheitskritische Freigabe ersetzt.

Je näher die Entscheidung an Produktsicherheit und Rückrufrisiken rückt, desto strenger müssen Zweck, Aufsicht und Freigaben dokumentiert werden.

Predictive Maintenance im Werk

Vorausschauende Wartung für Anlagen, Roboter oder Prüftechnik ist meist kein automatischer Hochrisiko-Fall.

Relevant wird die Einordnung neu, wenn die KI direkt in sicherheitsrelevante Steuerungen eingreift oder kritische Infrastruktur eines Standorts verwaltet.

Recruiting bei OEMs und Zulieferern

KI für Bewerber-Screening, Ranking oder automatisierte Personalauswahl ist kein Industrie-Sonderfall, sondern Personal-KI mit möglichem Hochrisiko nach Anhang III Nr. 4.

Gerade große Einstellungsvolumina machen diese Trennung für HR, Compliance und Fachbereiche praktisch wichtig.

Copilots in Entwicklung und Dokumentation

KI-Assistenten für Code, Testdokumentation oder Wissenssuche sind oft minimales oder begrenztes Risiko, lösen aber trotzdem Art. 4-Pflichten aus.

Zusätzlich können Transparenzpflichten nach Art. 50 relevant werden, wenn KI-generierte Inhalte extern bereitgestellt werden.

Praktische Maßnahmen

Use Cases nach Funktion und Sicherheitswirkung inventarisieren

Sie sollten Fahrfunktionen, Prüfprozesse, Produktions-KI, Verkehrssteuerung und HR-KI getrennt erfassen. Erst diese Funktionssicht erlaubt eine belastbare Risikoklassifizierung statt einer pauschalen Einordnung unter dem Label Automotive.

Produktregulierte KI früh mit Engineering und Compliance verzahnen

Sie sollten bei ADAS, Sensorfusion, Safety-Software und KI-gestützten Fahrzeugfunktionen sauber dokumentieren, ob eine Sicherheitskomponente vorliegt. Dann greifen AI-Act-Pflichten im Zusammenspiel mit Produktsicherheits-, Validierungs- und Zulieferprozessen.

Menschliche Aufsicht in Entwicklung, Freigabe und Betrieb festlegen

Sie sollten definieren, wer Modelle validiert, wer Grenzfälle eskaliert, wer Releases stoppt und wann ein Fallback greift. Art. 14 verlangt echte Eingriffs- und Überwachungsmöglichkeiten statt bloßem Monitoring.

Betreiberpflichten entlang der Lieferkette absichern

Sie sollten Herstellerunterlagen, Zweckbestimmung, Logging, Nutzungsgrenzen und Vorfallwege vor dem Rollout prüfen. Art. 26 verlangt, Systeme gemäß Gebrauchsanweisung einzusetzen und intern organisatorisch kontrollierbar zu halten.

Art. 4 rollenbezogen umsetzen

Sie sollten Entwicklung, Test, Qualität, Einkauf, Cybersecurity, Functional Safety, Werkleitung und HR nicht identisch schulen. Ausreichende KI-Kompetenz richtet sich nach Aufgabe, Risiko und Override-Rechten der jeweiligen Rolle.

Die Automobilindustrie muss KI-Systeme seit dem 2. Februar 2025 kompetent beherrschen. Art. 4 der EU-VO 2024/1689 gilt bereits heute, während Hochrisiko-Pflichten vor allem bei Fahrzeug-Sicherheitskomponenten, bestimmten Verkehrsmanagement-Anwendungen und KI im Recruiting scharf werden.

Welche KI-Systeme in der Automobilindustrie unterschiedlich bewertet werden

Autonomes Fahren ist kein Marketingbegriff, sondern ein Sicherheitskontext. Wenn KI in Fahrassistenz, Sensorfusion, Objekterkennung oder Entscheidungslogik eine sicherheitsrelevante Fahrzeugfunktion trägt, wird die Einordnung über Art. 6 und Anhang I maßgeblich. Für diese produktregulierten Fälle nennt Art. 113 den 2. August 2027 als relevanten Übergangsstichtag.

Qualitätskontrolle in Presswerk, Lackiererei oder Endabnahme ist dagegen nicht automatisch Hochrisiko. KI für Fehlerbilder, Oberflächenanalyse oder Ausschusserkennung bleibt oft außerhalb des Hochrisiko-Regimes, solange das System keine sicherheitskritische Freigabe ersetzt. Gerade deshalb sollten Fachbereich und Compliance nicht jedes Kamera-System pauschal wie Fahrzeug-KI behandeln.

Predictive Maintenance ist ebenfalls meist kein automatischer Hochrisiko-Fall. Wenn eine KI nur Ausfallmuster erkennt, Wartungsfenster empfiehlt oder Ersatzteile prognostiziert, spricht vieles für minimales oder begrenztes Risiko. Relevanter wird die Lage, wenn die Logik direkt in sicherheitsrelevante Steuerungen eingreift oder eine standortkritische Infrastruktur verwaltet.

Recruiting-KI ist in der Automobilindustrie ein eigener Regulierungsstrang. Systeme für Bewerber-Screening, Matching oder Ranking fallen nicht unter autonomes Fahren, sondern können als Beschäftigungs-KI nach Anhang III Nr. 4 hochriskant sein. Wer Automotive-KI und Personal-KI organisatorisch vermischt, klassifiziert in der Praxis oft falsch.

Wo Hochrisiko im Automotive-Umfeld tatsächlich entsteht

Hochrisiko entsteht im Automotive-Umfeld zuerst über den Produktpfad. Sobald KI als Sicherheitskomponente eines Fahrzeugs oder einer regulierten Fahrzeugfunktion eingesetzt wird, ist die Verbindung zu Produktsicherheit zentral. Für Entwicklungsbereiche bedeutet das: Modellleistung, Validierung, Betriebsgrenzen und Fallbacks sind keine rein technischen Detailfragen, sondern Teil einer später belastbaren Compliance-Argumentation.

Hochrisiko kann zweitens über Anhang III Nr. 2 entstehen. Das betrifft KI für die Verwaltung und den Betrieb des Straßenverkehrs oder anderer kritischer Infrastrukturen. Nicht jede Flottenauswertung und nicht jede Standortlogistik ist deshalb automatisch Hochrisiko. Betroffen sind aber Konstellationen, in denen KI sicherheitsrelevante Entscheidungen im Verkehrs- oder Infrastrukturbetrieb vorbereitet oder steuert; für diese eigenständigen Hochrisiko-Systeme ist der 2. August 2026 der maßgebliche Stichtag.

Hochrisiko entsteht drittens häufig außerhalb des Fahrzeugs. Wenn OEMs oder Zulieferer KI für Personalauswahl, Leistungsbewertung oder automatisierte Beschäftigtenentscheidungen einsetzen, greift ein anderer Risikopfad als in Engineering oder Produktion. Diese Trennung ist für FAQ, interne Policies und Lieferantenabfragen wichtiger als jede pauschale Branchenfolie.

Was OEMs und Zulieferer schon jetzt vorbereiten sollten

Art. 4 macht KI-Kompetenz zur sofortigen Hausaufgabe. Entwicklungsleitung, Functional Safety, Qualität, Einkauf, Cybersecurity, Werkleitung und HR sollten heute dokumentieren können, welche KI-Systeme eingesetzt werden, welche Risiken sie auslösen und wer eine KI-Ausgabe überstimmen darf. Ein allgemeiner Überblick über KI reicht dafür nicht aus.

Die erste praktische Maßnahme ist ein Systeminventar nach Funktion. Erfassen Sie getrennt, ob eine KI Fahrentscheidungen vorbereitet, Qualitätsabweichungen meldet, Wartungshinweise gibt, Personal auswählt oder Verkehrsflüsse steuert. Die zweite Maßnahme ist eine Rollenmatrix, damit Test, Engineering, Qualität und Einkauf nicht dieselben Lernziele erhalten. Die dritte Maßnahme ist eine klare menschliche Aufsicht: Wer validiert, wer stoppt, wer eskaliert?

Betreiberpflichten sollten außerdem entlang der Lieferkette abgesichert werden. Art. 26 verlangt technische und organisatorische Maßnahmen für den Einsatz gemäß Zweckbestimmung und Gebrauchsanweisung. Gerade bei OEM-Tier-1-Tier-2-Konstellationen entscheidet deshalb die Qualität von Lieferantenunterlagen, Logging, Nutzungsgrenzen und Vorfallwegen darüber, ob ein System intern kontrollierbar bleibt. Für schwerwiegende Vorfälle und Fehlfunktionen sollte zudem früh geklärt sein, welche Eskalationswege nach Art. 73 relevant werden können.

Warum der Kurs für Automotive-Teams praktisch ist

Die Automobilindustrie braucht keine abstrakte KI-Debatte, sondern eine belastbare Trennung zwischen Fahrzeug-Sicherheitskomponenten, Werk- und Qualitäts-KI, Verkehrsmanagement und Personal-KI. Genau dort setzt der Kurs an: Er übersetzt Art. 4, Hochrisiko-Logik und Dokumentationsfragen in einen praxistauglichen Schulungsnachweis mit Zertifikat für Fachbereich, Compliance und operative Verantwortung.

Wenn Sie autonome Fahrfunktionen, KI in der Qualitätskontrolle oder AI-Copilots in Entwicklung und Dokumentation einführen, sollten Sie anschließend die Branchenübersicht, die allgemeine FAQ und den Kurs nutzen, um ähnliche Use Cases intern konsistent zu vergleichen. So bleibt die Einordnung nicht bei Bauchgefühl stehen, sondern wird für Management, Entwicklung und Zulieferer nachvollziehbar dokumentiert.

Häufige Fragen

Ist autonomes Fahren im AI Act automatisch Hochrisiko?+
Autonomes Fahren ist jedenfalls dann regulatorisch hochrelevant, wenn KI eine sicherheitsrelevante Fahrzeugfunktion trägt. Der Hochrisiko-Pfad läuft dann typischerweise über Art. 6 Abs. 1 und Anhang I; für diese produktregulierten Fälle ist der Übergangsstichtag der 2. August 2027.
Was gilt für Automobilunternehmen schon heute?+
Seit dem 2. Februar 2025 gilt Art. 4 zur KI-Kompetenz. Unternehmen müssen also bereits jetzt sicherstellen, dass alle relevanten Personen KI-Systeme informiert, sicher und zweckgerecht einsetzen oder beaufsichtigen können.
Ist Qualitätskontrolle in der Produktion automatisch Hochrisiko?+
Nein. KI-gestützte Qualitätskontrolle ist nicht automatisch Hochrisiko. Entscheidend ist, ob das System nur unterstützt oder faktisch eine sicherheitskritische Freigabe ersetzt und damit unmittelbare Auswirkungen auf Produktsicherheit oder Schutzgüter hat.
Warum ist Recruiting in der Automobilindustrie gesondert zu prüfen?+
Weil KI im Recruiting nicht als Automotive-KI, sondern als Personal-KI bewertet wird. Bewerber-Screening, Ranking und Auswahl können nach Anhang III Nr. 4 Hochrisiko sein, unabhängig davon, ob das Unternehmen Fahrzeuge oder Komponenten produziert.
Brauchen OEMs und Zulieferer ein spezielles Zertifikat?+
Nein. Der AI Act verlangt kein spezielles Zertifikat. Er verlangt ausreichende KI-Kompetenz nach Art. 4. Ein dokumentierter Schulungsnachweis mit Zertifikat ist aber sinnvoll, um Maßnahmen intern und entlang der Lieferkette nachvollziehbar zu machen.
Wann wird die Lieferkette praktisch relevant?+
Die Lieferkette wird praktisch relevant, sobald Zweckbestimmung, Sicherheitswirkung, Logging, Vorfallwege oder Nutzungsgrenzen eines Systems nur beim Hersteller oder Tier-1-Lieferanten dokumentiert sind. Ohne diese Unterlagen lässt sich eine Betreiberrolle nach Art. 26 kaum belastbar erfüllen.