Der EU AI Act reguliert nicht Technologien in abstracto, sondern konkrete Anwendungskontexte. Dieselbe KI-Komponente kann in einer Branche unter das Hochrisiko-Regime fallen und in einer anderen nur Transparenzpflichten auslösen. Entscheidend ist, wofür das System genutzt wird und wen es betrifft. Diese Übersicht zeigt für die sieben wirtschaftlich bedeutsamsten deutschen Branchen, welche Risikostufen typisch sind, welche KI-Anwendungen reguliert werden und welcher Compliance-Fehler am häufigsten vorkommt.
Die Pflichten staffeln sich nach Risikostufe: Die Schulungspflicht nach Art. 4 EU-VO 2024/1689 gilt seit dem 2. Februar 2025 branchenübergreifend für alle Betreiber. Die strengeren Hochrisiko-Pflichten nach Art. 26 greifen ab dem 2. August 2026.
1. Automobilindustrie
Betroffene Unternehmen: BMW, VW, Mercedes-Benz, Bosch, Continental, ZF, Schaeffler, MAHLE
Typische KI-Anwendungen
- Visuelle Qualitätskontrolle in der Fertigung (Oberflächeninspektion, Schweißnahtprüfung)
- Vorausschauende Wartung (Predictive Maintenance) an Produktionsanlagen
- KI-gestütztes autonomes Fahren und Fahrerassistenzsysteme (ADAS)
- Robotersteuerung und kollaborative Robotik (Cobot-Koordination)
- Lieferkettenprognosen und Beschaffungsoptimierung
- Rekrutierungsautomatisierung und HR-Screening in der Verwaltung
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Autonomes Fahren (SAE L3+) | Hochrisiko — Sicherheitskomponente reguliertes Produkt | Art. 6 Abs. 1 i.V.m. Anhang I |
| Fahrerassistenz (ADAS) | Hochrisiko — Typ-III-Richtlinie (Kfz) | Art. 6 Abs. 1 i.V.m. Anhang I |
| Qualitätskontrolle Fertigung | Minimal — keine Entscheidung über Personen | Art. 6 Abs. 3 |
| HR-Screening und Bewerberranking | Hochrisiko — Beschäftigung Anhang III Nr. 4 | Art. 6 Abs. 2 |
| Predictive Maintenance | Minimal — technisches Asset, keine Personenbetroffenheit | Art. 6 Abs. 3 |
Dominante Risikostufe: Hochrisiko für produkt-integrierende KI (Fahrzeug als reguliertes Produkt) und für HR-Systeme.
Konkretes Szenario
Ein OEM nutzt ein KI-System zur automatisierten Bewerbervorauswahl für Ausbildungsstellen. Das System extrahiert aus Bewerbungsunterlagen einen Eignung-Score und beeinflusst, wer zum Vorstellungsgespräch eingeladen wird. Nach Anhang III Nr. 4 lit. a ist das Hochrisiko-KI. Ab August 2026 muss der OEM ein Konformitätsbewertungsverfahren durchführen, technische Dokumentation nach Anhang IV vorhalten und sicherstellen, dass HR-Personal das System sachgerecht interpretieren und überstimmen kann. Ein Imageschaden droht zusätzlich, wenn das Scoring nachweislich bestimmte Gruppen systematisch benachteiligt.
Häufigster Compliance-Fehler
Fahrzeugtechnik und HR werden getrennt bewertet. Automobilunternehmen investieren erheblich in die Compliance für Fahrassistenzsysteme, weil dort die technischen Teams die Regulierung kennen. HR-KI wird als "Softwarewerkzeug" eingestuft, obwohl der Anhang-III-Tatbestand eindeutig erfüllt ist. Ergebnis: Die Rechtsabteilung kennt den AI Act, die HR-Abteilung nicht.
2. Finanzdienstleistungen
Betroffene Unternehmen: Deutsche Bank, Commerzbank, DZ Bank, Allianz, Munich Re, Generali Deutschland, ING, Targobank
Typische KI-Anwendungen
- Kreditwürdigkeitsprüfung und automatisierter Kreditentscheid (Sofortkredit)
- Versicherungs-Underwriting und automatisierte Tarifierung
- Betrugserkennung und Geldwäscheprävention (AML)
- Robo-Advisor und algorithmische Portfolioverwaltung
- Churn-Prediction und Kundensegmentierung
- Chatbots für Beratung und Schadensabwicklung
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Kreditwürdigkeitsprüfung natürlicher Personen | Hochrisiko — Anhang III Nr. 5 lit. b | Art. 6 Abs. 2 |
| Underwriting und Tarifierung Lebens-/Krankenversicherung | Hochrisiko — Anhang III Nr. 5 lit. b | Art. 6 Abs. 2 |
| AML/Betrugserkennung (gesetzlich vorgeschrieben) | Ausgenommen — Erwägungsgrund 58 AI Act | — |
| AML/Betrugserkennung (freiwillig) | Hochrisiko — Anhang III Nr. 5 | Art. 6 Abs. 2 |
| Robo-Advisor | Begrenzt — nur Transparenzpflichten nach Art. 50 | Art. 50 |
| Kundensegmentierung, Churn | Minimal | Art. 6 Abs. 3 |
Dominante Risikostufe: Hochrisiko für Kernprodukte (Kredit, Versicherung), begrenzt für beratungsnahe KI.
Konkretes Szenario
Eine Direktbank betreibt ein ML-Modell, das Kreditanträge natürlicher Personen vollautomatisch entscheidet. Das Modell wird von einem Drittanbieter als SaaS bezogen. Nach Anhang III Nr. 5 lit. b ist das Hochrisiko-KI — unabhängig davon, ob das Modell intern oder extern entwickelt wurde. Als Betreiber (Deployer) muss die Bank ab August 2026 sicherstellen, dass betroffene Personen das Recht auf menschliche Überprüfung ausüben können, dass Systeminputs mit der Zweckbestimmung übereinstimmen und dass Mitarbeiter, die das System überwachen, nachweisbar geschult sind. Verstöße: bis zu 15 Mio. EUR oder 3 % des weltweiten Jahresumsatzes nach Art. 99.
Häufigster Compliance-Fehler
Die AML-Ausnahme wird zu weit ausgelegt. Viele Finanzinstitute gehen davon aus, dass sämtliche Fraud-Detection-Systeme unter Erwägungsgrund 58 fallen. Die Ausnahme gilt ausschließlich für KI, die aufgrund einer konkreten gesetzlichen Verpflichtung eingesetzt wird. Freiwillige Systeme — etwa zusätzliche Betrugsmodelle jenseits der GwG-Mindestanforderungen — sind nicht ausgenommen und fallen in den Hochrisiko-Bereich. Außerdem: Drittanbieter-SaaS schützt nicht vor eigener Betreiberhaftung.
3. Gesundheitswesen
Betroffene Unternehmen: Helios, Fresenius, DRK-Kliniken, Asklepios, Bayer, Merck, Siemens Healthineers, Philips Healthcare Deutschland
Typische KI-Anwendungen
- Bildgebende Diagnostik (Röntgen, MRT, CT-Auswertung)
- Klinische Entscheidungsunterstützung (CDSS)
- Medikamenteninteraktionsprüfung und Dosierungsempfehlung
- Patientenrisikoklassifizierung und Triagierung
- KI in der Medikamentenentwicklung (Drug Discovery)
- Administratives KI (Terminplanung, Abrechnung, Dokumentation)
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Diagnostik-KI als Medizinprodukt Klasse IIa+ | Hochrisiko — Sicherheitskomponente MDR/IVDR | Art. 6 Abs. 1 i.V.m. Anhang I |
| CDSS mit Behandlungsempfehlung | Hochrisiko — je nach MDR-Klassifizierung | Art. 6 Abs. 1 oder Abs. 2 |
| Drug-Discovery-Modelle (intern) | Minimal — kein Personen-Output | Art. 6 Abs. 3 |
| Terminplanung, Abrechnung | Minimal | Art. 6 Abs. 3 |
| KI-Triage (Aufnahmepriorisierung) | Hochrisiko — kritische Infrastruktur/wesentliche Dienstleistung | Art. 6 Abs. 2 |
Dominante Risikostufe: Hochrisiko für alle patientennahen diagnostischen und therapeutischen Systeme. Klinikverwaltung bleibt minimal.
Konkretes Szenario
Ein Krankenhaus setzt ein KI-System zur automatisierten Auswertung von Mammographie-Befunden ein. Das System ist als Medizinprodukt der Klasse IIa nach MDR klassifiziert. Nach Art. 6 Abs. 1 AI Act ist es automatisch Hochrisiko-KI, weil es Sicherheitskomponente eines regulierten Produkts ist. Das Krankenhaus als Betreiber muss sicherstellen, dass Radiologen die KI-Outputs eigenständig beurteilen können, nicht blind übernehmen, und dass diese Schulung dokumentiert ist. Besonderes Risiko: Wenn der Radiologe ausschließlich auf den KI-Befund verweist und keinen eigenständigen Befund erstellt, liegt ein Verstoß gegen Art. 26 Abs. 1 (menschliche Aufsicht) vor.
Häufigster Compliance-Fehler
MDR-Zulassung wird mit AI-Act-Compliance gleichgesetzt. Viele Kliniken gehen davon aus, dass ein CE-zugelassenes KI-Medizinprodukt automatisch AI-Act-konform ist. Die MDR regelt Produktsicherheit; der AI Act regelt zusätzlich den Betrieb, insbesondere die Schulung des Personals, die menschliche Aufsicht und die Logging-Pflichten. Beides ist kumulativ zu erfüllen.
4. Einzelhandel
Betroffene Unternehmen: ALDI, LIDL, REWE, Edeka, dm-drogerie markt, Rossmann, Otto Group, Zalando, MediaMarktSaturn
Typische KI-Anwendungen
- Personalisierte Produktempfehlungen und dynamisches Pricing
- KI-gestützte Kundenanalyse und Loyalitätsprogramme
- Automatisierte Personalbedarfsplanung (Workforce Management)
- Chatbots und KI-Kundenservice (Retouren, Anfragen)
- Bestandsmanagement und Nachfrageprognose
- Computer Vision für Ladenüberwachung und Self-Checkout
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Personalbedarfsplanung (Schichtzuweisung, Leistungsüberwachung) | Hochrisiko — Beschäftigung Anhang III Nr. 4 | Art. 6 Abs. 2 |
| Biometrische Kundenerkennung im Store | Hochrisiko (oder verboten) | Art. 5 / Art. 6 |
| Produktempfehlung, Pricing | Minimal | Art. 6 Abs. 3 |
| Chatbots (Kundenservice) | Begrenzt — Transparenzpflicht | Art. 50 |
| Ladenüberwachung (anonym, keine Biometrie) | Minimal | Art. 6 Abs. 3 |
| KI-Bestandsmanagement | Minimal | Art. 6 Abs. 3 |
Dominante Risikostufe: Minimal für die meisten Kundenanwendungen, aber Hochrisiko für Workforce-Management-Systeme, die das Personal beeinflussen.
Konkretes Szenario
Ein Lebensmittelfilialisten (>500 Filialen) setzt ein KI-System zur wöchentlichen Schichtplanung ein. Das System berechnet auf Basis von Umsatzprognosen, wer wann wie viele Stunden arbeitet. Wenn das System auch Leistungsscores der Mitarbeitenden einbezieht oder automatisch Warnmeldungen bei Unterschreitung von Quoten generiert, fällt es unter Anhang III Nr. 4 lit. b (Aufgabenzuweisung und Überwachung). Hochrisiko-Pflichten: Das Unternehmen muss das System in der EU-Datenbank registrieren (ab August 2026), technische Dokumentation vorhalten und Betriebsrat-Mitbestimmungsrechte (§ 87 BetrVG) beachten.
Häufigster Compliance-Fehler
Workforce-Management-Software wird als "Planungstool" eingestuft, nicht als KI. Viele Retailer haben diese Systeme seit Jahren im Einsatz und kategorisieren sie als operative Standardsoftware. Sobald das System maschinelles Lernen oder prädiktive Modelle enthält, kann die Hochrisiko-Einstufung greifen — und damit Schulungspflichten für alle Nutzer, Registrierungspflichten und Betriebsratsbeteiligung auslösen. Die Frage lautet nicht "Ist es ein Computer?", sondern "Entscheidet es über Beschäftigung?".
5. Maschinenbau
Betroffene Unternehmen: Siemens, Trumpf, KUKA, DMG Mori, Festo, Bosch Rexroth, Schunk, Bürkert
Typische KI-Anwendungen
- Predictive Maintenance (Zustandsüberwachung, Ausfallprognose)
- KI-gestützte Qualitätskontrolle (Inline-Inspection)
- Autonome Robotersteuerung und adaptive Fertigungssteuerung
- Digitaler Zwilling mit KI-Simulation
- KI als Sicherheitskomponente in Maschinen (z.B. Kollisionsvermeidung)
- Generative Konstruktionsoptimierung (Topology Optimization)
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| KI als Sicherheitskomponente in Maschinen (Maschinenverordnung) | Hochrisiko — reguliertes Produkt | Art. 6 Abs. 1 i.V.m. Anhang I |
| Kollaborative Robotik (Mensch-Maschine-Interaktion) | Hochrisiko — je nach Sicherheitsklassifizierung | Art. 6 Abs. 1 |
| Predictive Maintenance (Anlage, nicht Person) | Minimal | Art. 6 Abs. 3 |
| Qualitätskontrolle Inline | Minimal | Art. 6 Abs. 3 |
| Digitaler Zwilling, Simulation | Minimal | Art. 6 Abs. 3 |
| Konstruktionsoptimierung | Minimal | Art. 6 Abs. 3 |
Dominante Risikostufe: Minimal für interne Fertigungsprozesse, Hochrisiko wenn KI als Sicherheitskomponente in Produkten verbaut wird, die Kunden kaufen.
Konkretes Szenario
Trumpf produziert Lasermaschinen mit integrierter KI-Kollisionsüberwachung. Diese KI ist Sicherheitskomponente des Produkts im Sinne der Maschinenverordnung 2023/1230. Nach Art. 6 Abs. 1 ist sie automatisch Hochrisiko-KI. Trumpf als Anbieter (nicht nur Betreiber) muss ein vollständiges Konformitätsbewertungsverfahren nach Anhang VI oder VII durchführen, technische Dokumentation nach Anhang IV vorhalten und eine EU-Konformitätserklärung ausstellen. Kunden, die die Maschine betreiben, müssen sicherstellen, dass ihr Bedienungspersonal das KI-System sachgerecht nutzen kann — also ebenfalls Schulungsnachweise für Art. 4.
Häufigster Compliance-Fehler
Die Anbieterpflichten werden den Kunden überlassen. Maschinenbauer gehen häufig davon aus, dass die CE-Kennzeichnung nach Maschinenverordnung ausreicht und die AI-Act-Pflichten beim Kunden (Betreiber) liegen. Für KI als Sicherheitskomponente trägt aber der Hersteller Anbieterpflichten nach Art. 16 AI Act — unabhängig davon, wer die Maschine letztlich betreibt. Beide haften, aber mit unterschiedlichen Pflichten.
6. Logistik
Betroffene Unternehmen: DHL Group, DB Schenker, Kühne+Nagel Deutschland, Hermes, GLS, DPD, Amazon Logistics Deutschland
Typische KI-Anwendungen
- Routenoptimierung und dynamische Tourenplanung
- KI-gestützte Nachfrageprognose und Lagersteuerung
- Automatisierte Sortier- und Umschlagssysteme
- Workforce Management (Schichtplanung, Zustellprognose)
- Frachtpreisoptimierung (Dynamic Pricing)
- Fahrerüberwachung (Telematik, Fatiguedetection)
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Fahrerüberwachung (biometrisch, Müdigkeitserkennung) | Hochrisiko — Beschäftigung/Biometrie | Art. 6 Abs. 2, Anhang III Nr. 1 + 4 |
| Workforce Management (Leistungsbewertung, Einsatzplanung) | Hochrisiko — Beschäftigung Anhang III Nr. 4 | Art. 6 Abs. 2 |
| Routenoptimierung | Minimal | Art. 6 Abs. 3 |
| Lagersteuerung, Sortierung | Minimal | Art. 6 Abs. 3 |
| Dynamic Pricing (Fracht) | Minimal | Art. 6 Abs. 3 |
| Nachfrageprognose | Minimal | Art. 6 Abs. 3 |
Dominante Risikostufe: Minimal für Logistikprozesse, Hochrisiko für fahrerbezogene Überwachungssysteme und Workforce Management.
Konkretes Szenario
DPD setzt ein Telematik-System ein, das Fahrverhalten in Echtzeit bewertet (Bremsen, Geschwindigkeit, Kurvenverhalten) und daraus einen täglichen Driver-Score berechnet. Dieser Score fließt in die Leistungsbeurteilung ein, die Grundlage für Bonuszahlungen und Vertragsverlängerungen ist. Damit erfüllt das System Anhang III Nr. 4 lit. b (Überwachung und Bewertung von Beschäftigten). Hochrisiko-Pflichten ab August 2026: Der Score darf nicht allein entscheidend sein, Fahrer haben Anspruch auf Erläuterung und Überprüfung, und das System muss in der EU-Hochrisiko-Datenbank registriert sein.
Häufigster Compliance-Fehler
Telematik wird als "Sicherheitstool" gerahmt, nicht als Leistungsüberwachung. Logistikunternehmen bezeichnen Fahrermonitoring-Systeme intern als Unfallvermeidungs- oder Versicherungsinstrument. Wenn der Output aber in die Leistungsbeurteilung oder Einsatzplanung fließt, ist das unerheblich — der Nutzungskontext entscheidet, nicht die interne Bezeichnung. Dazu kommt: Wo Müdigkeitserkennung biometrische Merkmale auswertet, liegt möglicherweise Hochrisiko nach Anhang III Nr. 1 lit. b vor.
7. Öffentlicher Dienst
Betroffene Stellen: Bundesagentur für Arbeit, Jobcenter, Finanzämter, Ausländerbehörden, Polizei, kommunale Verwaltungen, Schulbehörden
Typische KI-Anwendungen
- Automatisierte Prüfung von Sozialleistungsanträgen (ALG, Wohngeld, BAföG)
- Risikoklassifizierung in der Steuerverwaltung
- Biometrische Erkennung und Dokumentenprüfung (Ausländerbehörde, Polizei)
- Chatbots für Bürgeranfragen (OZG 2.0)
- Prognosemodelle zur Kriminalprävention
- KI-gestützte Schulbewertungssysteme
Risikostufe
| KI-Anwendung | Risikostufe | Rechtsgrundlage |
|---|---|---|
| Automatisierte Sozialleistungsprüfung | Hochrisiko — wesentliche Dienstleistungen Anhang III Nr. 5 | Art. 6 Abs. 2 |
| Biometrische Erkennungssysteme | Hochrisiko (teils verboten) | Art. 5 / Anhang III Nr. 1 |
| Prognosemodelle Kriminalprävention | Hochrisiko — Strafverfolgung Anhang III Nr. 6 | Art. 6 Abs. 2 |
| Schulbewertungssysteme | Hochrisiko — Bildung Anhang III Nr. 3 | Art. 6 Abs. 2 |
| Dokumentenprüfung (nicht biometrisch) | Begrenzt bis Hochrisiko | kontextabhängig |
| Bürger-Chatbots (rein informativ) | Begrenzt — Transparenzpflicht | Art. 50 |
Dominante Risikostufe: Hochrisiko für nahezu alle entscheidungsnahen Systeme, weil Behörden über wesentliche Leistungen und Rechte von Bürgern entscheiden.
Konkretes Szenario
Ein Jobcenter nutzt ein KI-System, das Anträge auf Bürgergeld nach Vollständigkeit und Schlüsselmerkmalen vorsortiert und dabei eine Prioritätenliste erstellt, nach der Sachbearbeiter die Anträge abarbeiten. Das System beeinflusst faktisch, wie schnell ein Antragsteller seinen Bescheid erhält. Nach Anhang III Nr. 5 lit. a (Zugang zu wesentlichen öffentlichen Dienstleistungen und Leistungen) ist das Hochrisiko-KI. Die Behörde muss sicherstellen, dass Sachbearbeiter das System überstimmen können, dass Antragsteller auf Wunsch eine menschliche Überprüfung erhalten und dass die Schulung nachweislich erfolgt ist. Weil Behörden keine Umsatzzahlen haben, berechnen sich Bußgelder nach Art. 99 anhand der Haushaltsgröße.
Häufigster Compliance-Fehler
"Wir entscheiden selbst, das System unterstützt nur." Behörden argumentieren, dass KI-Systeme lediglich Entscheidungsgrundlagen aufbereiten, die finale Entscheidung aber beim Sachbearbeiter liegt. Der AI Act folgt diesem Argument nicht. Entscheidend ist, ob das System Output erzeugt, der die Entscheidung beeinflusst — nicht, ob formal ein Mensch unterschreibt. Systeme, die Anträge priorisieren, Risikoscores vergeben oder Empfehlungen formulieren, sind faktisch entscheidungsrelevant und damit hochriskant.
Branchenübergreifende Muster: Was überall gilt
Unabhängig von der Branche wiederholen sich drei Muster:
Muster 1 — HR ist die blinde Stelle. In allen sieben Branchen ist Personalmanagement-KI (Recruiting, Leistungsüberwachung, Schichtplanung) der Bereich, der am häufigsten als Hochrisiko-KI einzustufen ist — und am häufigsten übersehen wird. Anhang III Nr. 4 ist der meistunterschätzte Tatbestand.
Muster 2 — Drittanbieter schützt nicht. Wer Hochrisiko-KI als SaaS einkauft, bleibt Betreiber mit allen Pflichten nach Art. 26. Die Verantwortung lässt sich nicht per Lizenzvertrag auf den Anbieter abwälzen. Betreiber müssen sicherstellen, dass ihr Personal die Outputs sachgerecht interpretieren kann.
Muster 3 — Schulungsnachweis ist die niedrigschwelligste Pflicht. Die Pflicht nach Art. 4 zur KI-Kompetenz des Personals gilt seit Februar 2025 — für alle Unternehmen, unabhängig von der Risikostufe der eingesetzten Systeme. Sie ist die erste Compliance-Anforderung, die Behörden und Gerichte überprüfen werden. Eine vollständige Schulungsdokumentation ist die schnellste und kostengünstigste Maßnahme für alle Branchen.
Einen Einstieg in die allgemeinen Betreiberpflichten bietet Artikel 26 im Detail. Die Schulungspflicht nach Art. 4 ist in der Art.-4-Checkliste konkret aufbereitet. Für die Hochrisiko-Einstufung ist der Annex-III-Leitfaden der richtige Einstieg.