Explizit Hochrisiko
Leben und Kranken
Die Risikobewertung und Preisbildung für natürliche Personen in Lebens- und Krankenversicherungen ist in Anhang III Nr. 5(c) der EU-VO 2024/1689 ausdrücklich erfasst.
Versicherungen
Versicherungen nutzen KI in Underwriting, Schadenmanagement und Kundenservice. Entscheidend ist die saubere Einordnung: Risikobewertung in Lebens- und Krankenversicherungen ist explizit Hochrisiko, während Claims-Automatisierung meist kontextabhängig bleibt.
Explizit Hochrisiko
Die Risikobewertung und Preisbildung für natürliche Personen in Lebens- und Krankenversicherungen ist in Anhang III Nr. 5(c) der EU-VO 2024/1689 ausdrücklich erfasst.
Schon heute Pflicht
Versicherer müssen KI-Kompetenz bereits jetzt nachweisbar organisieren, auch wenn Art. 4 keinen eigenen unionsweit harmonisierten Bußgeldtatbestand in Art. 99 hat.
Volle High-Risk-Pflichten
Ab diesem Datum greifen die spezifischen Betreiber- und Transparenzpflichten für Hochrisiko-KI und Systeme mit Transparenzpflichten nach Art. 113.
Typische KI-Systeme
Automatisierte Einstufungen zu Gesundheitszustand, Mortalitätsrisiko oder Zuschlägen fallen regelmäßig unter Anhang III Nr. 5(c), weil sie den Zugang zu einer wesentlichen privaten Dienstleistung beeinflussen.
Scoring-Modelle für Vorerkrankungen, Leistungswahrscheinlichkeit oder Tarifierung natürlicher Personen sind der klarste Versicherungsfall für Hochrisiko-KI nach der EU-VO 2024/1689.
Wenn Underwriting-Modelle persönliche Merkmale auswerten, Anträge vorsortieren oder Preisentscheidungen vorbereiten, bleibt das Profiling natürlicher Personen trotz enger Funktionsbeschreibung regulatorisch besonders sensibel.
Dokumentenklassifikation, Bildvoranalyse oder Priorisierung von Schadenfällen sind nicht allein wegen ihres Einsatzes im Claims-Bereich Hochrisiko. Entscheidend bleibt, ob der konkrete Zweck in einen Anhang-III-Tatbestand fällt.
Fraud-Detection-Systeme sind für Versicherer operativ relevant, werden im Research aber gerade nicht als typischer Annex-III-Fall der Versicherungsregulierung eingeordnet. Sie verlangen trotzdem saubere Governance und Eskalationsprozesse.
Chatbots für Schadenmeldung oder Vertragsauskünfte lösen keine Hochrisiko-Einstufung aus, können aber ab dem 2. August 2026 Transparenzpflichten nach Art. 50 auslösen, wenn Nutzer mit einer KI interagieren.
Versicherungen, die KI für die Risikobewertung von Lebens- oder Krankenversicherungen einsetzen, betreiben regelmäßig Hochrisiko-KI nach Anhang III Nr. 5(c) der EU-VO 2024/1689. Für alle Teams, die solche Systeme entwickeln, beschaffen oder nutzen, gilt die Pflicht zur KI-Kompetenz aus Art. 4 bereits seit dem 2. Februar 2025; die spezifischen High-Risk-Pflichten greifen ab dem 2. August 2026 gemäß Art. 113.
KI in Versicherungen ist nicht pauschal Hochrisiko. Hochrisiko liegt nach der EU-VO 2024/1689 vor allem dann vor, wenn ein System natürliche Personen im Kontext von Lebens- oder Krankenversicherungen bewertet, profiliert oder bepreist. Genau diesen Fall nennt Anhang III Nr. 5(c) ausdrücklich: Risikobewertung und Preisbildung im Verhältnis zu natürlichen Personen in Lebens- und Krankenversicherungen.
Für Versicherer bedeutet das in der Praxis: Underwriting-Modelle, Gesundheitsprognosen, Scoring-Logiken und automatisierte Annahmeempfehlungen sind nicht bloß „smarte Fachanwendungen“, sondern potenziell hochregulierte KI-Systeme. Wer solche Modelle einkauft oder betreibt, sollte deshalb nicht nur den Anbieter fragen, ob „AI Act ready“ auf dem Sales-Deck steht. Entscheidend sind belastbare Unterlagen zu Zweck, Grenzen, Datenbasis, menschlicher Aufsicht und zum vorgesehenen Einsatzkontext. Wenn das System faktisch über Annahme, Zuschläge oder Ausschlüsse mitsteuert, ist eine High-Risk-Einordnung meist der sichere Ausgangspunkt.
Claims-KI ist nach dem AI Act nicht automatisch Hochrisiko. Systeme zur Dokumentenklassifikation, Bildvoranalyse, Priorisierung von Schadenfällen oder Betrugserkennung fallen nicht allein deshalb in Anhang III, weil sie im Schadenprozess laufen. Für Versicherer ist das eine wichtige Differenzierung: Claims-Automatisierung kann operativ sehr relevant sein, ohne dieselbe Risikoklasse wie Underwriting in Leben und Kranken auszulösen.
Trotzdem ist Claims-KI kein rechtsfreier Raum. Wenn ein Modell intransparent arbeitet, fehlerhafte Muster verstärkt oder Fachsachbearbeiter Ergebnisse nur noch abnicken, steigt das Risiko für diskriminierende Entscheidungen, fehlerhafte Leistungsbearbeitung und Dokumentationslücken. Ein Schaden-Chatbot oder Self-Service-Assistent kann zusätzlich ab dem 2. August 2026 unter Art. 50 fallen, weil Nutzer erkennen müssen, dass sie mit einer KI interagieren. Versicherer sollten Claims-Systeme deshalb nicht nur nach „Hochrisiko ja oder nein“ prüfen, sondern nach Zweck, Automatisierungsgrad, Kontrollpunkten und Transparenz.
Versicherer müssen KI-Kompetenz nach Art. 4 seit dem 2. Februar 2025 bereits heute organisieren. Betroffen sind nicht nur Data-Science- oder Compliance-Teams, sondern auch Underwriter, Claims-Manager, Produktverantwortliche, Einkauf, Datenschutz und Führungskräfte, die über Auswahl oder Einsatz von KI-Systemen entscheiden. Maßgeblich ist, ob Personen im Namen des Unternehmens mit dem Betrieb oder der Nutzung von KI-Systemen umgehen.
Die Pflicht aus Art. 4 ist branchenspezifisch zu verstehen. Ein Versicherer mit Hochrisiko-KI in der Lebens- oder Krankenversicherung braucht mehr als eine allgemeine „Prompting-Schulung“. Fachbereiche müssen erkennen können, wann ein Use Case in Anhang III fällt, welche Grenzen ein Anbieter vorgibt, wann menschliche Aufsicht tatsächlich eingreifen muss und welche Eskalationswege bei fehlerhaften Entscheidungen bestehen. Zugleich ist wichtig, die Rechtslage sauber zu kommunizieren: Art. 4 ist verbindlich, aber Art. 99 enthält keinen eigenen unionsweit harmonisierten Bußgeldtatbestand speziell für Verstöße gegen Art. 4. Gerade deshalb sollte die Seite der operativen Nachweisbarkeit im Vordergrund stehen.
Versicherer sollten die Zeit bis zum 2. August 2026 nutzen, um Hochrisiko-KI und kontextabhängige Claims-Systeme sauber auseinanderzuhalten. Wer erst kurz vor Hauptanwendbarkeit mit der Klassifizierung beginnt, muss Fachprozesse, Anbieterunterlagen und Governance gleichzeitig nachziehen. Für Versicherungen ist die bessere Reihenfolge:
Wenn Sie dafür einen schnellen gemeinsamen Wissensstand brauchen, ist der Kursüberblick der passende Einstieg. Für mehrere Fachbereiche bietet das Team-Paket die sinnvollere Struktur, weil Schulung und Nachweis konsistent über Compliance, Fachbereich und Führung organisiert werden können.
Versicherungen arbeiten mit besonders sensiblen Konstellationen: Gesundheitsdaten, Profiling, Tarifierung, Leistungsentscheidungen und massenhaft standardisierte Prozesse. Genau deshalb ist eine falsche Einordnung von KI teurer als in vielen anderen Branchen. Wer Underwriting in Leben und Kranken fälschlich wie eine neutrale Workflow-Automation behandelt, unterschätzt den regulatorischen Kern des AI Act. Wer Claims-Systeme dagegen pauschal als Hochrisiko labelt, verschwendet Zeit und Governance-Ressourcen am falschen Ort.
Die richtige Linie ist deshalb klar. Versicherer sollten Hochrisiko dort priorisieren, wo die Verordnung es ausdrücklich anordnet, und gleichzeitig für Claims, Service und Fraud Detection saubere Kontroll- und Schulungsprozesse aufbauen. Eine belastbare Grundordnung aus Inventar, Klassifizierung, Rollenklärung und Schulung reduziert Reibung vor 2026 erheblich. Für die Einordnung typischer Fragen können Sie zusätzlich die FAQ zur Schulung nutzen; für den Gesamtüberblick zum Angebot finden Sie auf der Startseite die wichtigsten Einstiegspunkte.
Häufige Fragen
Nächster Schritt
Wenn Sie die Pflichten nach Art. 4 sauber dokumentieren wollen, starten Sie mit einem gemeinsamen Schulungsstandard für betroffene Rollen.