Empfehlungssysteme im Handel sind meist kein Hochrisiko, aber derselbe Open-Source-Stack wird sofort reguliert, wenn er Kreditwürdigkeit bewertet, Nutzer manipuliert oder als Chatbot ohne Kennzeichnung mit Kunden spricht. Für Händler ist deshalb nicht das Modell entscheidend, sondern der konkrete Zweck nach Art. 5, Art. 6 und Art. 50 der EU-VO 2024/1689.
Letzte Aktualisierung: 23. März 2026
Open-Source-Modelle wie Mistral können im Einzelhandel sinnvoll sein, wenn Rollen, Risiken und Kennzeichnung sauber geregelt sind. Für die Grundlagen helfen unsere Seiten zu Artikel 4, zur Branche Handel und die kompakten Antworten in der FAQ.
Empfehlungen = meist kein Hochrisiko
KI-Empfehlungssysteme im Onlineshop sind meist kein Hochrisiko, weil Anhang III solche Produktempfehlungen nicht als sensible Entscheidung über Rechte oder wesentliche Leistungen einordnet. Entscheidend ist, ob das System nur Produkte priorisiert oder ob es den Zugang zu Kredit, Beschäftigung oder anderen geschützten Bereichen beeinflusst. Ein Open-Source-Modell für „Kunden kauften auch“ bleibt daher in der Regel außerhalb des Hochrisiko-Regimes.
Für Händler ist die Abgrenzung praktisch einfach. Wenn die KI Schuhe, Bücher oder Zubehör empfiehlt, liegt meist minimales Risiko vor. Wenn dieselbe Logik aber Personen für Finanzierung, Versicherung oder Personalauswahl bewertet, kippt der Fall in einen anderen Rechtsrahmen.
| Einsatz im Handel | Typische Rechtslage | Warum |
|---|---|---|
| Produktempfehlungen im Shop | Meist minimales Risiko | Keine Entscheidung über Grundrechte oder wesentliche Leistungen |
| Sortierung von Suchtreffern | Meist minimales Risiko | Optimiert Relevanz, nicht Kredit oder Beschäftigung |
| Cross-Selling im Warenkorb | Meist minimales Risiko | Marketing- und Umsatzfunktion |
| Personalisierte Finanzierungsfreigabe | Häufig Hochrisiko | Kann Kreditwürdigkeit oder Kreditscore betreffen |
| Bewerberranking für Filialpersonal | Hochrisiko | Fällt unter Anhang III im Personalbereich |
Die operative Prüfung sollte trotzdem dokumentiert werden, weil Händler oft mehrere Funktionen in einem System bündeln. Ein Shop-Plugin kann gleichzeitig Empfehlungen, Chatfunktionen und personalisierte Preissteuerung enthalten. Genau deshalb ist ein KI-Inventar nach Rollen und Zwecken wichtiger als die reine Vendor-Liste.
Prüfen Sie bei jedem Empfehlungssystem mindestens diese Punkte:
- Empfiehlt das System nur Produkte oder beeinflusst es eine wesentliche Entscheidung über Personen?
- Nutzt das System Profiling, das später in Kredit, Finanzierung oder Beschäftigung einfließt?
- Ist im Frontend klar, wo Empfehlung, Werbung und Chatbot-Funktion voneinander getrennt sind?
Wer diese Trennung sauber dokumentiert, reduziert Fehlklassifizierungen. Für die übergreifende Pflicht zur KI-Kompetenz gilt seit dem 2. Februar 2025 bereits Art. 4, auch wenn das konkrete Empfehlungssystem kein Hochrisiko ist.
BNPL + Kredit = sofort Hochrisiko
Sobald KI im Handel die Kreditwürdigkeit natürlicher Personen bewertet oder einen Kreditscore bildet, ist der Einsatz nach Anhang III regelmäßig Hochrisiko. Das gilt nicht nur für Banken, sondern auch für Händler mit „Buy Now, Pay Later“, Ratenkauf oder eingebetteter Finanzierung. Ein Open-Source-Modell verliert in diesem Kontext jede vermeintliche Harmlosigkeit.
Die relevante Norm ist Anhang III Ziffer 5 Buchstabe b in Verbindung mit Art. 6 Abs. 2. Dort werden KI-Systeme zur Bewertung der Kreditwürdigkeit oder zur Festlegung eines Kreditscores ausdrücklich als Hochrisiko eingeordnet. Für Händler mit BNPL heißt das: Nicht der Shop ist das Problem, sondern die Scoring-Entscheidung im Checkout.
| BNPL-Funktion | Einstufung | Begründung |
|---|---|---|
| Allgemeiner Rechnungskauf ohne KI-Scoring | Nicht automatisch Hochrisiko | Keine KI-gestützte Kreditwürdigkeitsprüfung |
| KI-Scoring für Ratenkauf-Freigabe | Hochrisiko | Bewertung der Kreditwürdigkeit natürlicher Personen |
| Ablehnung von BNPL auf Basis eines Profilscores | Hochrisiko | Einfluss auf Zugang zu wesentlicher privater Leistung |
| Betrugserkennung ohne Kreditwürdigkeitsbewertung | Nicht automatisch Hochrisiko | Ausnahmebereich, wenn nur Fraud Detection geprüft wird |
Für Händler entsteht daraus kein theoretisches, sondern ein operatives To-do. Wenn ein externer Zahlungsdienstleister das Modell bereitstellt, bleibt der Händler trotzdem in einer Compliance-Kette und muss verstehen, welcher Prozess im Checkout abläuft. „Das macht unser Payment-Partner“ ist keine belastbare Governance-Antwort.
Vor dem Live-Betrieb von BNPL-KI sollten Sie diese Fragen beantworten:
- Bewertet das System Kreditwürdigkeit, Ausfallwahrscheinlichkeit oder einen Score für natürliche Personen?
- Ist dokumentiert, wer Anbieter und wer Betreiber im Sinne des AI Act ist?
- Liegen technische Unterlagen, menschliche Aufsicht und Eskalationswege für Fehlentscheidungen vor?
Wenn Sie im Handel sowohl Empfehlungen als auch Finanzierung anbieten, müssen Sie die Systeme getrennt klassifizieren. Genau diese Trennung fehlt in vielen Projekten und erzeugt unnötige Risiken zwischen Shop, Payment und Compliance.
Dark Patterns = verboten (Art. 5)
KI-gestützte Dark Patterns können nach Art. 5 verboten sein, wenn sie Nutzer gezielt manipulieren oder täuschen und dadurch ihre informierte Entscheidung wesentlich verzerren. Im Handel betrifft das besonders aggressive Countdown-Logiken, irreführende Checkout-Wege und personalisierte Preisoptimierung, die finanzielle Notlagen oder Stress ausnutzt. Die rote Linie beginnt nicht bei „Conversion-Optimierung“, sondern bei manipulativer Verhaltenssteuerung mit erheblichem Schaden.
Art. 5 Abs. 1 Buchstabe a verbietet unterschwellige sowie gezielt manipulative oder täuschende Techniken. Art. 5 Abs. 1 Buchstabe b verbietet zusätzlich Systeme, die Vulnerabilitäten aus Alter, Behinderung oder sozialer beziehungsweise wirtschaftlicher Lage ausnutzen. Für den Einzelhandel ist das relevant, wenn KI Armut, Stress oder Zeitdruck auswertet, um unfaire Abschlüsse zu forcieren.
| Muster im Shop oder Checkout | Risiko nach AI Act | Einordnung |
|---|---|---|
| Ehrliche Produktempfehlung mit klarer Kennzeichnung | Regelmäßig erlaubt | Keine manipulative Technik |
| Versteckte Kündigungs- oder Abbruchoptionen | Kritisch | Kann täuschende Technik sein |
| Personalisierte Preisaufschläge bei erkannten Stress- oder Engpasssignalen | Sehr kritisch | Kann manipulative Preisoptimierung sein |
| KI-optimierte BNPL-Hinweise bei erkennbarer finanzieller Notlage | Sehr kritisch | Kann Vulnerabilitäten ausnutzen |
| Falsche Knappheitssignale „nur noch 1 verfügbar“ ohne Faktengrundlage | Kritisch | Täuschende Technik |
| Personalisierter Druck „Sie müssen jetzt kaufen“ auf Basis von Stresssignalen | Sehr kritisch | Manipulative Technik |
Händler sollten Dark Patterns nicht nur als UX-Thema behandeln. Seit dem 2. Februar 2025 gelten die Verbote aus Art. 5, und Verstöße liegen im höchsten Sanktionsrahmen des AI Act. Nach Art. 99 sind bis zu 35 Mio. EUR oder 7 Prozent des weltweiten Jahresumsatzes möglich.
Diese Designmuster sollten Sie sofort prüfen:
- Countdowns, Verknappung und Rabattfenster, die durch KI personalisiert werden.
- Preisaufschläge, die aus Kaufdruck, Lieferengpässen oder Bonitätsindikatoren höhere Zahlungsbereitschaft ableiten.
- Voreinstellungen für BNPL, Zusatzgarantien oder Versicherungen im Checkout.
- Interfaces, die den Abbruch erschweren, aber den Abschluss mit emotionalem Druck beschleunigen.
Wenn Ihre Teams Marketing, UX und E-Commerce getrennt steuern, braucht jede Rolle denselben Rechtsrahmen. Sonst optimiert ein Team auf Conversion, während ein anderes Team später Art.-5-Risiken erklären muss.
Chatbot-Kennzeichnung nach Art. 50
Kunden müssen bei KI-Chatbots grundsätzlich erkennen können, dass sie mit einem KI-System interagieren. Diese Transparenzpflicht folgt aus Art. 50 Abs. 1 und wird ab dem 2. August 2026 anwendbar. Für Support, Verkaufsberatung und Rückfragen im Shop ist das der häufigste Pflichtfall im Handel.
Die Pflicht greift unabhängig davon, ob der Chatbot auf Mistral, einem anderen Open-Source-Modell oder einer proprietären API läuft. Maßgeblich ist die Interaktion mit dem Nutzer, nicht die Lizenz. Ein Self-Hosted-System spart also keine Kennzeichnungspflicht.
| Chatbot-Szenario | Pflicht | Frist |
|---|---|---|
| Support-Chat im Shop beantwortet Kundenfragen | Kennzeichnung als KI erforderlich | Ab 2. August 2026 |
| Interner Assistent nur für Mitarbeitende | Keine externe Chatbot-Kennzeichnung | Trotzdem Art.-4-Schulung |
| KI-Avatar im Verkaufsgespräch | Kennzeichnung prüfen | Abhängig von Ausgestaltung und Darstellung |
| Reine FAQ-Seite ohne interaktive KI | Keine Chatbot-Pflicht | Kein Dialog mit KI |
Die Kennzeichnung muss praktisch auffindbar und verständlich sein. Ein unlesbarer Hinweis im Footer reicht dafür regelmäßig nicht. Besser ist ein sichtbarer Hinweis direkt am Einstieg in den Chat und in der ersten Bot-Nachricht.
Für die Umsetzung im Einzelhandel bietet sich diese Minimalstruktur an:
- Vor dem Start des Chats ein kurzer Hinweis wie „Sie chatten mit einem KI-System“.
- In der ersten Antwort ein erneuter Klartext-Hinweis mit Möglichkeit zur Übergabe an einen Menschen.
- Interne Regeln, wann der Bot abbricht und an einen Mitarbeitenden eskaliert.
Wer die Pflicht vertiefen will, findet die Detailseite zu Artikel 50. Für typische Rückfragen aus Unternehmen ist die FAQ der schnellste Ergänzungspunkt.
Mistral für Support-Chatbots
Mistral ist für Support-Chatbots im Handel oft eine pragmatische Open-Source-nahe Wahl, weil Kosten, EU-Nähe und flexible Betriebsmodelle gut zusammenpassen. Das Modell macht den Einsatz aber nicht automatisch compliant. Händler müssen weiterhin Kennzeichnung, Zugriff auf Produktdaten, menschliche Eskalation und Schulung sauber regeln.
Für Support-Use-Cases ist Mistral meist besser geeignet als für Kredit- oder BNPL-Scoring. Der Grund ist einfach: Ein FAQ- oder Retouren-Chatbot liegt typischerweise außerhalb von Anhang III, solange er nicht selbst über wesentliche Leistungen entscheidet. Damit passt Mistral gut zu begrenzten Risiko- und Transparenzfällen, aber nicht als bequeme Abkürzung für hochregulierte Entscheidungen.
| Kriterium | Mistral im Support-Chat | Bewertung |
|---|---|---|
| Produkt- und Retourenfragen | Gut geeignet | Typischer Assistenzfall |
| Self-Hosting oder EU-nahes Hosting | Oft gut umsetzbar | Vorteil für Datensouveränität |
| BNPL-Freigaben oder Kreditscores | Nicht als Standardfall geeignet | Hochrisiko-Kontext |
| Vollautomatische Rechts- oder Kulanzentscheidungen | Kritisch | Menschliche Prüfung nötig |
Ein Handels-Chatbot auf Mistral braucht klare Leitplanken:
- Der Bot beantwortet Informationen, trifft aber keine Kredit- oder Kulanzentscheidungen mit Außenwirkung ohne menschliche Freigabe.
- Produktdaten, Lieferzeiten und Rückgaberegeln kommen aus gepflegten Quellen statt aus freien Halluzinationen.
- Jeder sensible Fall wird an einen Menschen übergeben, wenn Zahlungsprobleme, Beschwerden oder Identitätsfragen auftauchen.
Wenn Sie Open-Source-KI im Handel strategisch ausrollen wollen, trennen Sie Support, Marketing und Finanzierungslogik technisch voneinander. Diese Architektur ist meist günstiger als ein Allzweck-System, das später gleichzeitig unter Art. 5, Art. 6 und Art. 50 geprüft werden muss.
Compliance-Checkliste Einzelhandel
Die schnellste Compliance-Route im Einzelhandel ist eine saubere Trennung zwischen Empfehlung, Chat, Preissteuerung und Finanzierung. Wer diese vier Bereiche getrennt inventarisiert, klassifiziert und dokumentiert, reduziert den größten Teil der praktischen AI-Act-Fehler. Für Handelsunternehmen ist das wichtiger als die Frage, ob ein Modell „open source“ auf dem Marketing-Slide trägt.
Die Checkliste sollte in jeder Filiale, jedem Onlineshop-Team und jedem E-Commerce-Projekt identisch verwendet werden. So vermeiden Sie, dass ein harmloses Empfehlungssystem mit einem Hochrisiko-Scoring vermischt wird. Für branchenspezifische Einordnung hilft zusätzlich die Übersichtsseite Handel.
| Prüffeld | Frage | Rechtsanker |
|---|---|---|
| Empfehlungssystem | Empfiehlt die KI nur Produkte oder bewertet sie Personen? | Art. 6 / Anhang III |
| BNPL und Finanzierung | Wird Kreditwürdigkeit oder ein Score berechnet? | Art. 6 Abs. 2, Anhang III 5(b) |
| Preisoptimierung | Nutzt die KI manipulative oder täuschende Muster? | Art. 5 Abs. 1 lit. a und b |
| Chatbots | Erkennen Nutzer die KI-Interaktion klar? | Art. 50 Abs. 1 |
| Schulung | Sind betroffene Rollen seit dem 2. Februar 2025 geschult? | Art. 4 |
Setzen Sie die Umsetzung in dieser Reihenfolge auf:
- Alle KI-Systeme im Shop, CRM, Payment und Kundenservice inventarisieren.
- BNPL-, Scoring- und Preislogiken getrennt von reinen Empfehlungssystemen bewerten.
- Chatbots mit klarer Kennzeichnung und Human-Handover planen.
- Marketing- und UX-Teams auf Art. 5 schulen, damit Dark Patterns nicht als Wachstumstest durchrutschen.
- Nachweise für Rollen, Schulung und Freigaben dokumentieren.
Wenn Sie dafür ein gemeinsames Mindestniveau brauchen, ist eine kompakte EU AI Act Schulung für Vertrieb, E-Commerce, Kundenservice und Compliance meist der schnellste Start. Sie schafft ein dokumentierbares Verständnis für Artikel 4, Transparenzpflichten und rote Linien im Checkout.