Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Wissens-Übersicht
ChatGPT DSGVOChatGPT Unternehmen DatenschutzOpenAI DSGVOKI-Tools datenschutzkonformChatGPT Kundendaten

ChatGPT und DSGVO — Was dürfen Unternehmen?

ChatGPT DSGVO-konform nutzen: Rechtsgrundlage, Auftragsverarbeitung und praktische Regeln für 2026.

Veröffentlicht: 17. Februar 2026Letzte Aktualisierung: 20. März 202610 Min. Lesezeit

ChatGPT und DSGVO: Was dürfen Unternehmen?

Letzte Aktualisierung: 20. März 2026

ChatGPT im Unternehmen einzusetzen erfordert die Einhaltung von DSGVO, AI Act und, bei NIS2-relevanten Sektoren, zusätzlicher Cybersecurity-Maßnahmen für den KI-Einsatz. Die kurze Antwort für 2026 lautet: Ja, Unternehmen können ChatGPT DSGVO-konform nutzen, aber in der Regel nur mit Business-, Enterprise- oder API-Verträgen, klaren Prompt-Regeln und ohne unkontrollierte Eingabe personenbezogener Daten.

Entscheidend ist nicht der Modellname, sondern das Betriebsmodell. Ein kostenloser oder privater ChatGPT-Zugang von Beschäftigten ist datenschutzrechtlich etwas völlig anderes als ein zentral beschaffter Business-Workspace mit DPA, Rollenrechten, Löschkonzept und interner KI-Richtlinie. Wer die Governance-Ebene vertiefen will, sollte ergänzend ChatGPT im Unternehmen und AI Act, KI-Verordnung vs. DSGVO, Auftragsverarbeitung nach Art. 28 DSGVO, Shadow-KI im Unternehmen und Betriebsrat und KI-Mitbestimmung lesen.

Wann ChatGPT im Unternehmen datenschutzrechtlich vertretbar ist

ChatGPT ist für Unternehmen nur dann vertretbar, wenn die Verarbeitung personenbezogener Daten auf einen klaren Zweck begrenzt ist und der konkrete Dienst datenschutzrechtlich beherrscht wird. In der Praxis heißt das: Sie brauchen eine Rechtsgrundlage nach Art. 6 DSGVO, eine dokumentierte Rollenverteilung, ein passendes Vertragsmodell mit OpenAI, definierte Dateneingaberegeln und eine Risikoabwägung für den jeweiligen Anwendungsfall.

Für viele interne Standardfälle kommt Art. 6 Abs. 1 lit. f DSGVO als Rechtsgrundlage in Betracht, also das berechtigte Interesse des Unternehmens an effizienter Wissensarbeit, Textentwürfen oder interner Recherche. Diese Rechtsgrundlage ist aber kein Freifahrtschein. Nach der EDPB-Stellungnahme 28/2024 vom 18. Dezember 2024 ist berechtigtes Interesse bei KI nur tragfähig, wenn die Verarbeitung streng erforderlich ist und die Interessenabwägung zugunsten des Unternehmens ausfällt. Gerade bei Kundendaten, Beschäftigtendaten oder öffentlich gescrapten Informationen wird diese Abwägung schnell schwieriger.

Eine Einwilligung ist im Unternehmensalltag meist nicht die Standardlösung. Gegenüber Beschäftigten scheitert sie oft an der fehlenden Freiwilligkeit. Gegenüber Kunden ist sie zu unpraktisch, wenn KI nur als internes Hilfsmittel genutzt wird. Wer sich reflexhaft auf Einwilligung stützt, baut häufig eine fragilere Struktur als nötig.

Die operative Faustregel lautet deshalb: Für generische interne Entwürfe ohne Personenbezug reicht oft ein sauber geregelter Unternehmenszugang. Für Verarbeitung mit Personenbezug müssen Sie dagegen genau prüfen, ob der Use Case wirklich erforderlich ist, ob Pseudonymisierung möglich ist und ob ChatGPT gegenüber einer lokaleren oder risikoärmeren Alternative überhaupt verhältnismäßig bleibt.

OpenAI als Auftragsverarbeiter: ja, aber nicht in jedem Produkt

OpenAI kann im Unternehmenskontext Auftragsverarbeiter im Sinne von Art. 28 DSGVO sein, aber nur innerhalb des passenden Vertragsmodells. Das ist der zentrale Unterschied zwischen Consumer-Nutzung und Business-Nutzung.

Im OpenAI-DPA vom 15. Februar 2024 steht ausdrücklich, dass das DPA für Kundendaten gilt, die über die API oder ChatGPT Enterprise verarbeitet werden, und dass der Kunde die Zwecke und Mittel bestimmt, während OpenAI diese Daten als Processor verarbeitet. Für EWR-Kunden kontrahiert dabei laut DPA regelmäßig OpenAI Ireland Ltd.. Daraus folgt: Für Enterprise- und API-Setups gibt es eine belastbare Grundlage, OpenAI als Auftragsverarbeiter einzuordnen.

Für kostenlose oder private ChatGPT-Konten fehlt diese Struktur typischerweise. Dort haben Unternehmen weder denselben vertraglichen Hebel noch dieselben Admin-Kontrollen. Genau deshalb sind freie Einzelkonten für die berufliche Nutzung mit personenbezogenen Daten regelmäßig ungeeignet.

Wichtig ist außerdem die Produktentwicklung seit 2025: Das frühere ChatGPT Team heißt inzwischen ChatGPT Business. OpenAI kommuniziert für Business und Enterprise, dass Geschäftsdaten standardmäßig nicht zum Modelltraining genutzt werden. Das ist ein wichtiger Unterschied zum Consumer-Bereich, ersetzt aber keine eigene Prüfung von Speicherorten, Logs, Subunterauftragsverarbeitern und zulässigen Eingabedaten.

DPA, Drittlandtransfer und USA: kein Ausschlussgrund, aber ein Prüfpunkt

Ein Vertrag nach Art. 28 DSGVO reicht allein nicht aus. Unternehmen müssen zusätzlich prüfen, wo die Daten verarbeitet werden und auf welcher Grundlage ein möglicher Drittlandtransfer in die USA stattfindet.

Im OpenAI-DPA ist geregelt, dass Daten aus dem EWR oder der Schweiz zunächst von OpenAI Ireland Ltd. verarbeitet werden. Soweit diese Daten an andere OpenAI-Gesellschaften in Staaten ohne gleichwertiges Datenschutzniveau übermittelt werden, nennt das DPA als Transfermechanismen insbesondere die EU-Standardvertragsklauseln oder eine Angemessenheitsentscheidung nach Art. 45 DSGVO. Für britische Daten verweist das DPA auf SCCs plus UK Addendum. Daraus folgt praktisch: Ein DPA löst das Transfer-Thema nicht, sondern strukturiert es vertraglich.

Zusätzlich hat OpenAI im Februar 2025 eine Data Residency in Europe für bestimmte API- und ChatGPT-Angebote angekündigt. Das verbessert die Datenlokation, beseitigt aber nicht automatisch jede Drittlandsfrage. Datenresidenz ist technisch hilfreich, rechtlich jedoch nur ein Baustein unter mehreren.

Unternehmen sollten deshalb drei Dinge sauber dokumentieren:

PrüffrageWarum sie relevant istWas Sie dokumentieren sollten
Welches OpenAI-Produkt wird genutzt?Consumer, Business, Enterprise und API haben unterschiedliche Datenschutzprofile.Vertragstyp, Workspace, Admin-Verantwortliche
Welche Daten gehen in Prompts oder Dateien?Das entscheidet über Risiko, Rechtsgrundlage und DSFA-Bedarf.Datenklassen, Verbotslisten, Pseudonymisierung
Wohin fließen die Daten tatsächlich?Drittlandtransfer, Subunterauftragsverarbeiter und Speicherdauer müssen nachvollziehbar sein.DPA, SCC-Bezug, Subprocessor-Liste, Löschkonzept

Die juristisch nüchterne Antwort lautet also: OpenAI-Nutzung ist nicht schon deshalb unzulässig, weil der Anbieter US-bezogen ist. Sie ist aber nur vertretbar, wenn Transfermechanik, DPA, technische Einstellungen und interner Use Case zusammenpassen.

Trainingsdaten, Halluzinationen und warum Prompts selbst zum Datenschutzproblem werden

Das größte Missverständnis in vielen Unternehmen lautet: „Wenn wir nichts trainieren, haben wir kein Datenschutzproblem.“ Das ist falsch. Schon der einzelne Prompt kann eine personenbezogene Verarbeitung sein.

Die Hamburger Datenschutzaufsicht hat in ihrer Checkliste zu LLM-Chatbots klargestellt, dass bei Anbietern, die sich eine Nutzung zu eigenen Zwecken vorbehalten, grundsätzlich keine personenbezogenen Daten eingegeben werden sollten, weil dafür regelmäßig keine tragfähige Rechtsgrundlage besteht. Außerdem sollen Eingaben möglichst keinen Bezug zu Einzelpersonen herstellen. Diese Linie ist für die Praxis weiterhin relevant: Auch wenn Business- oder Enterprise-Produkte datenschutzfreundlicher sind, bleibt der Grundsatz der Datenminimierung bestehen.

Hinzu kommt das Halluzinationsrisiko. Der HmbBfDI weist darauf hin, dass Ausgaben falsch oder diskriminierend sein können und von Nutzerinnen und Nutzern auf Richtigkeit geprüft werden müssen. Datenschutzrechtlich wird das besonders heikel, wenn ChatGPT einer realen Person Eigenschaften, Bewertungen oder Tatsachen zuordnet, die falsch sind. Dann reden Sie nicht nur über IT-Effizienz, sondern über mögliche Verstöße gegen Richtigkeit, Fairness und gegebenenfalls arbeitsrechtliche oder zivilrechtliche Pflichten.

Die EDPB-Stellungnahme 28/2024 verschärft diesen Punkt: Ein KI-Modell ist nicht schon deshalb anonym, weil seine Gewichte keine Personennamen im Klartext enthalten. Nach Auffassung der EDPB ist immer im Einzelfall zu prüfen, ob Personen direkt oder indirekt identifiziert oder personenbezogene Daten durch Abfragen aus dem Modell extrahiert werden können. Das ist ein wichtiger Grund, warum Unternehmen bei Personendaten zurückhaltend bleiben sollten.

Was BfDI, DSK, Hamburg und Italien praktisch bedeuten

Für deutsche Unternehmen ist nicht ein einzelnes „ChatGPT-Verbot“ maßgeblich, sondern die Summe der Aufsichtssignale. Die DSK-Orientierungshilfe „Künstliche Intelligenz und Datenschutz“ vom 6. Mai 2024 richtet sich ausdrücklich an Stellen, die KI-Anwendungen einsetzen möchten. Sie verlangt unter anderem eine Prüfung der Rechtsgrundlage, Transparenz, Verantwortlichkeit, interner Regeln und der Datenschutz-Folgenabschätzung.

Besonders wichtig für die Praxis sind zwei Aussagen der DSK:

  1. Wenn eine KI-Anwendung als Cloud-Lösung genutzt wird, muss der Verantwortliche prüfen, ob der Anbieter als Auftragsverarbeiter einzuordnen ist und die nötigen Informationen zur Erfüllung der Betroffenenrechte bereitstellt.
  2. Beim Einsatz von KI-Anwendungen wird eine DSFA nach Art. 35 DSGVO vielfach erforderlich sein, weil häufig ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen vorliegt.

Die DSK-TOM-Orientierungshilfe vom Juni 2025 ergänzt diese Perspektive technisch. Dort wird betont, dass Datenschutz bei KI von Anfang an nach dem Prinzip data protection by design mitzudenken ist. Für Unternehmen bedeutet das vor allem im Beschaffungsprozess: Nicht erst nach Vertragsabschluss fragen, wie Löschung, Zugriff, Logging, Datenminimierung und Voreinstellungen funktionieren.

Der BfDI setzt denselben Schwerpunkt und behandelt KI-Modelle ausdrücklich als Datenschutzthema, nicht als rechtsfreien Innovationsraum. Für Unternehmen besonders relevant ist die seit 2025 laufende BfDI-Konsultation zu KI-Modellen und personenbezogenen Daten sowie die in der deutschen Aufsicht betonte Logik von Datenminimierung, Transparenz, Intervenierbarkeit, Vertraulichkeit und Zweckbindung über den gesamten Lebenszyklus eines KI-Systems. Praktisch heißt das: Wer ChatGPT einführt, sollte nicht nur den Prompt regeln, sondern Design, Beschaffung, Betrieb und Monitoring als zusammenhängenden Datenschutzprozess dokumentieren.

Der Hamburgische Beauftragte hat zusätzlich sehr praktische Warnhinweise gegeben: keine personenbezogenen Daten in unsichere Chatbot-Setups, History kritisch prüfen, Ergebnisse validieren, Beschäftigte schulen. Genau deshalb ist der Beitrag Shadow-KI im Unternehmen für die operative Umsetzung relevant.

Das italienische Verfahren gegen OpenAI bleibt ebenfalls ein wichtiges Signal. Die italienische Datenschutzbehörde Garante hatte OpenAI Ende 2024 mit 15 Millionen Euro sanktioniert und kritisierte unter anderem fehlende Rechtsgrundlage für Trainingsverarbeitung und Transparenzmängel. Nach dem aktuellen Stand vom März 2026 wurde der konkrete Bescheid zwar gerichtlich aufgehoben beziehungsweise suspendiert, die aufsichtsrechtlichen Kernfragen verschwinden dadurch aber nicht. Für Unternehmen ist das keine Entwarnung, sondern ein Hinweis, dass Rechtsgrundlage und Transparenz bei GenAI weiterhin europaweit im Fokus stehen.

Was konkret in den Prompt darf und was nicht

Für die meisten Unternehmen ist die wichtigste Compliance-Maßnahme keine juristische Klausel, sondern eine klare Prompt-Regel. Beschäftigte müssen wissen, welche Inhalte zulässig sind und welche nicht.

Die sichere Standardregel lautet: Keine Kundendaten, keine Bewerberdaten, keine Gesundheitsdaten, keine Leistungs- oder Verhaltensprofile, keine vertraulichen Vertragsentwürfe und keine Zugangsdaten in ChatGPT eingeben, solange der konkrete Anwendungsfall nicht ausdrücklich freigegeben und technisch abgesichert ist.

Zulässig und meist unproblematisch sind dagegen Fälle wie:

NutzungsszenarioDSGVO-BewertungAI-Act-Einstufung
Werbetext ohne PersonenbezugRegelmäßig niedriges RisikoArt. 4 KI-Kompetenz beachten
Interne Ideensammlung ohne PersonendatenRegelmäßig vertretbarArt. 4 KI-Kompetenz beachten
Zusammenfassung pseudonymisierter SachverhalteEinzelfallprüfung, meist nur mit Business/APIArt. 4, interne Governance erforderlich
Analyse echter KundennachrichtenHohes Datenschutzrisiko, oft nur mit strenger FreigabeArt. 4, ggf. zusätzliche TOMs
Auswertung von BewerbungenSehr hohes Risiko, häufig DSFA und MitbestimmungAI Act plus Art. 22/35 DSGVO relevant

Wenn ein fachlicher Nutzen nur mit Personenbezug erreichbar ist, sollte der erste Schritt fast immer Pseudonymisierung sein. Namen, E-Mail-Adressen, Personalnummern, Aktenzeichen und Freitextfelder mit Identifizierungsmerkmalen gehören vorab entfernt oder ersetzt. Die zweite Stufe ist die Prüfung, ob statt ChatGPT ein EU-näheres oder internes Modell sinnvoller ist. Die dritte Stufe ist eine dokumentierte Freigabe durch Fachbereich, Datenschutz und gegebenenfalls IT-Sicherheit.

Enterprise, Business, API oder Free: die Datenschutzunterschiede

Datenschutzrechtlich ist nicht „ChatGPT“ die relevante Kategorie, sondern die Frage, welche Version Sie nutzen.

Free, Plus oder private Einzelkonten sind für Unternehmensdaten regelmäßig die schlechteste Option. Sie fördern Schatten-IT, individuelle Opt-out-Fehler, unklare Verantwortlichkeiten und fehlende Admin-Kontrollen.

ChatGPT Business und ChatGPT Enterprise sind deutlich besser steuerbar, weil OpenAI dort Geschäftsdaten standardmäßig nicht zum Training verwendet und zentrale Admin-Funktionen bereitstellt. Für viele KMU ist Business der realistische Mindeststandard, wenn überhaupt ein Web-Workspace genutzt werden soll.

Die API ist aus Governance-Sicht oft am saubersten, weil Unternehmen Prompt-Flüsse, Protokollierung, Vorverarbeitung, Maskierung und Ausgabeprüfung stärker selbst kontrollieren können. Gleichzeitig zeigt die OpenAI-Dokumentation zu API-Datenkontrollen, dass standardmäßig Missbrauchslogs bis zu 30 Tage anfallen können und manche Funktionen Anwendungszustand länger speichern. Für besonders sensible Umgebungen sind deshalb zusätzliche Optionen wie Modified Abuse Monitoring oder Zero Data Retention relevant, sofern verfügbar und freigegeben.

Die pragmatische Empfehlung lautet daher:

  1. Keine berufliche Nutzung über private Konten.
  2. Für generelle Büroanwendungen mindestens Business oder Enterprise.
  3. Für sensible oder integrierte Prozesse eher API mit Vorverarbeitung, Logging-Kontrolle und Pseudonymisierung.
  4. Für besonders kritische Branchen zusätzlich NIS2-, Informationssicherheits- und Lieferkettenaspekte prüfen, etwa im Vergleich CRA, NIS2 und AI Act sowie im Leitfaden zu ISO 42001.

Betriebsrat, Mitbestimmung und warum § 87 Abs. 1 Nr. 6 BetrVG hier schnell greift

Sobald ChatGPT oder ein verbundenes KI-Tool geeignet ist, Verhalten oder Leistung von Beschäftigten zu überwachen, auszuwerten oder auch nur mittelbar nachvollziehbar zu machen, müssen Unternehmen den Betriebsrat sehr früh einbeziehen. § 87 Abs. 1 Nr. 6 BetrVG ist bei KI-Tools deshalb regelmäßig relevant.

Die DSK erwähnt ausdrücklich, dass die Beteiligung von Betriebs- und Personalräten zu prüfen ist, wenn Entscheidungen über KI-Anwendungen vorbereitet oder getroffen werden. Das ist für Unternehmen mehr als ein Formalpunkt. Schon zentral verwaltete Workspace-Logs, Nutzungsanalysen, Prompt-Historien oder Qualitätsauswertungen können einen Mitbestimmungstatbestand auslösen.

Eine gute Betriebsvereinbarung zu generativer KI beantwortet mindestens diese Fragen:

  1. Welche Tools sind freigegeben?
  2. Welche Daten dürfen Beschäftigte eingeben?
  3. Welche Protokolle und Nutzungsdaten werden gespeichert?
  4. Wer darf Auswertungen sehen?
  5. Welche Zwecke sind ausgeschlossen, etwa Leistungs- und Verhaltenskontrolle?

Wer den arbeitsrechtlichen Teil unterschätzt, baut oft technisch saubere, aber organisatorisch instabile Lösungen. Genau hier greifen Datenschutz, AI Act und Mitbestimmung ineinander.

Fazit: DSGVO-konforme ChatGPT-Nutzung ist möglich, aber nie nebenbei

ChatGPT kann im Unternehmen 2026 DSGVO-konform einsetzbar sein, wenn Sie das richtige Produkt wählen, einen Vertrag nach Art. 28 DSGVO abschließen, Drittlandtransfers dokumentieren, personenbezogene Prompts strikt begrenzen, Beschäftigte schulen und Betriebsrat sowie Datenschutzbeauftragte früh einbinden. Die eigentliche Regel lautet nicht „ChatGPT ja oder nein“, sondern „welcher Use Case mit welchem Datenschutzprofil in welchem Vertragsmodell“.

Wer schnell starten will, sollte zuerst eine einfache Vier-Stufen-Ordnung umsetzen: keine privaten Konten, klare Datenklassifizierung, Business- oder API-Standard statt Free-Nutzung und Freigabeprozess für personenbezogene Anwendungsfälle. Damit reduzieren Sie den größten Teil des realen Risikos sofort.

Wenn Sie daraus einen belastbaren Standard für Ihr Unternehmen machen wollen, ist der nächste Schritt keine weitere Einzelentscheidung im Fachbereich, sondern eine dokumentierte Schulung zu AI Act, Datenschutz und sicherer KI-Nutzung. Dafür ist die EU AI Act Schulung der passende Einstieg.

FAQ zu ChatGPT und DSGVO im Unternehmen

Darf ich ChatGPT mit Kundendaten nutzen?

Nur ausnahmsweise und nur mit dokumentierter Rechtsgrundlage, geeignetem Vertragsmodell und möglichst starker Pseudonymisierung. Für freie oder private Konten lautet die sichere Praxisregel: nein.

Brauche ich eine DSFA für KI?

Oft ja. Nach der DSK wird beim Einsatz von KI-Anwendungen vielfach ein hohes Risiko vorliegen, sodass eine DSFA nach Art. 35 DSGVO erforderlich sein kann.

Brauche ich einen AVV mit OpenAI?

Ja, sobald OpenAI im Unternehmenskontext personenbezogene Daten in Ihrem Auftrag verarbeitet. Bei Business-, Enterprise- oder API-Verträgen ist dafür das OpenAI-DPA relevant.

Welche ChatGPT-Version ist DSGVO-konform?

Am ehesten vertretbar sind Business, Enterprise oder API mit aktivierten Datenschutzkontrollen. Consumer-Pläne sind für Unternehmensdaten regelmäßig ungeeignet.

Was sagt der AI Act zur ChatGPT-Nutzung?

Seit dem 2. Februar 2025 verlangt Art. 4 der EU-KI-Verordnung ausreichende KI-Kompetenz. Unternehmen müssen Beschäftigte deshalb zur sicheren und regelkonformen KI-Nutzung schulen und ihre Governance dokumentieren.

Ihr KI-Nachweis in 90 Minuten

Seit Februar 2025 gilt der EU AI Act. Jedes Unternehmen in der EU muss nachweisen, dass seine Mitarbeiter im Umgang mit KI geschult sind. Per Gesetz und ohne Ausnahme. Ohne Nachweis drohen Bußgelder bis 35 Mio. EUR oder 7% des Jahresumsatzes.