Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Wissens-Übersicht
open weight kiopen source ki unterschiedopen weight definitionopen weight vs open sourcellama open weight

Open Weight vs. Open Source bei KI — Der Unterschied für Compliance

Open Weight vs. Open Source bei KI-Modellen: 4-Komponenten-Vergleich, welche Modelle was sind und warum der Unterschied für den EU AI Act entscheidend ist.

Veröffentlicht: 23. März 2026Letzte Aktualisierung: 23. März 20269 Min. Lesezeit

Letzte Aktualisierung: 23. März 2026

Open Weight ist nicht Open Source. Für Compliance ist genau diese Unterscheidung entscheidend, weil der EU AI Act nur Modelle mit freier und quelloffener Lizenz ausdrücklich begünstigt, während reine Gewichtsveröffentlichungen rechtlich nicht automatisch denselben Status haben. Wenn Ihr Unternehmen Llama, Mistral, DeepSeek oder andere offene Modelle einsetzt, sollten Sie deshalb zuerst prüfen, was tatsächlich veröffentlicht wurde und was nur nach Offenheit klingt.

Die verkürzte Faustregel lautet: Open Weight bedeutet meist, dass die Modellgewichte öffentlich verfügbar sind. Open Source bedeutet dagegen, dass Sie das System in einem weitreichenderen Sinn nachvollziehen, prüfen, verändern und weitergeben können. Dafür reichen Gewichte allein nicht aus. Für die betriebliche Einordnung helfen ergänzend unsere Beiträge zu KI-Systemen im Sinn des EU AI Act, zur AI-Act-Checkliste für Unternehmen und zur Rollenabgrenzung Anbieter vs. Betreiber nach dem AI Act.

Open Weight vs. Open Source: Definition und Abgrenzung

Open Weight bezeichnet ein KI-Modell, bei dem primär die trainierten Gewichte veröffentlicht werden. Das ist nützlich, weil Sie das Modell lokal ausführen, feinjustieren oder in eigene Anwendungen integrieren können. Es ist aber nur ein Teil des Gesamtbildes. Wer nur Gewichte erhält, sieht das Endergebnis des Trainings, aber nicht automatisch den gesamten Entstehungsweg.

Open Source geht weiter. Nach dem strengen Maßstab der Open Source Initiative und der Logik von Erwägungsgrund 102 zum EU AI Act reicht Offenheit erst dann wirklich aus, wenn Nutzer das Modell nicht nur laden, sondern auch sinnvoll untersuchen, verändern und weitergeben können. Dazu gehören nicht nur Gewichte, sondern auch Informationen über Architektur, Datenherkunft, Trainingspipeline und die rechtlichen Freiheiten aus der Lizenz.

Der Unterschied ist praktisch relevant, weil viele Anbieter den Begriff Open Source marketingnah verwenden, obwohl sie in Wahrheit nur Open-Weight-Modelle veröffentlichen. Genau daraus entsteht das Begriffschaos. Ein Modell kann öffentlich downloadbar sein und trotzdem nicht als echtes Open Source gelten, wenn zentrale Bausteine fehlen oder die Lizenz die freie Weitergabe und Änderung einschränkt.

Für Unternehmen ist diese Abgrenzung aus drei Gründen wichtig:

  1. Compliance beginnt mit der richtigen Klassifizierung. Wer ein Modell fälschlich als Open Source behandelt, unterschätzt schnell Dokumentations-, Lizenz- oder Governance-Pflichten.
  2. Auditierbarkeit hängt nicht nur an Gewichten. Ohne Trainingsdaten oder nachvollziehbare Datendokumentation können Sie Bias-, Urheberrechts- und Qualitätsfragen nur begrenzt prüfen.
  3. Der AI Act verwendet keine Marketingbegriffe, sondern rechtliche Kriterien. Entscheidend ist deshalb nicht, wie ein Anbieter sein Modell bewirbt, sondern ob die Voraussetzungen aus Lizenz und Offenlegung tatsächlich erfüllt sind.

Die wichtigste Konsequenz lautet daher: Open Weight ist ein technisches Veröffentlichungsmodell. Open Source ist ein weitergehender Transparenz- und Lizenzstatus. Wer beide Begriffe gleichsetzt, trifft schnell falsche Beschaffungs- und Compliance-Entscheidungen.

Die 4 Komponenten von echtem Open-Source-KI

Echte Open-Source-KI besteht aus vier Kernkomponenten. Wenn eine davon fehlt, ist das Modell in der Praxis meist eher Open Weight oder nur teilweise offen, aber nicht vollständig reproduzierbar und nicht voll auditierbar.

KomponenteWas offen vorliegen sollteWarum das für Compliance relevant ist
ModellgewichteDie trainierten Gewichte und die für Inferenz nötigen ArtefakteOhne Gewichte können Sie das Modell nicht selbst prüfen oder betreiben
TrainingscodeCode für Pretraining, Fine-Tuning, Evaluation oder zumindest die wesentlichen TrainingsschritteOhne Code ist der Entstehungsprozess nur eingeschränkt nachvollziehbar
Trainingsdaten oder belastbare DatendokumentationDatensätze selbst oder, wenn rechtlich nicht vollständig veröffentlichbar, ausreichend detaillierte Informationen zu Herkunft, Auswahl und AufbereitungOhne Datentransparenz bleiben Urheberrechts-, Bias- und Qualitätsfragen offen
Offene LizenzEine freie und quelloffene Lizenz im Sinn echter Nutzungs-, Änderungs- und WeitergaberechteOhne offene Lizenz ist technische Offenheit rechtlich wertlos oder eingeschränkt

Dieses 4-Komponenten-Modell ist bewusst streng. Es spiegelt die Frage wider, ob ein Unternehmen ein Modell wirklich prüfen und kontrollieren kann, statt nur Zugang zu einer lauffähigen Datei zu bekommen. Genau daran entscheidet sich oft, wie tragfähig die Lösung für regulierte oder sensible Anwendungsfälle ist.

Die folgende vereinfachte Einordnung hilft bei der Bewertung häufiger Modelle:

ModellGewichteTrainingscodeTrainingsdaten / DatentransparenzLizenzEinordnung
LlamaJaTeilweise / neinNeinRestriktive Meta-LizenzOpen Weight
Mistral Open ModelsJaTeilweiseNein bzw. nicht vollständigFür viele Modelle Apache 2.0Offen lizenziert; nach strengem 4-Komponenten-Maßstab meist nicht vollständig Open Source
DeepSeekJaTeilweiseKeine vollständigen TrainingsdatenMIT für Teile, aber keine volle ReproduzierbarkeitOpen Weight
GPT-4oNeinNeinNeinProprietärClosed
BLOOMJaWeitgehendWeitgehend dokumentiertRAIL-Lizenz mit NutzungsbeschränkungenSehr offen, aber nicht OSI-konformes Open Source
OLMoJaJaJa bzw. sehr weitgehende OffenlegungOffenBeispiel für deutlich näher an echtem Open Source

Gerade die Lizenzfrage wird oft unterschätzt. Ein Modell kann technisch sehr offen wirken und trotzdem keine echte Open-Source-KI sein, wenn die Lizenz Nutzungsbeschränkungen enthält. Deshalb sollten Sie nicht nur auf GitHub, Hugging Face oder den Download-Link schauen, sondern immer auch auf die Lizenzbedingungen und die Datendokumentation.

Wenn Sie die Lizenzfrage vertiefen möchten, sollten Sie die Modellwahl immer mit Ihrer Governance-Praxis verbinden. Genau dafür sind unsere Beiträge zur AI-Act-Checkliste für Unternehmen und zur KI-Policy als Unternehmensvorlage hilfreich.

Welche Modelle sind was? Die Einordnung

Llama ist das bekannteste Beispiel für Open Weight. Meta veröffentlicht die Gewichte, aber keine vollständige Trainingsdatenbasis und keine klassische OSI-konforme Open-Source-Lizenz. Für Unternehmen bedeutet das: Sie bekommen viel operative Freiheit für Deployment und Fine-Tuning, aber keine saubere Grundlage, um von echtem Open Source zu sprechen.

Mistral ist der Grenzfall, den viele Entscheider kennen sollten. Viele Mistral-Modelle stehen unter Apache 2.0 und erfüllen damit einen wichtigen Teil der Open-Source-Anforderung im Lizenzsinn. Für eine strenge Compliance-Prüfung sollten Sie trotzdem ergänzend prüfen, ob Trainingsdaten, Datenaufbereitung und Trainingspipeline in ausreichender Tiefe offengelegt sind. Mistral ist deshalb ein Beispiel dafür, dass ein Modell offen lizenziert sein kann, ohne automatisch jede Erwartung an vollständige Reproduzierbarkeit zu erfüllen.

DeepSeek ist ein weiteres typisches Beispiel für Open Weight. DeepSeek veröffentlicht Gewichte, technische Berichte und Teile des Inferenz- oder Begleitcodes. Das verbessert die Transparenz deutlich gegenüber proprietären Modellen. Vollständige Trainingsdaten und eine vollständig reproduzierbare Trainingskette liegen aber nicht offen vor. Damit ist DeepSeek für viele Unternehmen praktisch offen nutzbar, aber nicht gleichbedeutend mit vollständigem Open Source.

GPT-4o ist klar geschlossen. Weder Gewichte noch Trainingscode noch Trainingsdaten sind öffentlich verfügbar. Die Nutzung erfolgt über proprietäre Schnittstellen und Vertragsbedingungen. Für Governance ist das nicht per se schlechter, aber anders: Sie müssen hier stärker mit Anbieter-Dokumentation, Vertragsprüfung, Datenschutzprüfung und Vendor-Risk-Management arbeiten. Praktisch ist das dieselbe Logik, die viele Unternehmen bereits von ChatGPT im Unternehmen kennen.

BLOOM wird oft als besonders offene Alternative genannt und ist tatsächlich deutlich transparenter als Llama. Trotzdem ist Vorsicht nötig: Die BLOOM-RAIL-Lizenz enthält nutzungsbezogene Einschränkungen und ist deshalb nach klassischem OSI-Maßstab nicht dasselbe wie Open Source Software. BLOOM ist daher ein wichtiges Open-Science-Projekt, aber kein sauberes Gegenbeispiel dafür, dass jede offene Veröffentlichung automatisch OSI-open-source wäre.

Die nüchterne Einordnung lautet damit:

  1. Llama: Open Weight
  2. Mistral: offen lizenziert, aber nach strengem 4-Komponenten-Maßstab meist nicht vollständig Open Source
  3. DeepSeek: Open Weight
  4. GPT-4o: Closed
  5. BLOOM: sehr offen, aber wegen RAIL-Lizenz nicht deckungsgleich mit OSI-Open-Source

Genau diese Differenzierung ist für Beschaffung, Risikoprüfung und interne Kommunikation wertvoll. Wenn Ihr Team intern von Open Source spricht, aber tatsächlich nur Open Weight meint, entstehen schnell falsche Erwartungen an Prüf- und Änderungsmöglichkeiten.

AI Act Art. 2(12): Nur echtes Open Source wird begünstigt

Der EU AI Act unterscheidet ausdrücklich zwischen frei und quelloffen veröffentlichten Systemen und anderen Modellen. Nach Art. 2 Abs. 12 der EU-VO 2024/1689 gilt die Verordnung nicht für KI-Systeme unter freien und quelloffenen Lizenzen, sofern sie nicht als Hochrisiko-Systeme in Verkehr gebracht werden oder unter Art. 5 oder Art. 50 fallen. Die Ausnahme ist also schon im Gesetz eng und keineswegs pauschal.

Für GPAI-Modelle ist zusätzlich Art. 53 Abs. 2 relevant. Dort werden Anbieter bestimmter GPAI-Modelle von einzelnen Dokumentationspflichten begünstigt, wenn das Modell unter einer freien und quelloffenen Lizenz veröffentlicht wird und Parameter, Gewichte, Architekturinformationen und Nutzungsinformationen öffentlich verfügbar sind. Auch diese Begünstigung ist an echte Offenheit geknüpft und gilt nicht für Modelle mit systemischem Risiko.

Erwägungsgrund 102 präzisiert die Richtung. Dort wird beschrieben, dass freie und quelloffene Lizenzen Nutzern Zugang, Nutzung, Änderung und Weitergabe erlauben sollen. Gleichzeitig nennt der Erwägungsgrund für GPAI-Modelle ausdrücklich die öffentliche Verfügbarkeit von Parametern, Gewichten, Architekturinformationen und Nutzungsinformationen. Das ist ein Mindestsignal für Offenheit, aber kein Freifahrtschein für Marketingbegriffe wie „open enough“.

Für die Praxis ist deshalb wichtig: Der AI Act verwendet nicht den Begriff Open Weight. Wenn ein Anbieter nur Gewichte freigibt, ist damit noch nicht belegt, dass die rechtlichen Voraussetzungen einer freien und quelloffenen Lizenz im Sinn des Gesetzes erfüllt sind. Genau deshalb ist es riskant, Llama oder DeepSeek vorschnell unter die Open-Source-Begünstigung zu subsumieren.

Die praktische Konsequenz für Unternehmen lautet:

  1. Verwechseln Sie die Ausnahme nicht mit Regelfreiheit. Auch offene Modelle können reguliert sein, wenn sie in Hochrisiko-Kontexten eingesetzt werden oder Transparenzpflichten auslösen.
  2. Prüfen Sie die Lizenz im Wortlaut. Begriffe wie community, open, available oder downloadable ersetzen keine freie und quelloffene Lizenz.
  3. Trennen Sie Modell- von Systemebene. Selbst wenn ein Modell offen wäre, kann Ihre konkrete Anwendung als KI-System trotzdem Pflichten auslösen.
  4. Dokumentieren Sie Ihre Einordnung. Für Governance ist entscheidend, dass nachvollziehbar festgehalten wird, warum ein Modell als closed, open weight oder open source bewertet wurde.

Wenn Sie die Ausnahmeregel im Unternehmen praktisch umsetzen wollen, sollten Sie sie immer mit einer belastbaren AI-Act-Checkliste für Unternehmen und einer sauberen Rollenklärung zwischen Anbieter und Betreiber verbinden.

Was bedeutet das für Ihr Unternehmen?

Unternehmen sollten Open Weight nicht als beruhigendes Etikett behandeln, sondern als Prüfauftrag. Wenn ein Fachbereich ein „Open-Source-Modell“ einsetzen möchte, muss zuerst geklärt werden, ob wirklich alle relevanten Komponenten offen sind oder nur die Gewichte. Erst danach lässt sich bewerten, welche Freiheitsgrade, welche Risiken und welche AI-Act-Annahmen tragfähig sind.

Eine praxistaugliche Kurz-Checkliste sieht so aus:

  1. Prüfen Sie, was genau veröffentlicht wurde. Liegen nur Gewichte vor oder auch Code, Datendokumentation und nachvollziehbare Nutzungsinformationen?
  2. Prüfen Sie die Lizenz separat. Ist die Lizenz wirklich frei und quelloffen oder enthält sie kommerzielle, einsatzbezogene oder weitergabebezogene Beschränkungen?
  3. Prüfen Sie den Nutzungskontext. Ein offenes Modell entbindet Sie nicht von Pflichten, wenn Sie es in HR, Kreditprüfung, Medizin, kritischer Infrastruktur oder anderen sensiblen Kontexten einsetzen.
  4. Prüfen Sie Ihre Nachweisdokumentation. Beschaffungsentscheidung, Lizenzprüfung, Rollen, Freigaben und Restrisiken sollten schriftlich festgehalten werden.
  5. Schulen Sie die betroffenen Teams. IT, Einkauf, Datenschutz, Compliance und Fachbereiche müssen denselben Begriffsrahmen verwenden, damit Open Weight nicht intern als Open Source missverstanden wird.

Für viele Unternehmen ist genau hier der Kernfehler: Die technische Attraktivität eines offenen Modells wird mit rechtlicher Einfachheit verwechselt. Das ist gefährlich, weil Lizenzprüfung, Drittstaatentransfers, Urheberrechtsfragen, Transparenzpflichten und risikobasierte Einordnung dadurch zu spät adressiert werden.

Die bessere Entscheidungshilfe lautet deshalb:

  • Wenn Sie maximale Kontrolle, Reproduzierbarkeit und Auditierbarkeit brauchen, sollten Sie nach Modellen suchen, die dem strengen Open-Source-Maßstab möglichst nahekommen.
  • Wenn Sie primär Kosten, Hosting-Souveränität und Anpassbarkeit wollen, kann Open Weight bereits genügen, solange Sie die Compliance-Grenzen sauber dokumentieren.
  • Wenn Sie wenig internes KI-Governance-Know-how haben, ist nicht das offenste Modell automatisch das sicherste, sondern das Modell mit der klarsten Dokumentation und dem saubersten internen Freigabeprozess.

Wenn Sie diese Einordnung nicht nur verstehen, sondern in Einkauf, Freigabe und Schulungsnachweis operationalisieren möchten, ist unsere EU AI Act Schulung für Unternehmen der schnellste nächste Schritt. Dort lernen Teams, wie sie Modelle, Risiken, Rollen und Nachweise sauber einordnen, ohne sich auf unscharfe Buzzwords zu verlassen.

Quellen

Ihr KI-Nachweis in 90 Minuten

Seit Februar 2025 gilt der EU AI Act. Jedes Unternehmen in der EU muss nachweisen, dass seine Mitarbeiter im Umgang mit KI geschult sind. Per Gesetz und ohne Ausnahme. Ohne Nachweis drohen Bußgelder bis 35 Mio. EUR oder 7% des Jahresumsatzes.