Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Wissens-Übersicht
art 2 12 eu ai actopen source ausnahme eu ai acteu ai act open sourceki verordnung open source

Art. 2(12) EU AI Act — Die Open-Source-Ausnahme und ihre Grenzen

Art. 2(12) EU AI Act: Wann gilt die Open-Source-Ausnahme, wann nicht? Hochrisiko, GPAI, systemisches Risiko — die Grenzen im Detail erklärt.

Veröffentlicht: 23. März 2026Letzte Aktualisierung: 23. März 20269 Min. Lesezeit

Art. 2 Abs. 12 EU AI Act befreit Open-Source-KI nicht pauschal von der KI-Verordnung. Die Ausnahme gilt nur für bestimmte KI-Systeme unter freier und offener Lizenz und endet ausdrücklich bei Hochrisiko-KI, verbotenen Praktiken nach Art. 5 und Transparenzpflichten nach Art. 50. Für Unternehmen zählt daher nicht das Etikett „open source“, sondern Lizenz, Bereitstellungsform, Einsatzkontext und die eigene Rolle in der Wertschöpfungskette.

Für die Praxis ist die Norm trotzdem zentral. Wer Open-Source-KI intern nutzt, in Produkte einbettet oder per Fine-Tuning weiterentwickelt, muss wissen, ob überhaupt eine Bereichsausnahme greift oder ob die normalen Pflichten des AI Act einschlagen. Genau deshalb ist Art. 2 Abs. 12 das juristische Rückgrat jeder belastbaren Open-Source-Strategie im Unternehmen.

Der exakte Gesetzestext von Art. 2(12) EU AI Act

Art. 2 Abs. 12 regelt den Anwendungsbereich der Verordnung. Die Kernaussage lautet: Für bestimmte KI-Systeme unter freier und offener Lizenz gilt die Verordnung nicht, außer das System ist Hochrisiko-KI oder fällt unter Art. 5 oder Art. 50. Den vollständigen offiziellen Wortlaut sollten Sie direkt in der Primärquelle prüfen: Art. 2 EU AI Act.

Wichtig ist die Stellung der Norm im Gesetz. Art. 2 enthält keine Detailpflichten, sondern grenzt den sachlichen Anwendungsbereich ab. Das bedeutet praktisch: Art. 2 Abs. 12 ist keine Erleichterung innerhalb der Compliance-Pflichten, sondern eine vorgelagerte Schwellenregel. Wenn die Ausnahme greift, bleibt dieses konkrete KI-System grundsätzlich außerhalb der Verordnung. Wenn eine der Rückausnahmen greift, sind Sie sofort wieder im normalen Pflichtenregime.

Für die Auslegung sind die Erwägungsgründe 102 bis 104 relevant. Erwägungsgrund 102 erklärt, warum freie und offene KI-Komponenten Innovation, Forschung und Markttransparenz fördern können. Erwägungsgrund 103 konkretisiert, was unter freien und offenen KI-Komponenten zu verstehen ist und warum Monetarisierung die Ausnahme regelmäßig ausschließt. Erwägungsgrund 104 zieht die Linie bei General-Purpose-AI-Modellen und macht deutlich, dass offene Bereitstellung nicht automatisch von allen GPAI-Pflichten befreit.

Genau hier liegt ein häufiger Denkfehler. Art. 2 Abs. 12 betrifft KI-Systeme im Anwendungsbereich der Verordnung. Die gesonderten Regeln für General-Purpose-AI-Modelle stehen dagegen in Kapitel V, vor allem in Art. 53. Wer im Unternehmensalltag von „Open-Source-Modellen“ spricht, vermischt diese Ebenen oft. Juristisch ist diese Trennung aber entscheidend, weil für offen lizenzierte GPAI-Modelle trotz Open Source Restpflichten bestehen können.

Wenn Sie die Grundbegriffe vorher sauber ordnen wollen, sollten Sie zuerst klären, ob Sie überhaupt ein KI-System im Sinne des EU AI Act vor sich haben. Erst danach lässt sich Art. 2 Abs. 12 sinnvoll prüfen.

Wann gilt die Open-Source-Ausnahme?

Die Ausnahme gilt nur, wenn tatsächlich ein KI-System unter einer freien und offenen Lizenz vorliegt und keine der gesetzlichen Rückausnahmen greift. Praktisch brauchen Sie dafür mehr als ein öffentliches Repository oder den Marketingbegriff „open source“. Entscheidend sind die rechtlichen Nutzungsrechte und die reale Zugänglichkeit der maßgeblichen Komponenten.

Erwägungsgrund 103 beschreibt freie und offene KI-Komponenten weit. Genannt werden unter anderem Software, Daten, Modelle, GPAI-Modelle, Werkzeuge, Dienste und Prozesse, sofern sie unter Bedingungen bereitgestellt werden, die Nutzung, Änderung und Weitergabe ermöglichen. Für Unternehmen folgt daraus: Der Open-Source-Charakter wird nicht nur technisch, sondern vor allem lizenzrechtlich bestimmt.

Ein belastbarer Mindesttest besteht aus drei Fragen. Erstens: Erlaubt die Lizenz Zugriff, Nutzung, Änderung und Weitergabe ohne einsatzbezogene oder kommerzielle Verbote? Zweitens: Sind die relevanten Informationen und Komponenten tatsächlich öffentlich verfügbar? Drittens: Ist der Zugang nicht an eine Entgeltpflicht oder sonstige Monetarisierungslogik gekoppelt? Wenn Sie eine dieser Fragen nicht sicher mit Ja beantworten können, ist Art. 2 Abs. 12 kein tragfähiger Safe Harbor.

Genau deshalb ist die Abgrenzung zwischen echter Open-Source-Lizenz und bloßem Open-Weight-Modell so wichtig. Ein Modell kann öffentlich herunterladbare Gewichte haben und trotzdem rechtlich nicht unter die Ausnahme fallen, wenn Nutzungsfelder ausgeschlossen, Weitergabe begrenzt oder kommerzielle Verwendungen konditioniert werden. Wenn Sie diese Lizenzebene vertiefen möchten, ist der Beitrag zu Anbieter vs. Betreiber im AI Act die richtige Anschlusslektüre, weil dort die Pflichten entlang der Rollen sauber getrennt werden.

Bei konkreten Modellen hilft nur eine vorsichtige Einzelfallprüfung. Mistral 7B wird in der Praxis oft als Beispiel für ein Modell genannt, das der Ausnahme nahekommen kann, weil Gewichte öffentlich verfügbar waren und eine klassische freie Lizenz verwendet wurde. BLOOM ist deutlich heikler, weil die BigScience RAIL-Lizenz Nutzungsbeschränkungen enthält. Die juristische Schlussfolgerung ist daher nicht „Mistral ja, BLOOM nein“, sondern: Je näher ein Modell an einer echten freien Open-Source-Lizenz ohne Nutzungsvorbehalte liegt, desto eher lässt sich Art. 2 Abs. 12 vertreten. Diese Einordnung ist eine Rechtsanwendung auf den Einzelfall, keine automatische Etikettenprüfung.

Für GPAI-Modelle läuft die Logik zusätzlich über Art. 53. Seit dem 2. August 2025 gelten nach Art. 53 EU AI Act für Anbieter von GPAI-Modellen grundsätzlich Dokumentations-, Informations-, Urheberrechts- und Transparenzpflichten. Offen lizenzierte Modelle sind nur von Art. 53 Abs. 1 Buchst. a und b ausgenommen, nicht aber von der Urheberrechts-Policy und der Trainingsdaten-Zusammenfassung nach Buchst. c und d. Auch daran sehen Sie: Open Source ist im AI Act eine eng definierte Ausnahme, kein genereller Freibrief.

Wann gilt die Ausnahme NICHT?

Die Ausnahme endet in vier klar definierten Fällen. Diese Rückausnahmen stehen direkt im Gesetz oder ergeben sich aus dem Zusammenspiel mit Kapitel V:

| Nr. | Rückausnahme | Rechtsgrundlage | Praxisbeispiel | | --- | --- | --- | --- | | 1 | Hochrisiko-KI nach Art. 6 / Anhang III | Art. 2 Abs. 12 i.V.m. Art. 6 | Open-Source-Recruiting-Tool, das Bewerbungen automatisiert bewertet | | 2 | Verbotene Praktiken nach Art. 5 | Art. 2 Abs. 12 i.V.m. Art. 5 | Manipulatives Social-Scoring-System, auch wenn quelloffen | | 3 | Transparenzpflichten nach Art. 50 | Art. 2 Abs. 12 i.V.m. Art. 50 | Frei verfügbares Chatbot-System mit Nutzerkontakt | | 4 | GPAI mit systemischem Risiko | Art. 53 Abs. 2 (keine Befreiung) | Offenes Foundation-Modell über Schwellenwert |

Die Ausnahme gilt ausdrücklich nicht für Hochrisiko-KI. Sobald ein KI-System unter Art. 6 und Anhang III fällt oder als Sicherheitskomponente eines regulierten Produkts einzuordnen ist, hilft die freie Lizenz nicht weiter. Ein offen bereitgestelltes Modell kann also im Forschungskontext unkritisch sein und im konkreten Produktkontext dennoch als Hochrisiko-KI-System reguliert werden.

Diese Schwelle ist für Unternehmen besonders relevant in Personalwesen, Bildung, Kreditwürdigkeitsprüfung, kritischer Infrastruktur und biometrischen Anwendungen. Ein Recruiting-Tool, das Bewerbungen automatisiert bewertet, bleibt nicht deshalb außerhalb des AI Act, weil der zugrunde liegende Code öffentlich zugänglich ist. Für die operative Einordnung hilft der Überblick zu Hochrisiko-KI nach Annex III sowie das Glossar zu Hochrisiko-KI-Systemen.

Die Ausnahme gilt ebenfalls nicht für verbotene Praktiken nach Art. 5. Open Source schützt also nicht vor dem Verbot manipulativer Systeme, bestimmter Formen biometrischer Kategorisierung oder verbotener Emotionserkennung am Arbeitsplatz. Der Gesetzgeber hat diese Rückausnahme bewusst direkt in Art. 2 Abs. 12 aufgenommen, damit sich niemand über ein offenes Repository dem Verbotsregime entziehen kann.

Dasselbe gilt für Transparenzpflichten nach Art. 50. Wenn ein KI-System mit Menschen interagiert, synthetische Inhalte erzeugt oder bestimmte emotionserkennende oder biometrische Funktionen nutzt, bleiben die Informationspflichten relevant. Ein frei verfügbares Chatbot-System kann deshalb trotz Open Source Kennzeichnungspflichten auslösen. Wenn Sie diese Pflichten separat vertiefen möchten, ist Artikel 50 im Überblick der naheliegende nächste Schritt.

Bei GPAI-Modellen verläuft die Grenze noch feiner. Art. 53 Abs. 2 befreit offen lizenzierte GPAI-Modelle nur von den Dokumentations- und Downstream-Informationspflichten nach Abs. 1 Buchst. a und b, nicht aber von den Pflichten nach Buchst. c und d. Das bedeutet konkret: Eine Urheberrechts-Policy und eine ausreichend detaillierte Zusammenfassung der Trainingsinhalte bleiben auch für viele Open-Source-GPAI-Modelle relevant. Noch strenger wird es bei GPAI mit systemischem Risiko: Dann greift die Open-Source-Ausnahme nach Art. 53 Abs. 2 gerade nicht.

Die Europäische Kommission hat diese Linie in ihren GPAI-Leitlinien vom 11. November 2025 bestätigt. Dort stellt sie klar, dass offene GPAI-Modelle nur unter engen Voraussetzungen von einzelnen Pflichten befreit sind und dass Modelle mit systemischem Risiko unabhängig von der Lizenz die verschärften Anforderungen erfüllen müssen. Für die Unternehmenspraxis bedeutet das: Open Source ist ein Compliance-Faktor, aber niemals die einzige Prüfgröße.

Deployer vs. Provider: Ihre Rolle bestimmt Ihre Pflichten

Ihre Pflichten hängen nicht nur vom Modell, sondern von Ihrer Rolle ab. Der AI Act unterscheidet zwischen Anbieter und Betreiber. Anbieter entwickeln ein System oder lassen es entwickeln und bringen es unter eigenem Namen auf den Markt oder in Betrieb. Betreiber setzen ein System ein. Diese Trennung entscheidet darüber, welche Pflichten Ihr Unternehmen tatsächlich treffen.

Wenn Sie ein offen lizenziertes Modell nur intern für Hilfstätigkeiten verwenden, sind Sie nicht automatisch Anbieter des Ausgangsmodells. Das heißt aber nicht, dass Ihr Unternehmen pflichtenfrei ist. Die allgemeine Pflicht zur KI-Kompetenz nach Art. 4 gilt seit dem 2. Februar 2025 unabhängig davon, ob Sie proprietäre oder offene KI nutzen. Außerdem können Betreiberpflichten einschlägig werden, wenn Sie konkrete regulierte Systeme einsetzen.

Der Rollenwechsel beginnt dort, wo Sie ein bestehendes System wesentlich verändern oder seinen Zweck so verschieben, dass daraus ein Hochrisiko-System wird. Art. 25 EU AI Act ordnet in solchen Fällen an, dass der Dritte selbst als Anbieter gilt. Das ist für Open-Source-KI besonders relevant, weil Fine-Tuning, zusätzliche Entscheidungslogik, eigene Benutzeroberflächen und branchenspezifische Integration schnell aus einem allgemeinen Modell ein neues reguliertes System machen können.

Dabei ist eine weitere juristische Feinheit wichtig: Nicht jedes Fine-Tuning macht Sie automatisch zum Anbieter eines neuen GPAI-Modells. Die Kommission erklärt in ihren Leitlinien zu GPAI-Pflichten, dass ein Rollenwechsel bei Modellanpassungen nur ausnahmsweise eintritt. Für KI-Systeme kann Ihr Umbau aber sehr wohl ausreichen, um Anbieter eines konkreten Hochrisiko-Systems zu werden. Wer Open Source nutzt, muss deshalb immer zwei Ebenen getrennt prüfen: das Ausgangsmodell und das eigene Endsystem.

Die robuste Praxisregel lautet daher: Art. 2 Abs. 12 kann den Ausgangspunkt entschärfen, ersetzt aber niemals Ihre eigene Rollenprüfung. Wenn Sie ein offenes Modell in ein HR-Scoring-Tool, eine Kreditvorprüfung oder eine sicherheitsrelevante Anwendung umbauen, zählt am Ende Ihre konkrete Bereitstellung. Dann sind nicht die Lizenzversprechen des Basismodells entscheidend, sondern Ihr eigenes Produkt, Ihr eigener Zweck und Ihre eigene Compliance-Verantwortung.

Praktische Checkliste: Fällt Ihre KI unter die Ausnahme?

Die sauberste Prüfung besteht aus fünf Fragen in fester Reihenfolge. Sobald Sie eine Frage mit Nein beantworten, sollten Sie sich nicht mehr auf Art. 2 Abs. 12 verlassen, sondern den normalen Pflichtenpfad des AI Act prüfen.

  1. Liegt überhaupt ein KI-System vor? Wenn nein, ist Art. 2 Abs. 12 nicht relevant. Wenn ja, prüfen Sie weiter.
  2. Steht dieses KI-System unter einer echten freien und offenen Lizenz? Wenn die Lizenz Nutzung, Änderung oder Weitergabe einschränkt, ist die Ausnahme unsicher oder ausgeschlossen.
  3. Ist das System öffentlich verfügbar und nicht entgeltlich oder sonst monetarisiert bereitgestellt? Wenn der Zugang wirtschaftlich konditioniert ist, spricht Erwägungsgrund 103 gegen die Ausnahme.
  4. Fällt das System unter Hochrisiko-KI, Art. 5 oder Art. 50? Wenn ja, greift die Ausnahme nicht.
  5. Haben Sie das System so angepasst, eingebettet oder umgewidmet, dass Sie selbst Anbieter eines neuen regulierten Systems werden? Wenn ja, hilft die Ausnahme des Ausgangsartefakts praktisch nicht mehr weiter.

Als Entscheidungsbaum lässt sich das auf einen Satz verdichten: Offene Lizenz plus öffentliche Verfügbarkeit reichen nur dann, wenn weder Hochrisiko noch Verbote noch Transparenzpflichten einschlägig sind und Sie aus dem Ausgangsmodell kein neues reguliertes System machen.

Für GPAI-Modelle sollten Sie zusätzlich einen Parallelcheck einbauen. Fragen Sie gesondert: Handelt es sich um ein GPAI-Modell, das auf dem Unionsmarkt bereitgestellt wird? Wenn ja, prüfen Sie zusätzlich Art. 53 und gegebenenfalls Art. 55. Gerade bei offenen Basismodellen liegt der häufigste Fehler darin, Art. 2 Abs. 12 mit Art. 53 Abs. 2 gleichzusetzen. Das ist rechtlich falsch und führt in Compliance-Projekten regelmäßig zu Fehleinschätzungen.

Wenn Sie diese Einordnung teamweit belastbar etablieren wollen, braucht Ihr Unternehmen gemeinsame Prüfkriterien statt bloßer Open-Source-Schlagworte. Unsere EU AI Act Schulung zeigt praxisnah, wie Art. 4, Art. 5, Hochrisiko-KI, Transparenzpflichten, Rollenwechsel und Open-Source-Ausnahmen zusammenhängen. Der Kurs endet mit Abschlusstest und Zertifikat und eignet sich als dokumentierbarer Startpunkt für den sicheren Einsatz offener KI im Unternehmen.

Quellen

Nächster Schritt

KI-Kompetenz sauber dokumentieren, statt die Pflicht nur zu diskutieren.

Wenn Sie für Ihr Team einen belastbaren Schulungsnachweis aufsetzen wollen, starten Sie mit der Kursübersicht, klären offene Fragen in der FAQ und buchen danach das passende Erstgespräch.

Autor und fachlich verantwortlich

Steven Leutritz

Geschäftsführer & KI-Compliance-Experte

Steven Leutritz begleitet Unternehmen bei der Umsetzung des EU AI Act und übersetzt Regulierung in klare Handlungslogik für Geschäftsführung, HR und Compliance.