Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Glossar-Übersicht

Glossar

LoRA

LoRA ist eine sparsame Fine-Tuning-Methode, bei der nur kleine Zusatzmatrizen trainiert werden, statt das gesamte Modell neu zu berechnen.

Veröffentlicht: 23. März 2026Letzte Aktualisierung: 23. März 20262 Min. Lesezeit

Kurzdefinition

LoRA steht für Low-Rank Adaptation und bezeichnet eine parameter-effiziente Fine-Tuning-Methode, bei der kleine Adapter-Matrizen trainiert werden, während die ursprünglichen Modellgewichtungen weitgehend eingefroren bleiben.

Primaerquelle

Kein definierter Rechtsbegriff im EU AI Act; praktisch relevant für Art. 25 und Rollenfragen

Rechtsgrundlage ansehen

LoRA steht für Low-Rank Adaptation und ist eine sparsame Methode, um ein bestehendes Modell gezielt anzupassen. Statt Milliarden Modellgewichtungen neu zu trainieren, werden nur kleine Zusatzmodule berechnet und beim Betrieb zugeschaltet.

Wie LoRA technisch funktioniert

LoRA friert das Basismodell weitgehend ein und ergänzt trainierbare Adapter. Dadurch sinken Speicherbedarf, Rechenaufwand und Trainingskosten im Vergleich zu einem vollständigen Fine-Tuning deutlich. Für das Gesamtbild helfen auch KI-Inference, Open-Source-KI und Self-Hosting-KI.

AnsatzVeränderung am BasismodellAufwand
PromptingKeineNiedrig
RAGKeineNiedrig bis mittel
LoRAKleine ZusatzadapterMittel
Vollständiges Fine-TuningGroße Teile des ModellsHoch
  • LoRA spart Rechenzeit und Speicher.
  • LoRA eignet sich gut für Stil, Fachjargon oder enge Aufgabenfelder.
  • LoRA ist keine Magie und ersetzt keine Evaluierung.

Warum LoRA für Unternehmen attraktiv ist

LoRA ist attraktiv, weil Unternehmen Anpassungen mit deutlich geringerem Hardware-Bedarf testen können. Gerade bei 7B- oder 8B-Modellen ist LoRA oft der Unterschied zwischen einem realistischen internen Pilot und einem teuren Trainingsprojekt. Für Governance bleiben trotzdem Technische Dokumentation, KI-Kompetenz und ein gepflegtes KI-Inventar erforderlich.

  1. Dokumentieren Sie Basismodell und Adapter getrennt.
  2. Testen Sie das zusammengesetzte Verhalten und nicht nur das Basismodell.
  3. Versehen Sie Adapter-Dateien mit Version, Datum und Verantwortlichkeit.
RisikoPraktische Folge
Falscher Adapter aktiviertUnerwartetes Antwortverhalten
Adapter ohne DokumentationSchlechte Nachvollziehbarkeit
Schlechte TrainingsdatenVerstärkte Fehler oder Bias

Was LoRA nicht löst

LoRA löst weder Lizenzfragen noch Qualitätsprobleme automatisch. Wenn das Basismodell für den Use Case ungeeignet ist, bleibt es auch mit einem Adapter oft ungeeignet. Für Alternativen sollten Sie RAG, Hugging Face und Model Card mitprüfen.

  • Nutzen Sie LoRA für gezielte Anpassung statt für komplette Neuausrichtung.
  • Nutzen Sie es nicht als Ersatz für Datenprüfung und Freigabeprozesse.
  • Planen Sie immer Vergleichstests gegen das unveränderte Basismodell ein.

LoRA ist damit ein effizientes Zwischenwerkzeug zwischen Prompting und Volltraining. Richtig eingesetzt, macht es Modellanpassung schneller, günstiger und organisatorisch beherrschbarer.

Nächster Schritt

Begriffe einordnen ist der Anfang. Umsetzung und Nachweis entscheiden im Unternehmen.

Wenn Sie KI-Kompetenz, Rollen, rote Linien und Schulungsnachweis nicht nur nachschlagen, sondern sauber ausrollen wollen, ist der Kurs der direkte nächste Schritt. Für typische Rückfragen zu Umfang, Nachweis und Team-Rollout steht zusätzlich die FAQ-Seite bereit.