Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Glossar-Übersicht

Glossar

FLOP

FLOP steht für Floating Point Operation und bezeichnet eine einzelne Gleitkomma-Rechenoperation, die in der KI zur Messung von Trainings- oder Inferenzaufwand genutzt wird.

Veröffentlicht: 23. März 2026Letzte Aktualisierung: 23. März 20262 Min. Lesezeit

Kurzdefinition

FLOP steht für Floating Point Operation und bezeichnet eine einzelne Gleitkomma-Rechenoperation, die als technische Einheit zur Beschreibung von Rechenaufwand in KI-Systemen verwendet wird.

Primaerquelle

Kein definierter Rechtsbegriff im EU AI Act; praktisch relevant für GPAI-Systemic-Risk-Bewertungen

Rechtsgrundlage ansehen

FLOP steht für Floating Point Operation und bezeichnet eine einzelne Gleitkomma-Rechenoperation. In der KI wird FLOP genutzt, um Trainings- oder Rechenaufwand messbar zu machen, etwa bei der Einordnung großer GPAI / KI-Basismodelle.

Was FLOP in der Praxis misst

FLOP misst nicht die Qualität eines Modells, sondern die Menge der ausgeführten Rechenoperationen. Besonders bei Trainingsläufen dient FLOP als technische Vergleichsgröße für Aufwand und Skalierung. Für das Gesamtbild helfen Modellgewichtungen, KI-Inference und Systemisches Risiko.

BegriffBedeutung
FLOPEine einzelne Gleitkomma-Operation
TFLOP10^12 FLOP
PFLOP10^15 FLOP
Trainings-ComputeGesamter Rechenaufwand eines Trainings
  • FLOP ist eine technische Mengeneinheit und kein Leistungsurteil.
  • Hoher FLOP-Aufwand kann auf große Modelle und hohe Trainingskosten hinweisen.
  • Für den Betrieb einzelner Firmenanwendungen ist FLOP oft weniger relevant als Token, Latenz und GPU-Speicher.

Warum FLOP im EU AI Act auftaucht

FLOP ist für den EU AI Act vor allem bei sehr großen Basismodellen relevant. In der GPAI-Debatte wird ein Trainingsschwellenwert von 10^25 FLOP als wichtiger Marker für systemisches Risiko verwendet. Für Unternehmen bedeutet das nicht automatisch eigene Pflichten, aber es verändert die Prüfung des zugrunde liegenden Modells. Deshalb sollten Sie auch Model Card, Open-Source-KI und Hugging Face heranziehen.

  1. FLOP hilft bei der Einordnung der Größenordnung eines Trainings.
  2. FLOP ersetzt keine Bewertung von Zweck, Risiken oder Einsatzgebiet.
  3. Für nachgelagerte Nutzer ist die Dokumentation des Modellanbieters oft wichtiger als die nackte Zahl.
AussageBewertung
Mehr FLOP bedeutet automatisch bessere QualitätFalsch
Sehr hoher Trainings-Compute kann regulatorisch relevant werdenRichtig
FLOP allein entscheidet über ComplianceFalsch

Was Unternehmen mit dem Begriff anfangen sollten

Unternehmen müssen FLOP meist nicht selbst berechnen. Relevant ist vielmehr, ob ein eingesetztes Modell in Dokumentation, Sicherheitsbewertung oder Marktkommunikation als besonders leistungsstarkes GPAI-Modell mit erhöhtem Risiko eingeordnet wird. Für die Praxis helfen Open-Weight vs. Open Source, KI-Kompetenz und ein belastbares KI-Inventar.

  • Lesen Sie FLOP als Hinweis auf Größenordnung und nicht als Einkaufskriterium.
  • Prüfen Sie bei sehr großen Modellen zusätzliche Dokumentations- und Sicherheitsangaben.
  • Verknüpfen Sie technische Modellgröße mit Ihrem konkreten Use Case.

FLOP ist damit vor allem ein Ordnungsbegriff für Rechenaufwand. Für den Unternehmensalltag zählt weniger die nackte Zahl als die Frage, welche Pflichten, Kosten und Betriebsfolgen daraus abgeleitet werden müssen.

Nächster Schritt

Begriffe einordnen ist der Anfang. Umsetzung und Nachweis entscheiden im Unternehmen.

Wenn Sie KI-Kompetenz, Rollen, rote Linien und Schulungsnachweis nicht nur nachschlagen, sondern sauber ausrollen wollen, ist der Kurs der direkte nächste Schritt. Für typische Rückfragen zu Umfang, Nachweis und Team-Rollout steht zusätzlich die FAQ-Seite bereit.