Einführungspreis endet in
--T--Std--Minoder erste 20 Plätze
Jetzt sichern →
← Zur Glossar-Übersicht

Glossar

Token in der KI

Token sind die kleinsten Verarbeitungseinheiten, in die ein Sprachmodell Texte zerlegt, um Eingaben zu lesen und Ausgaben zu erzeugen.

Veröffentlicht: 23. März 2026Letzte Aktualisierung: 23. März 20262 Min. Lesezeit

Kurzdefinition

Token sind die Verarbeitungseinheiten, in die ein KI-Modell Text oder andere Inhalte zerlegt, um Eingaben intern zu verarbeiten und Ausgaben zu generieren.

Primaerquelle

Kein definierter Rechtsbegriff im EU AI Act; praktisch relevant für Kosten, Kontextfenster und Systembetrieb

Rechtsgrundlage ansehen

Token sind die kleinsten Einheiten, mit denen ein Sprachmodell Text verarbeitet. Für Unternehmen sind Token vor allem deshalb wichtig, weil sie Kosten, Antwortlänge, Kontextfenster und die Leistungsgrenze eines Modells direkt beeinflussen.

Was ein Token praktisch ist

Ein Token ist meist kein vollständiges Wort, sondern ein Textstück. Ein deutsches Kompositum kann aus mehreren Token bestehen, während kurze Zeichenfolgen oder Satzzeichen eigene Token bilden können. Für die Einordnung helfen KI-Inference, RAG und Modellgewichtungen.

BeispielTypische Zerlegung
"KI"1 Token oder wenige Zeichen
"Datenschutzfolgeabschätzung"Mehrere Token
SatzzeichenOft eigenes Token
Tabellen oder CodeViele kurze Token
  • Mehr Token bedeuten meist mehr Rechenaufwand und höhere Kosten.
  • Tokenzahl ist nicht identisch mit Wortzahl.
  • Kontextgrenzen eines Modells werden in Token und nicht in Seiten gemessen.

Warum Token für Unternehmen relevant sind

Token sind die Währung des Modellbetriebs. API-Kosten, Antwortgeschwindigkeit und Kontextgrenzen hängen direkt an der Menge von Eingabe- und Ausgabetoken. Deshalb sollten Sie bei Self-Hosting-KI, Ollama oder externen APIs immer Tokenbudgets mitplanen.

  1. Lange Prompts und große Dokumente erhöhen Kosten sofort.
  2. RAG-Systeme können unnötig teuer werden, wenn zu viele Textblöcke eingefügt werden.
  3. Begrenzte Kontextfenster erzwingen Priorisierung und Kürzung von Quellen.
FrageWirkung
Wie viele Dokumente gehen in einen Prompt?Kosten und Antwortqualität
Wie lang ist die gewünschte Ausgabe?Output-Kosten und Latenz
Wie gut ist das Chunking?Token-Effizienz bei RAG

Was Teams praktisch steuern sollten

Teams sollten Token wie eine operative Ressource behandeln. Ein promptlastiger Assistenzfall mit 2.000 Eingabetoken und 800 Ausgabetoken skaliert bei 1.000 Anfragen pro Tag schnell zu relevanten Monatskosten. Für Optimierung helfen Fine-Tuning, LoRA und eine präzise Model Card des eingesetzten Modells.

  • Setzen Sie Obergrenzen für Prompt- und Antwortlängen.
  • Kürzen Sie Anhänge und Kontext auf wirklich relevante Inhalte.
  • Beobachten Sie Tokenkosten pro Use Case und nicht nur aggregiert.

Token sind damit kein Detail für Entwickler, sondern ein betrieblicher Steuerungswert. Wer Tokenflüsse versteht, verbessert Wirtschaftlichkeit, Geschwindigkeit und Verlässlichkeit eines KI-Systems gleichzeitig.

Nächster Schritt

Begriffe einordnen ist der Anfang. Umsetzung und Nachweis entscheiden im Unternehmen.

Wenn Sie KI-Kompetenz, Rollen, rote Linien und Schulungsnachweis nicht nur nachschlagen, sondern sauber ausrollen wollen, ist der Kurs der direkte nächste Schritt. Für typische Rückfragen zu Umfang, Nachweis und Team-Rollout steht zusätzlich die FAQ-Seite bereit.