A

Token

Was ist ein Token?

Ein Token ist eine kleine Spracheinheit, die von einem KI-Sprachmodell wie ChatGPT verarbeitet wird. Tokens sind die Grundbausteine, in die Texte zerlegt werden, damit die KI sie analysieren, verstehen und beantworten kann.

Ein Token kann sein:

  • ein ganzes Wort (z. B. „Haus“)
  • ein Teil eines Wortes (z. B. „Be“ und „such“ in „Besuch“)
  • ein Satzzeichen (z. B. „!“ oder „.“)
  • manchmal sogar nur eine Silbe oder ein einzelner Buchstabe

Wie funktioniert das technisch?

Bevor ein Text von der KI verarbeitet werden kann, nutzt das System einen sogenannten Tokenizer. Dieser zerlegt den Text in einzelne Tokens und wandelt jedes Token in eine Zahl um, damit das Modell sie mathematisch verarbeiten kann.

Beispiel:

Der Satz „Hallo Welt!“ wird etwa so zerlegt:
["Hallo", " Welt", "!"] → [15496, 2159, 0]

(Diese Zahlen sind interne Codes, die das Modell nutzt.)

Wichtig: Diese Umwandlung in Tokens erfolgt sowohl bei der Eingabe als auch bei der Ausgabe.

Das bedeutet:

  • Dein Text an die KI wird in Tokens umgewandelt, bevor das Modell ihn verarbeitet.
  • Die Antwort der KI besteht ebenfalls aus Tokens, die zu Wörtern zusammengesetzt werden.

Warum sind Tokens wichtig?

Tokens sind zentral für das Verständnis, wie viel Information ein Sprachmodell auf einmal verarbeiten kann:

  • Jedes Modell hat eine Token-Grenze (z. B. 8.000, 32.000 oder mehr).
  • Diese Grenze gilt für die Summe aus Eingabe- und Ausgabetokens.
  • Auch die Nutzungskosten bei vielen KI-Diensten richten sich nach der Anzahl der verarbeiteten Tokens, weswegen Tokens eine wichtige Rolle bei der Beurteilung von Vor- und Nachteilen von KI spielen.
Termin buchen
Kostenloser KI-Workshop
Entdecken Sie, wie Ihr Unternehmen KI gezielt einsetzen kann: In unserem KI-Workshop entwickeln wir praxisnahe Lösungsansätze, individuell abgestimmt auf Ihre Bedürfnisse.
Jetzt kostenlos anfragen

Fazit: Die Atome der KI

Ein Token ist ein kleiner Textbaustein, den ein KI-Modell versteht. Sowohl die Eingabe als auch die Antwort der KI werden in Tokens zerlegt und intern als Zahlen codiert, damit sie mathematisch verarbeitet werden können.

FAQ: Token

Was ist ein Token?

Ein Token ist eine kleinste Spracheinheit, die von einem KI-Modell wie ChatGPT verarbeitet wird – zum Beispiel ein Wort, ein Wortteil oder ein Satzzeichen. Texte werden in Tokens zerlegt, damit die KI sie analysieren und darauf reagieren kann. Die Anzahl der Tokens beeinflusst Rechenleistung und Nutzungskosten.

Wie viele Zeichen umfasst ein Token durchschnittlich?

Ein Token besteht im Durchschnitt aus 3 bis 4 Zeichen in englischen Texten. Im Deutschen können Tokens länger sein, weil zusammengesetzte Wörter häufiger vorkommen. Ein kurzer Satz wie "Das ist gut." wird meist in 4 bis 6 Tokens zerlegt.

Warum sind Tokens für die Abrechnung bei KI-Diensten wichtig?

Viele KI-Modelle rechnen auf Basis der verarbeiteten Token-Anzahl ab. Je länger ein Prompt oder die Antwort, desto mehr Tokens entstehen – und desto höher sind potenziell die Kosten. Wer gezielt mit Tokens rechnet, kann also Kosten sparen.

Was passiert, wenn die Token-Grenze eines Modells überschritten wird?

Jedes Sprachmodell hat eine maximale Token-Anzahl pro Anfrage. Wird diese überschritten, ignoriert das Modell oft ältere Eingabeteile oder bricht die Ausgabe ab. Deshalb ist es wichtig, Texte effizient zu strukturieren und unnötige Tokens zu vermeiden.

Zurück zum Glossar
Token
pfeil nach unten

Blogartikel

Ihr Wissensdurst ist noch nicht gestillt?
Zu den Wissens-Ressourcen
Assecor Kontakt - IT Dienstleister aus Berlin
Assecor Kontakt - IT Dienstleister aus Berlin
Assecor Linkedin - IT Unternehmen aus Berlin