Ein Token ist eine kleine Spracheinheit, die von einem KI-Sprachmodell wie ChatGPT verarbeitet wird. Tokens sind die Grundbausteine, in die Texte zerlegt werden, damit die KI sie analysieren, verstehen und beantworten kann.
Ein Token kann sein:
Bevor ein Text von der KI verarbeitet werden kann, nutzt das System einen sogenannten Tokenizer. Dieser zerlegt den Text in einzelne Tokens und wandelt jedes Token in eine Zahl um, damit das Modell sie mathematisch verarbeiten kann.
Beispiel:
Der Satz „Hallo Welt!“ wird etwa so zerlegt:
["Hallo", " Welt", "!"] → [15496, 2159, 0]
(Diese Zahlen sind interne Codes, die das Modell nutzt.)
Wichtig: Diese Umwandlung in Tokens erfolgt sowohl bei der Eingabe als auch bei der Ausgabe.
Das bedeutet:
Tokens sind zentral für das Verständnis, wie viel Information ein Sprachmodell auf einmal verarbeiten kann:
Ein Token ist ein kleiner Textbaustein, den ein KI-Modell versteht. Sowohl die Eingabe als auch die Antwort der KI werden in Tokens zerlegt und intern als Zahlen codiert, damit sie mathematisch verarbeitet werden können.
Was ist ein Token?
Ein Token ist eine kleinste Spracheinheit, die von einem KI-Modell wie ChatGPT verarbeitet wird – zum Beispiel ein Wort, ein Wortteil oder ein Satzzeichen. Texte werden in Tokens zerlegt, damit die KI sie analysieren und darauf reagieren kann. Die Anzahl der Tokens beeinflusst Rechenleistung und Nutzungskosten.
Wie viele Zeichen umfasst ein Token durchschnittlich?
Ein Token besteht im Durchschnitt aus 3 bis 4 Zeichen in englischen Texten. Im Deutschen können Tokens länger sein, weil zusammengesetzte Wörter häufiger vorkommen. Ein kurzer Satz wie "Das ist gut." wird meist in 4 bis 6 Tokens zerlegt.
Warum sind Tokens für die Abrechnung bei KI-Diensten wichtig?
Viele KI-Modelle rechnen auf Basis der verarbeiteten Token-Anzahl ab. Je länger ein Prompt oder die Antwort, desto mehr Tokens entstehen – und desto höher sind potenziell die Kosten. Wer gezielt mit Tokens rechnet, kann also Kosten sparen.
Was passiert, wenn die Token-Grenze eines Modells überschritten wird?
Jedes Sprachmodell hat eine maximale Token-Anzahl pro Anfrage. Wird diese überschritten, ignoriert das Modell oft ältere Eingabeteile oder bricht die Ausgabe ab. Deshalb ist es wichtig, Texte effizient zu strukturieren und unnötige Tokens zu vermeiden.