Die kleinste Einheit in der KI-Modelle Text verarbeiten — bestimmt Kosten und Kontextgroesse.
Ein Token ist ein Textstueck — ungefaehr 3/4 eines deutschen Wortes. 'Versicherungsmakler' sind z.B. 3-4 Tokens. KI-Modelle haben ein Token-Limit (Kontextfenster): Claude Opus hat 1 Million Tokens, GPT-5 hat 256.000. Jeder Token kostet Geld — deshalb ist Token-Optimierung wichtig.
Ein typischer Chat mit 10 Nachrichten verbraucht ca. 2.000-5.000 Tokens. Eine lange Claude Code Session kann 100.000+ Tokens verbrauchen.