Zum Inhalt springen KI-Lexikon — Die KI Woche
Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Limit

Token Limit

Das Token Limit (Context Window) ist die maximale Menge an Text, die ein LLM auf einmal verarbeiten kann (Input + Output). Frühe Modelle hatten 2048 Token (ca. 4 Seiten). Gemini 1.5 Pro hat bis zu 2 Millionen Token (taussende Seiten, Videos).

Constraint
🔗 Link kopiert!