Kontextfenster

Kategorie: Generative KI & Content-Erstellung

Maximale Textmenge (in Tokens), die ein LLM in einem Durchgang verarbeiten kann. Größere Fenster (z. B. 128k Tokens) ermöglichen längere Gespräche und komplexere Analysen.