viberslib
SÖZLÜĞE DÖN
🧠 AI / LLM

Context Window

TR

Bir LLM'in tek seferde "görebildiği" maksimum token sayısı. Pencere dolduğunda model unutmaya başlar veya konuşma sıkıştırılır.

EN

The maximum number of tokens an LLM can "see" at once. When the window fills up, the model starts forgetting or the conversation gets compacted.