viberslib
BACK TO DICTIONARY
🧠 AI / LLM

Context Window

EN

The maximum number of tokens an LLM can "see" at once. When the window fills up, the model starts forgetting or the conversation gets compacted.

TR

Bir LLM'in tek seferde "görebildiği" maksimum token sayısı. Pencere dolduğunda model unutmaya başlar veya konuşma sıkıştırılır.