🧠 AI / LLM
Context Window
▸ EN
The maximum number of tokens an LLM can "see" at once. When the window fills up, the model starts forgetting or the conversation gets compacted.
▸ TR
Bir LLM'in tek seferde "görebildiği" maksimum token sayısı. Pencere dolduğunda model unutmaya başlar veya konuşma sıkıştırılır.