🧠 AI / LLM
Hallucination
▸ TR
Modelin kendinden emin bir tonla uydurma bilgi üretmesi. Var olmayan kütüphane, sahte API, hayali fonksiyon imzası.
▸ EN
When a model confidently makes up information — nonexistent libraries, fake APIs, imaginary function signatures.
▸ İLGILI TERIMLER
Slop
AI tarafından üretilmiş düşük kaliteli, jenerik, ruhsuz içerik. Genelde tipik LLM tikleri içerir: "It's important to note...", aşırı emoji, gereksiz uzatma.
▸ KÜLTÜR
RAG
Retrieval-Augmented Generation. Modele cevap vermeden önce ilgili belgeleri çekip context'e koyma tekniği. Hallucination'ı azaltır.
▸ AI / LLM
Guardrails
Modelin yapamayacağı/söyleyemeyeceği şeyleri belirleyen güvenlik katmanı. Promptta, system prompt'ta veya pre/post filter olarak.
▸ GÜVENLIK