viberslib
BACK TO DICTIONARY
🧠 AI / LLM

Alignment

EN

The discipline of aligning a model's behavior with human values and intent. RLHF, Constitutional AI, DPO are its techniques.

TR

Modelin davranışını insan değer ve niyetleriyle hizalama disiplini. RLHF, Constitutional AI, DPO bunun teknikleri.