🧠 AI / LLM
Alignment
▸ EN
The discipline of aligning a model's behavior with human values and intent. RLHF, Constitutional AI, DPO are its techniques.
▸ TR
Modelin davranışını insan değer ve niyetleriyle hizalama disiplini. RLHF, Constitutional AI, DPO bunun teknikleri.