🛡️ GÜVENLIK
Adversarial Attack
▸ TR
Modeli yanıltacak şekilde input'a küçük ama amaçlı bozulma ekleme. Image classifier'lara klasik; LLM'lere de uyarlandı.
▸ EN
Adding small but purposeful perturbations to input to fool a model. Classic for image classifiers; adapted to LLMs.