🛡️ SECURITY
Adversarial Attack
▸ EN
Adding small but purposeful perturbations to input to fool a model. Classic for image classifiers; adapted to LLMs.
▸ TR
Modeli yanıltacak şekilde input'a küçük ama amaçlı bozulma ekleme. Image classifier'lara klasik; LLM'lere de uyarlandı.