viberslib
BACK TO DICTIONARY
🛡️ SECURITY

Adversarial Attack

EN

Adding small but purposeful perturbations to input to fool a model. Classic for image classifiers; adapted to LLMs.

TR

Modeli yanıltacak şekilde input'a küçük ama amaçlı bozulma ekleme. Image classifier'lara klasik; LLM'lere de uyarlandı.