谁能看穿你?对抗基于VLM的属性推断攻击的对抗性屏蔽

Research#llm🔬 Research|分析: 2026年1月4日 10:37
发布: 2025年12月20日 08:08
1分で読める
ArXiv

分析

这篇文章可能讨论了如何防御使用视觉语言模型 (VLM) 推断个人敏感属性的攻击。重点是对抗性屏蔽,这表明了使这些模型更难以准确推断此类属性的技术。来源是 ArXiv 表明这是一篇研究论文,很可能详细介绍了新的方法和实验结果。
引用 / 来源
查看原文
"Who Can See Through You? Adversarial Shielding Against VLM-Based Attribute Inference Attacks"
A
ArXiv2025年12月20日 08:08
* 根据版权法第32条进行合法引用。