RobustMask:神经排序模型的认证鲁棒性

Research Paper#Adversarial Robustness, Neural Ranking, Information Retrieval🔬 Research|分析: 2026年1月3日 16:08
发布: 2025年12月29日 08:51
1分で読める
ArXiv

分析

本文解决了神经排序模型对对抗攻击的严重脆弱性问题,这对于检索增强生成(RAG)等应用来说是一个重要的担忧。 提出的 RobustMask 防御提供了一种新颖的方法,将预训练语言模型与随机掩蔽相结合,以实现认证的鲁棒性。 本文的贡献在于提供了认证的 top-K 鲁棒性的理论证明,并通过实验证明了其有效性,为增强现实世界检索系统的安全性提供了实用的解决方案。
引用 / 来源
查看原文
"RobustMask successfully certifies over 20% of candidate documents within the top-10 ranking positions against adversarial perturbations affecting up to 30% of their content."
A
ArXiv2025年12月29日 08:51
* 根据版权法第32条进行合法引用。