RepetitionCurse: 针对MoE LLM的DoS攻击
Research Paper#AI Security, LLMs, MoE🔬 Research|分析: 2026年1月3日 15:57•
发布: 2025年12月30日 05:24
•1分で読める
•ArXiv分析
本文重点介绍了混合专家 (MoE) 大型语言模型 (LLM) 中的一个关键漏洞。它演示了对抗性输入如何利用路由机制,导致严重的负载不平衡和拒绝服务 (DoS) 状况。这项研究意义重大,因为它揭示了一种实用的攻击向量,该向量可以显著降低已部署 MoE 模型的性能和可用性,从而影响服务水平协议。所提出的 RepetitionCurse 方法提供了一种简单、黑盒的方法来触发此漏洞,使其成为一个令人担忧的威胁。