RepetitionCurse: 针对MoE LLM的DoS攻击

发布:2025年12月30日 05:24
1分で読める
ArXiv

分析

本文重点介绍了混合专家 (MoE) 大型语言模型 (LLM) 中的一个关键漏洞。它演示了对抗性输入如何利用路由机制,导致严重的负载不平衡和拒绝服务 (DoS) 状况。这项研究意义重大,因为它揭示了一种实用的攻击向量,该向量可以显著降低已部署 MoE 模型的性能和可用性,从而影响服务水平协议。所提出的 RepetitionCurse 方法提供了一种简单、黑盒的方法来触发此漏洞,使其成为一个令人担忧的威胁。

引用

超出分布的提示可以操纵路由策略,使所有标记始终路由到同一组 top-$k$ 专家,从而产生计算瓶颈。