RepetitionCurse: 针对MoE LLM的DoS攻击

Research Paper#AI Security, LLMs, MoE🔬 Research|分析: 2026年1月3日 15:57
发布: 2025年12月30日 05:24
1分で読める
ArXiv

分析

本文重点介绍了混合专家 (MoE) 大型语言模型 (LLM) 中的一个关键漏洞。它演示了对抗性输入如何利用路由机制,导致严重的负载不平衡和拒绝服务 (DoS) 状况。这项研究意义重大,因为它揭示了一种实用的攻击向量,该向量可以显著降低已部署 MoE 模型的性能和可用性,从而影响服务水平协议。所提出的 RepetitionCurse 方法提供了一种简单、黑盒的方法来触发此漏洞,使其成为一个令人担忧的威胁。
引用 / 来源
查看原文
"Out-of-distribution prompts can manipulate the routing strategy such that all tokens are consistently routed to the same set of top-$k$ experts, which creates computational bottlenecks."
A
ArXiv2025年12月30日 05:24
* 根据版权法第32条进行合法引用。