RepetitionCurse: MoE LLMに対するDoS攻撃

Research Paper#AI Security, LLMs, MoE🔬 Research|分析: 2026年1月3日 15:57
公開: 2025年12月30日 05:24
1分で読める
ArXiv

分析

この論文は、Mixture-of-Experts (MoE) 大規模言語モデル (LLM) における重要な脆弱性を明らかにしています。敵対的な入力がルーティングメカニズムを悪用し、深刻な負荷の不均衡とサービス拒否 (DoS) 状態を引き起こす可能性があることを示しています。この研究は、展開されたMoEモデルのパフォーマンスと可用性を大幅に低下させ、サービスレベルアグリーメントに影響を与える可能性のある、実用的な攻撃ベクトルを明らかにしているため、重要です。提案されたRepetitionCurseメソッドは、この脆弱性をトリガーするためのシンプルでブラックボックスのアプローチを提供しており、懸念される脅威となっています。
引用・出典
原文を見る
"Out-of-distribution prompts can manipulate the routing strategy such that all tokens are consistently routed to the same set of top-$k$ experts, which creates computational bottlenecks."
A
ArXiv2025年12月30日 05:24
* 著作権法第32条に基づく適法な引用です。