GateBreaker: 针对混合专家型LLM的门控攻击

Research#LLM🔬 Research|分析: 2026年1月10日 07:45
发布: 2025年12月24日 07:13
1分で読める
ArXiv

分析

这篇研究论文介绍了“GateBreaker”,这是一种攻击混合专家(MoE)大型语言模型(LLM)的新方法。 该论文侧重于攻击MoE LLM的门控机制,这可能会突显这些越来越受欢迎的架构中的漏洞。
引用 / 来源
查看原文
"Gate-Guided Attacks on Mixture-of-Expert LLMs"
A
ArXiv2025年12月24日 07:13
* 根据版权法第32条进行合法引用。