使用专家混合模型防御对抗攻击

Research#llm🔬 Research|分析: 2026年1月4日 10:42
发布: 2025年12月23日 22:46
1分で読める
ArXiv

分析

这篇文章可能讨论了一篇研究论文,该论文探讨了使用专家混合 (MoE) 模型来提高 AI 系统对对抗攻击的鲁棒性。对抗攻击涉及设计旨在欺骗 AI 模型的恶意输入。MoE 架构结合了多个专业模型,可能通过利用不同专家的优势来提供一种缓解这些攻击的方法。ArXiv 来源表明这是一个预印本,表明该研究正在进行中或最近完成。
引用 / 来源
查看原文
"Defending against adversarial attacks using mixture of experts"
A
ArXiv2025年12月23日 22:46
* 根据版权法第32条进行合法引用。