MoDES:通过动态专家跳过加速混合专家多模态大型语言模型

Research#LLM🔬 Research|分析: 2026年1月10日 14:34
发布: 2025年11月19日 18:48
1分で読める
ArXiv

分析

这项研究侧重于优化混合专家 (MoE) 多模态大型语言模型的性能,特别是通过引入动态专家跳过。动态跳过的使用可能会降低计算成本和推理时间,而这些是大型语言模型应用中的关键瓶颈。
引用 / 来源
查看原文
"The research aims to accelerate Mixture-of-Experts multimodal large language models."
A
ArXiv2025年11月19日 18:48
* 根据版权法第32条进行合法引用。