大型视觉语言模型在微调后难以遵循指令

Research Paper#Large Vision-Language Models (LVLMs), Instruction Following, Fine-tuning🔬 Research|分析: 2026年1月3日 18:39
发布: 2025年12月29日 16:12
1分で読める
ArXiv

分析

本文探讨了大型视觉语言模型(LVLM)开发中的一个关键问题:微调后指令遵循能力的下降。它强调了一个重要问题,即模型失去了遵守指令的能力,而这是底层大型语言模型(LLM)的核心功能。这项研究的重要性在于它量化地证明了这种下降,并调查了其原因,特别是微调期间输出格式规范的影响。这项研究为改进LVLM的训练方法提供了宝贵的见解。
引用 / 来源
查看原文
"LVLMs trained with datasets, including instructions on output format, tend to follow instructions more accurately than models that do not."
A
ArXiv2025年12月29日 16:12
* 根据版权法第32条进行合法引用。