重新思考视觉语言模型的微调
Research Paper#Vision-Language Models, Fine-tuning, Mask Fine-Tuning (MFT)🔬 Research|分析: 2026年1月3日 19:15•
发布: 2025年12月28日 20:41
•1分で読める
•ArXiv分析
本文介绍了Mask Fine-Tuning (MFT) 作为一种新的微调视觉语言模型 (VLM) 的方法。 MFT 不更新权重,而是通过分配可学习的门控分数来重新参数化模型,从而允许模型重新组织其内部子网络。 关键贡献在于证明了 MFT 可以优于 LoRA 甚至完全微调等传统方法,在不改变冻结的骨干网络的情况下实现高性能。 这表明,通过重新建立模型现有知识内的连接可以实现有效的适应,提供了一种更有效且潜在破坏性更小的微调策略。