Research#llm🔬 Research分析: 2026年1月4日 08:53

隐身微调:使用自生成CoT高效破坏RVLM的对齐

发布:2025年11月18日 03:45
1分で読める
ArXiv

分析

这篇文章可能讨论了一种操纵或错位鲁棒视觉语言模型(RVLM)的新方法。“隐身微调”的使用表明了一种微妙且可能无法检测到的方法。核心技术涉及使用自生成的Chain-of-Thought (CoT) 提示,这意味着模型正在被训练以生成自己的推理过程来实现所需的错位。对效率的关注表明该方法在计算上得到了优化。

引用

文章的摘要或引言可能包含“隐身微调”的更具体定义,并详细解释自生成CoT的机制。