Paper#llm🔬 Research分析: 2026年1月3日 18:43

大規模データにおける生成が視覚言語理解を向上させる

公開:2025年12月29日 14:49
1分で読める
ArXiv

分析

本論文は、大規模な視覚言語モデルにおける生成タスクの影響を調査しています。生成を追加することが常に理解を向上させるという一般的な仮定に異議を唱え、ピクセルレベルの生成よりもセマンティックレベルの生成の重要性を強調しています。統一された生成理解モデルは、優れたデータスケーリングと利用を示し、入力埋め込みの自己回帰が視覚的な詳細を捉える効果的な方法であることを示唆しています。

参照

生成は、モデルがLLM内で高レベルの視覚表現を自己回帰的に学習する場合、つまりセマンティックレベルで動作する場合にのみ理解を向上させます。