大規模データにおける生成が視覚言語理解を向上させるPaper#llm🔬 Research|分析: 2026年1月3日 18:43•公開: 2025年12月29日 14:49•1分で読める•ArXiv分析本論文は、大規模な視覚言語モデルにおける生成タスクの影響を調査しています。生成を追加することが常に理解を向上させるという一般的な仮定に異議を唱え、ピクセルレベルの生成よりもセマンティックレベルの生成の重要性を強調しています。統一された生成理解モデルは、優れたデータスケーリングと利用を示し、入力埋め込みの自己回帰が視覚的な詳細を捉える効果的な方法であることを示唆しています。重要ポイント•大規模な視覚言語モデルでは、ピクセルレベルではなく、セマンティックレベルの生成が理解を向上させる。•統一された生成理解モデルは、より優れたデータスケーリングと利用を示す。•入力埋め込みの自己回帰は、視覚的な詳細を捉えるのに効果的である。引用・出典原文を見る"Generation improves understanding only when it operates at the semantic level, i.e. when the model learns to autoregress high-level visual representations inside the LLM."AArXiv2025年12月29日 14:49* 著作権法第32条に基づく適法な引用です。古い記事Deformation enduring conveyance of structured light through multimode waveguides and its exploitation for flexible hair-thin endoscopes新しい記事Beyond Correctness: Exposing LLM-generated Logical Flaws in Reasoning via Multi-step Automated Theorem Proving関連分析Paper未ポーズ画像からの即時3Dシーン編集2026年1月3日 06:10Paper選択ポリシーを用いた協調型人型ロボット操作2026年1月3日 06:10Paper将来予測のためのLLMフォアキャスティング2026年1月3日 06:10原文: ArXiv