推論を革新:'計画条件付け'で拡散型LLMを強化する新手法

research#llm🔬 Research|分析: 2026年3月17日 04:03
公開: 2026年3月17日 04:00
1分で読める
ArXiv AI

分析

この研究は、拡散型大規模言語モデル(LLM)の推論能力を大幅に向上させる、画期的なトレーニング不要の方法「計画条件付け」を紹介しています。自己回帰(AR)モデルによって生成された自然言語プランを前置することにより、この技術はグローバルなコンテキストを提供し、モデルが複雑な多段階推論問題を解決する能力を強化します。
引用・出典
原文を見る
"GSM8Kでは、計画条件付けにより、LLaDA-8B-Instructが75.6%から87.2%(+11.6パーセントポイント)に向上し、6.4pp弱いベースラインにもかかわらず、同サイズのARモデル(LLaMA 3.1 8B、87.7%)に匹敵します。"
A
ArXiv AI2026年3月17日 04:00
* 著作権法第32条に基づく適法な引用です。