拡散言語モデルは最適な並列サンプラー:理論的根拠

Research Paper#Diffusion Language Models, Parallel Sampling, Chain-of-Thought, Remasking, Revision🔬 Research|分析: 2026年1月3日 06:14
公開: 2025年12月31日 18:03
1分で読める
ArXiv

分析

この論文は、より高速な推論のための拡散言語モデル(DLM)の効率性について、理論的根拠を提供しています。特にChain-of-Thought(CoT)を付加したDLMが、最適な逐次ステップ数で任意の並列サンプリングアルゴリズムをシミュレートできることを示しています。また、最適な空間計算量と表現力の向上には、リマスキングやリビジョンのような機能が重要であり、DLM設計への組み込みを提唱しています。
引用・出典
原文を見る
"DLMs augmented with polynomial-length chain-of-thought (CoT) can simulate any parallel sampling algorithm using an optimal number of sequential steps."
A
ArXiv2025年12月31日 18:03
* 著作権法第32条に基づく適法な引用です。