LLaDA2.0:拡散言語モデルを1000億までスケールアップ

Research#llm🔬 Research|分析: 2026年1月4日 10:38
公開: 2025年12月10日 09:26
1分で読める
ArXiv

分析

この記事は、1000億パラメータまでスケールアップされた拡散言語モデル、LLaDA2.0の開発を発表しています。これは、モデルサイズの進歩と、潜在的なパフォーマンスの向上を示唆しています。ソースがArXivであることから、これは研究論文である可能性が高いです。
引用・出典
原文を見る
"LLaDA2.0: Scaling Up Diffusion Language Models to 100B"
A
ArXiv2025年12月10日 09:26
* 著作権法第32条に基づく適法な引用です。