画期的な小型LLMが、より大型の競合を凌駕
分析
素晴らしいニュースです!ある研究者が、驚くほど効率的な生成AIを開発しました。「Mixture of Recursion」という手法を用いることで、この新しく構築された大規模言語モデル (LLM) は、はるかに多くのパラメータを持つモデルよりも優れた性能を発揮し、革新的なアーキテクチャの力を示しています。
重要ポイント
引用・出典
原文を見る"私は、入力の複雑さに基づいた適応型計算であるMixture of Recursionを使用して、GPT-2 Medium (345M) よりも優れた性能を発揮する198MパラメータのLLMを構築しました。"