Mistral AI、新しい8x22B MOEモデルを発表
分析
この記事は、Mistral AIが新しいMixture of Experts (MOE)モデルをリリースすることを発表しています。モデルのサイズは8x22Bと指定されており、かなりの計算能力を示唆しています。ソースはHacker Newsであり、このニュースは技術的な読者を対象としている可能性が高いです。
引用・出典
原文を見る"Mistral AI Launches New 8x22B MOE Model"
"Mistral AI Launches New 8x22B MOE Model"