MiniMax M2.7入門:自己進化AIがSWE-Pro 56%を達成するMoEコーディングエージェントproduct#agent📝 Blog|分析: 2026年4月23日 11:11•公開: 2026年4月23日 11:08•1分で読める•Qiita AI分析MiniMaxが発表した初の自己進化AI「M2.7」は、反復的なフィードバックループを通じて自律的にコーディング能力を向上させる画期的なモデルです。巨大なパラメータの一部のみを活性化させることで、高い推論効率を実現しながら、SWE-bench Proベンチマークで業界の巨人たちに匹敵するスコアを記録しました。このブレイクスルーは、自律的な大規模言語モデル (LLM) の開発と強化学習の自動化における驚異的な飛躍を示しています。重要ポイント•このモデルはMoE(Mixture of Experts)アーキテクチャを採用しており、229Bのパラメータ(パラメータ)を持つ一方、推論時にアクティブ化するのはわずか10Bで最大限の効率を発揮します。•SWE-bench Proベンチマークで印象的な56.22%を達成し、OpenAIのトップレベルのコーディングモデルに肉薄しています。•開発者は、Hugging FaceやOllamaを介してこのオープンソースモデルをローカルで実行するか、非常にコスト効率の高いAPIを通じてアクセスできます。引用・出典原文を見る"M2.7は同社初の「自己進化型(Self-Evolving)」AIで、100ラウンドを超える自律的な最適化ループを通じて自分自身の開発に参加し、コーディング性能を30%向上させた記録を持っています。"QQiita AI2026年4月23日 11:08* 著作権法第32条に基づく適法な引用です。古い記事Introduction to Gemini Personal Intelligence: Personalizing Image Generation with Google Photos新しい記事The Evolution of AI Coding: A History of the Vibe Coding Revolution関連分析productClaude Codeのトークン節約——月額プランを2倍長持ちさせる実践テクニック2026年4月23日 12:28productGPT Image 2が価格を7分の1に低下:22の生成AIモデルの魅力的なコスト分析2026年4月23日 12:24product見えない自律稼働の可視化:AIエージェントが自分の2倍長く動いていた2026年4月23日 12:28原文: Qiita AI