Mistral Vibe + Devstral2 Small: ローカルLLMのパフォーマンス

Technology#LLM Performance📝 Blog|分析: 2026年1月4日 05:42
公開: 2026年1月4日 03:11
1分で読める
r/LocalLLaMA

分析

この記事は、Mistral VibeとDevstral2 Smallをローカルで使用した際の肯定的な経験を強調しています。ユーザーは、その使いやすさ、複数のGPUでのフルコンテキスト(256k)の処理能力、および高速な処理速度(2000トークン/秒PP、40トークン/秒TG)を称賛しています。ユーザーはまた、gpt120のようなより大きなモデルを実行するための構成の容易さについても言及しており、この設定が以前の設定(roo)を置き換えていることを示しています。この記事は、フォーラムからのユーザーレビューであり、技術的な詳細よりも、実用的なパフォーマンスと使いやすさに焦点を当てています。
引用・出典
原文を見る
"“I assumed all these TUIs were much of a muchness so was in no great hurry to try this one. I dunno if it's the magic of being native but... it just works. Close to zero donkeying around. Can run full context (256k) on 3 cards @ Q4KL. It does around 2000t/s PP, 40t/s TG. Wanna run gpt120, too? Slap 3 lines into config.toml and job done. This is probably replacing roo for me.”"
R
r/LocalLLaMA2026年1月4日 03:11
* 著作権法第32条に基づく適法な引用です。