Mistral Vibe + Devstral2 Small: ローカルLLMのパフォーマンス
分析
この記事は、Mistral VibeとDevstral2 Smallをローカルで使用した際の肯定的な経験を強調しています。ユーザーは、その使いやすさ、複数のGPUでのフルコンテキスト(256k)の処理能力、および高速な処理速度(2000トークン/秒PP、40トークン/秒TG)を称賛しています。ユーザーはまた、gpt120のようなより大きなモデルを実行するための構成の容易さについても言及しており、この設定が以前の設定(roo)を置き換えていることを示しています。この記事は、フォーラムからのユーザーレビューであり、技術的な詳細よりも、実用的なパフォーマンスと使いやすさに焦点を当てています。
重要ポイント
引用・出典
原文を見る"“I assumed all these TUIs were much of a muchness so was in no great hurry to try this one. I dunno if it's the magic of being native but... it just works. Close to zero donkeying around. Can run full context (256k) on 3 cards @ Q4KL. It does around 2000t/s PP, 40t/s TG. Wanna run gpt120, too? Slap 3 lines into config.toml and job done. This is probably replacing roo for me.”"