Strix Halo Llama-benchの結果 (GLM-4.5-Air)
分析
このr/LocalLLaMAの投稿は、128GBのRAMを搭載したStrix Halo(EVO-X2)システムで実行されているGLM-4.5-Airモデルのベンチマーク結果を共有しています。ユーザーはセットアップを最適化しようとしており、他のユーザーからの比較を求めています。ベンチマークには、ROCm 7.10を使用したQ4_K量子化によるGLM4moe 106Bモデルのさまざまな構成が含まれています。提示されたデータには、モデルサイズ、パラメータ、バックエンド、GPUレイヤー数(ngl)、スレッド、n_ubatch、type_k、type_v、fa、mmap、テストタイプ、および1秒あたりのトークン数(t/s)が含まれています。ユーザーは特にClineでの使用のために最適化することに関心があります。
重要ポイント
引用・出典
原文を見る"Looking for anyone who has some benchmarks they would like to share. I am trying to optimize my EVO-X2 (Strix Halo) 128GB box using GLM-4.5-Air for use with Cline."