Strix Halo Llama-benchの結果 (GLM-4.5-Air)

Research#llm📝 Blog|分析: 2025年12月27日 08:31
公開: 2025年12月27日 05:16
1分で読める
r/LocalLLaMA

分析

このr/LocalLLaMAの投稿は、128GBのRAMを搭載したStrix Halo(EVO-X2)システムで実行されているGLM-4.5-Airモデルのベンチマーク結果を共有しています。ユーザーはセットアップを最適化しようとしており、他のユーザーからの比較を求めています。ベンチマークには、ROCm 7.10を使用したQ4_K量子化によるGLM4moe 106Bモデルのさまざまな構成が含まれています。提示されたデータには、モデルサイズ、パラメータ、バックエンド、GPUレイヤー数(ngl)、スレッド、n_ubatch、type_k、type_v、fa、mmap、テストタイプ、および1秒あたりのトークン数(t/s)が含まれています。ユーザーは特にClineでの使用のために最適化することに関心があります。
引用・出典
原文を見る
"Looking for anyone who has some benchmarks they would like to share. I am trying to optimize my EVO-X2 (Strix Halo) 128GB box using GLM-4.5-Air for use with Cline."
R
r/LocalLLaMA2025年12月27日 05:16
* 著作権法第32条に基づく適法な引用です。