N:Mスパース性と量子化を用いた効率的なLLM推論のためのFPGAコデザイン

Paper#llm🔬 Research|分析: 2026年1月3日 06:27
公開: 2025年12月31日 08:27
1分で読める
ArXiv

分析

この論文は、大規模言語モデル(LLM)をリソース制約のある環境に展開するという課題に取り組み、FPGAを使用したハードウェアとソフトウェアの協調設計アプローチを提案しています。主な貢献は、重み剪定(N:Mスパース性)と低ビット量子化を組み合わせ、メモリフットプリントを削減し、推論を高速化する自動化フレームワークにあります。この論文は、密なGPUベースラインと比較して大幅な高速化とレイテンシの削減を示しており、提案された方法の有効性を強調しています。FPGAアクセラレータは、さまざまなスパースパターンをサポートする柔軟性を提供します。
引用・出典
原文を見る
"Utilizing 2:4 sparsity combined with quantization on $4096 imes 4096$ matrices, our approach achieves a reduction of up to $4\times$ in weight storage and a $1.71\times$ speedup in matrix multiplication, yielding a $1.29\times$ end-to-end latency reduction compared to dense GPU baselines."
A
ArXiv2025年12月31日 08:27
* 著作権法第32条に基づく適法な引用です。