用于LLM量化的多包络DBF

Paper#llm🔬 Research|分析: 2026年1月3日 09:22
发布: 2025年12月31日 01:04
1分で読める
ArXiv

分析

本文解决了用于大型语言模型(LLM)的极低比特量化的双二进制分解(DBF)的局限性。DBF虽然高效,但由于缩放参数的限制,性能会饱和。提出的多包络DBF(MDBF)通过引入秩为$l$的包络来改进DBF,从而在保持二进制载波和易于部署的推理的同时,实现更好的幅度表达。本文展示了在LLaMA和Qwen模型上困惑度和准确性的提高。
引用 / 来源
查看原文
"MDBF enhances perplexity and zero-shot accuracy over previous binary formats at matched bits per weight while preserving the same deployment-friendly inference primitive."
A
ArXiv2025年12月31日 01:04
* 根据版权法第32条进行合法引用。