llama.cpp がパフォーマンスを向上: IQ*_K と IQ*_KS 量子化が登場!

infrastructure#llm📝 Blog|分析: 2026年2月19日 16:17
公開: 2026年2月19日 14:55
1分で読める
r/LocalLLaMA