Technology#AI Hardware📝 Blog分析: 2025年12月29日 01:43

在多CPU和系统RAM上自托管LLM

发布:2025年12月28日 22:34
1分で読める
r/LocalLLaMA

分析

这篇Reddit帖子讨论了在具有多个CPU和大量系统RAM的服务器上自托管大型语言模型(LLM)的可行性。作者正在考虑使用带有Xeon 2690 v3处理器的双路Supermicro主板和大量的2133 MHz RAM。主要问题围绕着256GB的RAM是否足以以有意义的速度运行大型开源模型。帖子还寻求对预期性能和运行特定模型(如Qwen3:235b)的潜力的见解。讨论突出了人们对本地运行LLM的日益增长的兴趣以及所涉及的硬件考虑因素。

引用

我正在考虑购买更多的系统内存,并自托管更大的LLM,也许将来我可以在上面运行一些好的模型。