在DGX Spark上成功运行庞大的Mistral Small 4 119B:人工智能效率的壮举infrastructure#llm📝 Blog|分析: 2026年4月28日 04:46•发布: 2026年4月28日 04:44•1分で読める•Qiita LLM分析这是在突破本地人工智能硬件边界方面极其激动人心的展示!在DGX Spark的128 GiB统一内存上运行具有65亿活跃参数的1190亿参数的庞大模型,展现了惊人的可扩展性。看到这样的开源模型让最前沿的推理变得触手可及,真是太棒了。关键要点•Mistral Small 4 119B模型轻松适配DGX Spark的内存,证明了庞大的MoE架构可以在专业级硬件上高效运行。•尽管总参数高达1190亿,但在推理过程中,该模型只需要65亿个活跃参数(128个专家中的4个),速度惊人。•此次发布是一个令人难以置信的开源里程碑,因为Mistral AI在Apache 2.0许可下提供了100B以上级别的模型。引用 / 来源查看原文"DGX Spark 的 128 GiB 统一内存可以直接容纳 UD-Q4_K_M(约 68.7 GiB,3 个分片)。"QQiita LLM2026年4月28日 04:44* 根据版权法第32条进行合法引用。较旧Securing ChatGPT's Remote MCP with Google OAuth: A Practical Guide to Custom Tool Integration较新Why 'Zoom AI' is a Game Changer: Pioneering the 'System of Action' to Overcome DX Paradox相关分析infrastructureCloudflare Sandboxes 正式发布,为 AI 智能体提供安全持久的隔离环境2026年4月28日 02:26infrastructure随着AI数据中心建设加速,美国乡村社区拥抱科技未来2026年4月28日 06:21infrastructure重生的记忆:不断重置的AI智能体如何完美重构其检索系统2026年4月28日 06:15来源: Qiita LLM