Nemotron-3-Super-120b:释放强大、无审查的大型语言模型 (LLM)research#llm📝 Blog|分析: 2026年3月14日 08:02•发布: 2026年3月14日 04:13•1分で読める•r/LocalLLaMA分析一个新的、未经审查的大型语言模型 (LLM) Nemotron-3-Super-120b 已经发布,承诺在 HarmBench 和 HumanEval 等基准测试中表现出色。该模型独特的架构利用了 LatentMoE 和 Mamba 注意力机制,推动了生成式人工智能世界的可能性边界。要点•Nemotron-3-Super-120b 在 HarmBench 和 HumanEval 上都展示了令人印象深刻的分数。•该模型使用了 LatentMoE 和 Mamba 注意力机制的结合。•提供了自定义文件,使用户能够使用 MLX 运行该模型。引用 / 来源查看原文"HarmBench: 97% HumanEval: 94%"Rr/LocalLLaMA2026年3月14日 04:13* 根据版权法第32条进行合法引用。较旧Unlocking AI Consciousness: A Revolutionary Framework较新Mastering the Fundamentals of AI: A Solid Foundation相关分析research解锁人工智能意识:一个革命性的框架2026年3月14日 08:02research人工智能两周内发现22个 Firefox 漏洞:浏览器安全的新时代?2026年3月14日 07:45research揭示人机交互的共生舞蹈:一项长期对话研究2026年3月14日 07:30来源: r/LocalLLaMA