阿里巴巴发布720亿参数LLM,上下文长度达32KProduct#LLM👥 Community|分析: 2026年1月10日 15:52•发布: 2023年11月30日 16:32•1分で読める•Hacker News分析这篇简短的公告突出了阿里巴巴在竞争激烈的大型语言模型 (LLM) 领域的进步。720亿参数模型和32,000个token上下文窗口的组合表明了对性能和长篇内容处理的关注。要点•阿里巴巴以庞大的模型规模进入LLM领域。•扩展的上下文长度表明其处理长文本的能力得到提升。•此举表明中国LLM市场的竞争加剧。引用 / 来源查看原文"Alibaba releases 72B LLM with 32k context length"HHacker News2023年11月30日 16:32* 根据版权法第32条进行合法引用。较旧Self-Hosted LLMs in Daily Use: A Reality Check较新LLMs Fail on Deep Understanding and Theory of Mind来源: Hacker News