突破性方法,让大语言模型忘记不需要的知识research#llm🔬 Research|分析: 2026年3月12日 04:03•发布: 2026年3月12日 04:00•1分で読める•ArXiv ML分析这项研究介绍了一种新方法,以提高大语言模型 (LLM) 的安全性和可靠性。通过使用基于推理的遗忘,该方法旨在更有效地删除不良知识,同时保留模型的整体能力。这是朝着更值得信赖和可控的生成式人工智能迈出的重要一步。关键要点•提出了一种新的“基于推理的遗忘目标”,以指导删除大语言模型中的特定知识。•使用交叉熵和基于梯度上升的损失的组合来实现有针对性的知识移除。•在各种基准和 LLM 骨干网络上展示了改进的遗忘可靠性和能力保持。引用 / 来源查看原文"我们使用交叉熵监督损失与基于GA的损失相结合,使模型能够学习推理能力,从而精确地移除知识,同时保留不相关的能力。"AArXiv ML2026年3月12日 04:00* 根据版权法第32条进行合法引用。较旧Revolutionizing LLM Uncertainty: A New Approach with Imprecise Probabilities较新GhazalBench: Revolutionizing LLM Evaluation for Persian Poetry相关分析research微软发布 TRELLIS.2:高保真3D资产生成的开源 powerhouse2026年4月27日 20:38researchGPT-5.5在扩展版纽约时报连线基准测试中强势超越对手夺得第二名2026年4月27日 19:54researchGPT-5.5在MineBench上展现出令人瞩目的效率与质量提升2026年4月27日 17:49来源: ArXiv ML