突破性方法,让大语言模型忘记不需要的知识research#llm🔬 Research|分析: 2026年3月12日 04:03•发布: 2026年3月12日 04:00•1分で読める•ArXiv ML分析这项研究介绍了一种新方法,以提高大语言模型 (LLM) 的安全性和可靠性。通过使用基于推理的遗忘,该方法旨在更有效地删除不良知识,同时保留模型的整体能力。这是朝着更值得信赖和可控的生成式人工智能迈出的重要一步。要点•提出了一种新的“基于推理的遗忘目标”,以指导删除大语言模型中的特定知识。•使用交叉熵和基于梯度上升的损失的组合来实现有针对性的知识移除。•在各种基准和 LLM 骨干网络上展示了改进的遗忘可靠性和能力保持。引用 / 来源查看原文"我们使用交叉熵监督损失与基于GA的损失相结合,使模型能够学习推理能力,从而精确地移除知识,同时保留不相关的能力。"AArXiv ML2026年3月12日 04:00* 根据版权法第32条进行合法引用。较旧Revolutionizing LLM Uncertainty: A New Approach with Imprecise Probabilities较新GhazalBench: Revolutionizing LLM Evaluation for Persian Poetry相关分析research谷歌Gemini Embedding 2:多模态AI的新飞跃2026年3月12日 02:00research揭示未来:AI图像检测器与对抗深度伪造2026年3月12日 05:18researchAnthropic 成立研究所,应对 AI 社会挑战2026年3月12日 05:00来源: ArXiv ML