画期的な手法、LLMから不要な知識を忘れさせるresearch#llm🔬 Research|分析: 2026年3月12日 04:03•公開: 2026年3月12日 04:00•1分で読める•ArXiv ML分析この研究は、大規模言語モデル (LLM) の安全性と信頼性を向上させる新しい方法を提示しています。推論に基づいたアンラーニングを使用することで、望ましくない知識をより効果的に削除し、モデル全体の能力を維持することを目指しています。これは、より信頼性の高い、制御された生成AIに向けた重要な一歩です。重要ポイント•LLM内の特定の知識の削除をガイドする、新しい'推論ベースのアンラーニングターゲット'を提案。•ターゲットを達成するために、クロスエントロピー損失と勾配上昇ベースの損失を組み合わせる。•さまざまなベンチマークとLLMバックボーン全体で、アンラーニングの信頼性と能力の維持を向上させることを実証しています。引用・出典原文を見る"我々は、クロスエントロピー教師あり損失とGAベースの損失を組み合わせることでターゲットを採用し、モデルが関連性のない能力を保持しつつ、正確な知識除去のための推論能力を学習できるようにしました。"AArXiv ML2026年3月12日 04:00* 著作権法第32条に基づく適法な引用です。古い記事Revolutionizing LLM Uncertainty: A New Approach with Imprecise Probabilities新しい記事GhazalBench: Revolutionizing LLM Evaluation for Persian Poetry関連分析researchMicrosoftが「TRELLIS.2」を公開:高忠実度3Dアセット生成のためのオープンソースの強力なモデル2026年4月27日 20:38researchGPT-5.5が拡張版ニューヨークタイムズ・コネクションズベンチマークで競合を抑え、2位を獲得2026年4月27日 19:54researchGPT-5.5、MineBenchで効率性と品質の大幅な向上を示す2026年4月27日 17:49原文: ArXiv ML