GONE: 大規模言語モデルにおける知識アンラーニングを革新research#llm🔬 Research|分析: 2026年3月16日 04:03•公開: 2026年3月16日 04:00•1分で読める•ArXiv NLP分析この研究は、大規模言語モデル (LLM) における不要な知識のアンラーニングという重要な課題に取り組む、画期的なベンチマークとフレームワーク、GONE を紹介します。革新的な Neighborhood-Expanded Distribution Shaping (NEDS) メソッドは目覚ましいパフォーマンスを示し、知識編集とアンラーニングの新たな基準を確立しました。重要ポイント•GONE は、構造化された知識グラフ上で、大規模言語モデル (LLM) における知識アンラーニングを評価するための新しいベンチマークを提供します。•Neighborhood-Expanded Distribution Shaping (NEDS) フレームワークは、知識アンラーニングにおいて優れたパフォーマンスを示します。•この研究は、LLMにおける安全性、プライバシー、知的財産に関連する重要な問題に対処しています。引用・出典原文を見る"さらに、Graph Oblivion and Node Erasure (GONE) という新しいアンラーニングフレームワークは、グラフの接続性を活用し、関連するアンカー近隣を特定するように設計されており、忘れられた事実とその意味的近隣の間で正確な決定境界を強制します。"AArXiv NLP2026年3月16日 04:00* 著作権法第32条に基づく適法な引用です。古い記事ActTail: Supercharging LLM Inference with Smart Sparsity!新しい記事SPARROW: Soaring to New Heights in Pixel-Grounded Video Understanding with AI!関連分析researchYann LeCun氏のAMI Labs、AGIへ向けた「世界モデル」を先導2026年3月16日 05:15researchWiFi-DensePose: AIが壁を透視!その驚くべき能力!2026年3月16日 04:32research大規模言語モデルを構築して学ぶ:新しい書籍が大規模言語モデルの仕組みを明らかに2026年3月16日 05:00原文: ArXiv NLP