画期的な手法、LLMから不要な知識を忘れさせるresearch#llm🔬 Research|分析: 2026年3月12日 04:03•公開: 2026年3月12日 04:00•1分で読める•ArXiv ML分析この研究は、大規模言語モデル (LLM) の安全性と信頼性を向上させる新しい方法を提示しています。推論に基づいたアンラーニングを使用することで、望ましくない知識をより効果的に削除し、モデル全体の能力を維持することを目指しています。これは、より信頼性の高い、制御された生成AIに向けた重要な一歩です。重要ポイント•LLM内の特定の知識の削除をガイドする、新しい'推論ベースのアンラーニングターゲット'を提案。•ターゲットを達成するために、クロスエントロピー損失と勾配上昇ベースの損失を組み合わせる。•さまざまなベンチマークとLLMバックボーン全体で、アンラーニングの信頼性と能力の維持を向上させることを実証しています。引用・出典原文を見る"我々は、クロスエントロピー教師あり損失とGAベースの損失を組み合わせることでターゲットを採用し、モデルが関連性のない能力を保持しつつ、正確な知識除去のための推論能力を学習できるようにしました。"AArXiv ML2026年3月12日 04:00* 著作権法第32条に基づく適法な引用です。古い記事Revolutionizing LLM Uncertainty: A New Approach with Imprecise Probabilities新しい記事GhazalBench: Revolutionizing LLM Evaluation for Persian Poetry関連分析researchGoogleのGemini Embedding 2: マルチモーダルAIの新境地2026年3月12日 02:00research未来を解き明かす:AI画像検出器とディープフェイクとの戦い2026年3月12日 05:18researchAnthropic、AIの社会課題に取り組む機関「Anthropic Institute」を設立2026年3月12日 05:00原文: ArXiv ML