Safety#LLM🔬 Research分析: 2026年1月10日 11:38

LLMの拒否行動の不整合性:ランダム性と安全性の影響を検証

公開:2025年12月12日 22:29
1分で読める
ArXiv

分析

この記事は、大規模言語モデルの重要な脆弱性、つまり拒否行動の予測不可能性を浮き彫りにしています。この研究は、LLMの安全メカニズムを評価および展開する際に、厳格なテスト方法論の重要性を強調しています。

参照

この研究は、ランダムシードと温度設定が、LLMが潜在的に有害なプロンプトを拒否する傾向にどのように影響するかを分析しています。