LLMの拒否行動の不整合性:ランダム性と安全性の影響を検証Safety#LLM🔬 Research|分析: 2026年1月10日 11:38•公開: 2025年12月12日 22:29•1分で読める•ArXiv分析この記事は、大規模言語モデルの重要な脆弱性、つまり拒否行動の予測不可能性を浮き彫りにしています。この研究は、LLMの安全メカニズムを評価および展開する際に、厳格なテスト方法論の重要性を強調しています。重要ポイント•LLMの拒否行動は、ランダムシードや温度などのパラメータのわずかな変化に非常に敏感です。•この不安定性は、同じプロンプトが異なる応答を引き起こす可能性のある、一貫性のない安全性の結果につながる可能性があります。•この調査結果は、LLMの信頼できる安全性を確保するために、より堅牢な評価と調整方法を必要とします。引用・出典原文を見る"The study analyzes how random seeds and temperature settings impact LLM's propensity to refuse potentially harmful prompts."AArXiv2025年12月12日 22:29* 著作権法第32条に基づく適法な引用です。古い記事VOYAGER: LLM-Driven Dataset Generation Without Training新しい記事Instruction-Tuning Language Models for BPMN Model Generation関連分析Safetyティーン向け安全設計の紹介2026年1月3日 09:26原文: ArXiv