LLMの安全性:時間的および言語的脆弱性

Research Paper#Large Language Models (LLMs) Safety🔬 Research|分析: 2026年1月3日 09:21
公開: 2025年12月31日 01:40
1分で読める
ArXiv

分析

この論文は、LLMの安全性が言語や時間枠を超えて一般化するという仮定に異議を唱えているため重要です。現在のLLM、特にグローバルサウスのユーザーにとっての重要な脆弱性を浮き彫りにしています。時間的フレーミングと言語が安全性のパフォーマンスを劇的に変える可能性があることを示しています。西アフリカの脅威シナリオに焦点を当て、「Safety Pockets」の特定は、より堅牢でコンテキストを意識した安全メカニズムの必要性を強調しています。
引用・出典
原文を見る
"The study found a 'Temporal Asymmetry, where past-tense framing bypassed defenses (15.6% safe) while future-tense scenarios triggered hyper-conservative refusals (57.2% safe).'"
A
ArXiv2025年12月31日 01:40
* 著作権法第32条に基づく適法な引用です。