LLM安全性:时间和语言的脆弱性

Research Paper#Large Language Models (LLMs) Safety🔬 Research|分析: 2026年1月3日 09:21
发布: 2025年12月31日 01:40
1分で読める
ArXiv

分析

这篇论文意义重大,因为它挑战了LLM安全性在不同语言和时间框架下都能推广的假设。它强调了当前LLM的一个关键漏洞,特别是对于全球南方的用户,通过展示时间框架和语言如何极大地改变安全性能。这项研究侧重于西非的威胁情景,并确定了“安全口袋”,强调了对更强大和上下文感知的安全机制的需求。
引用 / 来源
查看原文
"The study found a 'Temporal Asymmetry, where past-tense framing bypassed defenses (15.6% safe) while future-tense scenarios triggered hyper-conservative refusals (57.2% safe).'"
A
ArXiv2025年12月31日 01:40
* 根据版权法第32条进行合法引用。