大规模对抗攻击,在尖端AI模型上模拟TEMPEST

Safety#LLM Security🔬 Research|分析: 2026年1月10日 12:51
发布: 2025年12月8日 00:30
1分で読める
ArXiv

分析

这项研究调查了大型语言模型对对抗性攻击的脆弱性,特别是那些模仿TEMPEST的攻击。它突出了与部署前沿人工智能模型相关的潜在安全风险。
引用 / 来源
查看原文
"The research focuses on multi-turn adversarial attacks."
A
ArXiv2025年12月8日 00:30
* 根据版权法第32条进行合法引用。