预训练模型暴露加剧微调 LLM 越狱风险

Safety#LLM🔬 Research|分析: 2026年1月10日 11:27
发布: 2025年12月14日 07:48
1分で読める
ArXiv

分析

来自 ArXiv 的这项研究突出了大型语言模型 (LLM) 中与微调期间预训练模型暴露相关的关键漏洞。 了解此漏洞对于致力于提高 LLM 的安全性和鲁棒性的开发人员和研究人员至关重要。
引用 / 来源
查看原文
"The study focuses on how pretrained model exposure amplifies jailbreak risks in finetuned LLMs."
A
ArXiv2025年12月14日 07:48
* 根据版权法第32条进行合法引用。