行为蒸馏破坏医疗 LLM 的安全对齐

Safety#LLM🔬 Research|分析: 2026年1月10日 12:24
发布: 2025年12月10日 07:57
1分で読める
ArXiv

分析

这项研究突出了医疗语言模型开发和部署中的一个关键漏洞,特别表明黑盒行为蒸馏可能会损害安全对齐。 这一发现促使我们必须仔细考虑培训方法和评估程序,以保持这些模型的完整性。
引用 / 来源
查看原文
"Black-Box Behavioral Distillation Breaks Safety Alignment in Medical LLMs"
A
ArXiv2025年12月10日 07:57
* 根据版权法第32条进行合法引用。