黑盒大语言模型的自动安全优化

Safety#LLM🔬 Research|分析: 2026年1月10日 11:19
发布: 2025年12月14日 23:27
1分で読める
ArXiv

分析

这项来自ArXiv的研究侧重于自动调整大型语言模型(LLM)的安全防护栏。该方法有可能提高LLM的可靠性和可信度。
引用 / 来源
查看原文
"The research focuses on auto-tuning safety guardrails."
A
ArXiv2025年12月14日 23:27
* 根据版权法第32条进行合法引用。