识别并缓解针对93个污名化群体的语言模型偏见

Safety#LLM🔬 Research|分析: 2026年1月10日 08:41
发布: 2025年12月22日 10:20
1分で読める
ArXiv

分析

这篇ArXiv论文探讨了AI安全的一个关键方面:语言模型中的偏见。 该研究侧重于识别和减轻针对大量不同污名化群体的偏见,从而为更公平的AI系统做出贡献。
引用 / 来源
查看原文
"The research focuses on 93 stigmatized groups."
A
ArXiv2025年12月22日 10:20
* 根据版权法第32条进行合法引用。