大型语言模型系统性地歪曲美国气候观点

Research Paper#Large Language Models, Climate Change, Public Opinion, Bias, Intersectionality🔬 Research|分析: 2026年1月3日 16:56
发布: 2025年12月29日 22:29
1分で読める
ArXiv

分析

这篇论文之所以重要,是因为它突出了我们使用大型语言模型进行政策制定时的一个关键缺陷。研究表明,当使用大型语言模型分析公众对气候变化的看法时,它们会系统性地歪曲不同人口群体的观点,尤其是在种族和性别等身份交叉的群体中。这可能导致对公众情绪的评估不准确,并可能破坏公平的气候治理。
引用 / 来源
查看原文
"LLMs appear to compress the diversity of American climate opinions, predicting less-concerned groups as more concerned and vice versa. This compression is intersectional: LLMs apply uniform gender assumptions that match reality for White and Hispanic Americans but misrepresent Black Americans, where actual gender patterns differ."
A
ArXiv2025年12月29日 22:29
* 根据版权法第32条进行合法引用。