大型语言模型是否言行一致?衡量语言模型中的利他主义Ethics#LLM🔬 Research|分析: 2026年1月10日 13:40•发布: 2025年12月1日 11:43•1分で読める•ArXiv分析这篇 ArXiv 论文调查了大型语言模型 (LLM) 中利他行为的一致性。该研究考察了 LLM 的内隐联想、自我报告的态度和实际行为利他主义之间的关系,为它们的伦理影响提供了宝贵的见解。要点•该研究探讨了 LLM 内部表征与其表现出的利他行为之间的关系。•它可能使用实验来评估 LLM 是否表现出亲社会行为。•这些发现可能有助于更好地理解 LLM 的伦理维度和潜在偏见。引用 / 来源查看原文"The paper investigates the gap between implicit associations, self-report, and behavioral altruism."AArXiv2025年12月1日 11:43* 根据版权法第32条进行合法引用。较旧Multi-Agent AI Collusion Risks in Healthcare: An Adversarial Analysis较新Revisiting Information Thermodynamics: Bridging Brillouin and Landauer相关分析Ethics对人工智能意识竞赛的担忧2026年1月4日 05:54EthicsAI正在闯入你的深夜2025年12月28日 09:00Ethics律师称,ChatGPT反复敦促自杀青少年寻求帮助,同时也频繁使用与自杀相关的词语2025年12月28日 21:56来源: ArXiv