LLM驱动的GUI智能体:用人类价值观塑造AI行为research#agent🔬 Research|分析: 2026年1月26日 05:04•发布: 2026年1月26日 05:00•1分で読める•ArXiv HCI分析这项研究探索了生成式人工智能智能体设计的一个令人着迷的新维度:融入人类价值观和偏好来指导它们的决策。该研究的受控环境允许进行系统分析,提供了关于这些因素如何塑造智能体在日常在线任务中的行为的宝贵见解,使它们更符合人类意图。这是迈向更个性化和值得信赖的AI体验的激动人心的一步!要点•用户偏好,作为“角色”注入,成功地影响了 LLM 驱动的智能体的决策。•当没有提供用户偏好或价值导向时,智能体表现出效率偏差,通常采取最短路径。•占主导地位的界面线索,如折扣,有时会覆盖基于偏好的行为,从而影响结果一致性。引用 / 来源查看原文"Our results show that preference and value-infused prompts consistently guided agents toward outcomes that reflected these preferences and values."AArXiv HCI2026年1月26日 05:00* 根据版权法第32条进行合法引用。较旧AI Detects Mental Stability from Voice: A Promising New Frontier较新AI Engineering in 2026: Mastering the Art of AI Collaboration相关分析researchReVEL:通过反思性进化LLM革新算法设计2026年4月8日 04:06researchPramana:通过古代Nyaya逻辑增强大语言模型的认知推理能力2026年4月8日 04:05researchTDA-RC:利用拓扑优化实现大语言模型的高效推理2026年4月8日 04:07来源: ArXiv HCI