审计技能图自改进:面向智能体LLMPaper#llm🔬 Research|分析: 2026年1月3日 16:16•发布: 2025年12月28日 19:39•1分で読める•ArXiv分析本文解决了自改进智能体LLM中的关键安全和治理挑战。它提出了一个框架ASG-SI,重点在于创建可审计和可验证的改进。核心思想是将自改进视为将智能体编译成不断增长的技能图的过程,确保每次改进都从成功的轨迹中提取,规范化为具有清晰接口的技能,并通过验证器支持的检查进行验证。这种方法旨在缓解奖励黑客和行为漂移等问题,使自改进过程更加透明和可管理。经验合成和持续内存控制的集成进一步增强了框架的可扩展性和长期性能。要点•提出了面向智能体LLM的审计技能图自改进(ASG-SI)。•侧重于创建可审计和可验证的改进。•将自改进视为将智能体迭代编译成技能图的过程。•集成了经验合成和持续内存控制。•旨在解决自改进智能体中的安全和治理挑战。引用 / 来源查看原文"ASG-SI reframes agentic self-improvement as accumulation of verifiable, reusable capabilities, offering a practical path toward reproducible evaluation and operational governance of self-improving AI agents."AArXiv2025年12月28日 19:39* 根据版权法第32条进行合法引用。较旧OpenAI for Countries较新OpenAI disbands its robotics research team相关分析Paper基于选择策略的协调人形机器人操作2026年1月3日 06:10Paper从未对齐图像即时进行3D场景编辑2026年1月3日 06:10Paper用于未来预测的LLM预测2026年1月3日 06:10来源: ArXiv