在多轮对话中诱导行为

Research Paper#Large Language Models (LLMs), Conversational AI, Behavior Elicitation, Evaluation🔬 Research|分析: 2026年1月3日 17:00
发布: 2025年12月29日 18:57
1分で読める
ArXiv

分析

本文解决了在多轮对话环境中评估大型语言模型(LLM)的关键问题。它将现有的行为诱导技术(主要为单轮场景设计)扩展到更复杂的多轮语境。本文的贡献在于其用于分类诱导方法的分析框架、引入在线方法的广义多轮公式,以及对这些方法在生成多轮测试用例上的实证评估。研究结果突出了在线方法在发现行为诱导输入方面的有效性,尤其与静态方法相比,并强调了在LLM评估中需要动态基准。
引用 / 来源
查看原文
"Online methods can achieve an average success rate of 45/19/77% with just a few thousand queries over three tasks where static methods from existing multi-turn conversation benchmarks find few or even no failure cases."
A
ArXiv2025年12月29日 18:57
* 根据版权法第32条进行合法引用。