关于基于文本的可解释推荐模型的真实一致性

Research Paper#Explainable Recommendation, LLMs, Factuality, Evaluation🔬 Research|分析: 2026年1月3日 15:36
发布: 2025年12月30日 17:25
1分で読める
ArXiv

分析

本文探讨了可解释推荐系统中的一个关键问题:生成解释的真实一致性。它强调了通过LLM实现的解释流畅性与其事实准确性之间的巨大差距。作者引入了一个新的框架来评估事实性,包括一个用于创建ground truth的基于提示的管道和语句级别的对齐指标。研究结果表明,尽管当前模型实现了高语义相似度,但在事实一致性方面却表现不佳,这强调了需要进行事实感知评估和开发更值得信赖的系统。
引用 / 来源
查看原文
"While models achieve high semantic similarity scores (BERTScore F1: 0.81-0.90), all our factuality metrics reveal alarmingly low performance (LLM-based statement-level precision: 4.38%-32.88%)."
A
ArXiv2025年12月30日 17:25
* 根据版权法第32条进行合法引用。