用于LLM下一令牌预测的保形预测

发布:2025年12月27日 19:08
1分で読める
ArXiv

分析

本文解决了大型语言模型(LLM)中不确定性量化的关键需求,特别是在高风险应用中。它强调了标准softmax概率的局限性,并提出了一种新方法,即Vocabulary-Aware Conformal Prediction (VACP),以提高预测集的有效性,同时保持覆盖保证。其核心贡献在于平衡覆盖精度和预测集效率,这是实际部署的关键方面。本文侧重于一个实际问题,并展示了在集合大小方面的显著改进,使其具有价值。

引用

VACP实现了89.7%的经验覆盖率(目标90%),同时将平均预测集大小从847个token减少到4.3个token——效率提高了197倍。