Paper#llm🔬 Research分析: 2026年1月3日 06:16

预测语言模型微调的数据效率

发布:2025年12月31日 17:37
1分で読める
ArXiv

分析

本文解决了确定需要多少数据才能有效微调大型语言模型(LLM)的实际问题。这很重要,因为微调通常是实现特定任务良好性能所必需的,但所需的数据量(数据效率)差异很大。本文提出了一种在没有昂贵的增量注释和重新训练过程的情况下预测数据效率的方法,从而可能节省大量资源。

引用

本文提出使用低置信度样本的梯度余弦相似度,基于少量标记样本来预测数据效率。