预测语言模型微调的数据效率

Paper#llm🔬 Research|分析: 2026年1月3日 06:16
发布: 2025年12月31日 17:37
1分で読める
ArXiv

分析

本文解决了确定需要多少数据才能有效微调大型语言模型(LLM)的实际问题。这很重要,因为微调通常是实现特定任务良好性能所必需的,但所需的数据量(数据效率)差异很大。本文提出了一种在没有昂贵的增量注释和重新训练过程的情况下预测数据效率的方法,从而可能节省大量资源。
引用 / 来源
查看原文
"The paper proposes using the gradient cosine similarity of low-confidence examples to predict data efficiency based on a small number of labeled samples."
A
ArXiv2025年12月31日 17:37
* 根据版权法第32条进行合法引用。