小规模 LLM 在 In-Context 学习中难以进行标签翻转

Research#LLMs🔬 Research|分析: 2026年1月10日 14:16
发布: 2025年11月26日 04:14
1分で読める
ArXiv

分析

这篇 ArXiv 论文研究了小规模语言模型在 In-Context 学习场景中的局限性。这项研究强调了一个挑战,即当上下文中的标签发生变化时,这些模型无法有效地适应。
引用 / 来源
查看原文
"The paper likely investigates the performance of small LLMs in a context where the expected output label needs to be dynamically adjusted based on the given context."
A
ArXiv2025年11月26日 04:14
* 根据版权法第32条进行合法引用。