用于视觉语言模型少样本自适应的辅助描述性知识

Research#llm🔬 Research|分析: 2026年1月4日 10:31
发布: 2025年12月19日 07:52
1分で読める
ArXiv

分析

这篇文章可能讨论了一篇关于在少样本学习场景中提高视觉语言模型(VLM)性能的研究论文。核心思想似乎是利用额外的描述性知识来帮助模型在有限的训练数据下进行适应。重点是如何有效地整合和利用这种辅助知识。

要点

    引用 / 来源
    查看原文
    "Auxiliary Descriptive Knowledge for Few-Shot Adaptation of Vision-Language Model"
    A
    ArXiv2025年12月19日 07:52
    * 根据版权法第32条进行合法引用。