LLM的持续学习:使用LoRA的合并先于遗忘
分析
本文解决了大型语言模型 (LLM) 在持续学习环境中灾难性遗忘的挑战。它提出了一种新方法,将低秩自适应 (LoRA) 模块顺序合并到单个统一的 LoRA 中,旨在提高内存效率并减少任务干扰。核心创新在于正交初始化和用于合并 LoRA 的时间感知缩放机制。这种方法特别重要,因为它解决了现有基于 LoRA 的持续学习方法日益增长的计算和内存需求。
引用
“该方法利用从先前学习的 LoRA 中提取正交基来初始化新任务的学习,并通过使用时间感知缩放机制来平衡持续合并期间的新旧知识,进一步利用 LoRA 组件的内在不对称性。”