LLMの継続学習:LoRAを用いた忘却前のマージ

公開:2025年12月28日 17:37
1分で読める
ArXiv

分析

この論文は、継続学習環境における大規模言語モデル(LLM)におけるカタストロフィック・フォーゲッティングの問題に対処しています。Low-Rank Adaptation(LoRA)モジュールを単一の統合LoRAに順次マージする新しい方法を提案し、メモリ効率の向上とタスク干渉の削減を目指しています。中核的な革新は、直交初期化と、LoRAのマージのための時間認識スケーリングメカニズムにあります。このアプローチは、既存のLoRAベースの継続学習方法の増大する計算とメモリの要求に対処するため、特に重要です。

参照

この方法は、以前に学習したLoRAから直交基底抽出を利用して新しいタスクの学習を初期化し、継続的なマージ中に新しい知識と古い知識のバランスをとるために、時間認識スケーリングメカニズムを使用してLoRAコンポーネントの固有の非対称性をさらに利用します。