再帰的言語モデルによる長文コンテキスト処理

公開:2025年12月31日 03:43
1分で読める
ArXiv

分析

この論文は、長文プロンプトを処理するLLMの限界を克服するための新しい推論戦略として、再帰的言語モデル(RLM)を紹介しています。その核心は、LLMが長い入力を再帰的に処理し、分解できるようにすることで、コンテキストウィンドウを効果的に拡張することです。その重要性は、より大きなモデルや大幅なコスト増なしに、長文コンテキストタスクのパフォーマンスを劇的に向上させる可能性にあります。結果は、ベースLLMおよび既存の長文コンテキスト手法を大幅に上回る改善を示しています。

参照

RLMは、モデルのコンテキストウィンドウの2桁以上先の入力を処理することに成功し、短いプロンプトに対しても、ベースLLMおよび一般的な長文コンテキスト足場よりも劇的に優れた品質を発揮します。