プロンプト・コレオグラフィーによる言語モデルワークフローの高速化

Paper#llm🔬 Research|分析: 2026年1月3日 19:17
公開: 2025年12月28日 19:21
1分で読める
ArXiv

分析

本論文は、大規模言語モデル(LLM)を利用したマルチエージェントワークフローを高速化するフレームワーク、Prompt Choreographyを紹介しています。中核的な革新は、エンコードされたメッセージを保存し再利用するための動的グローバルKVキャッシュの使用にあります。これにより、LLM呼び出しが以前のメッセージの並べ替えられたサブセットにアクセスできるようになり、並列呼び出しもサポートされます。本論文は、キャッシュによって生じる結果の不一致という潜在的な問題に対処し、これらの差異を軽減するためにLLMを微調整することを提案しています。主な意義は、LLMベースのワークフロー、特に冗長な計算を含むワークフローにおいて、大幅な高速化の可能性を示唆している点です。
引用・出典
原文を見る
"Prompt Choreography significantly reduces per-message latency (2.0--6.2$ imes$ faster time-to-first-token) and achieves substantial end-to-end speedups ($>$2.2$ imes$) in some workflows dominated by redundant computation."
A
ArXiv2025年12月28日 19:21
* 著作権法第32条に基づく適法な引用です。