低遅延のリアルタイム双方向トーキングヘッド生成
Research Paper#Computer Vision, Generative Models, Talking Heads🔬 Research|分析: 2026年1月3日 09:30•
公開: 2025年12月30日 18:43
•1分で読める
•ArXiv分析
この論文は、現実的なリスナーフィードバックに不可欠な、現実的な双方向トーキングヘッドビデオ生成における重要な遅延の問題に対処しています。著者は、話者と聞き手の両方の音声からリアルタイムでビデオを生成するために設計された、フローマッチングベースの自己回帰モデルであるDyStreamを提案しています。主な革新は、ストリームフレンドリーな自己回帰フレームワークと、品質と遅延のバランスを取るためのルックアヘッドモジュールを備えた因果エンコーダーにあります。この論文の重要性は、より自然でインタラクティブな仮想コミュニケーションを可能にする可能性にあります。
重要ポイント
引用・出典
原文を見る"DyStream could generate video within 34 ms per frame, guaranteeing the entire system latency remains under 100 ms. Besides, it achieves state-of-the-art lip-sync quality, with offline and online LipSync Confidence scores of 8.13 and 7.61 on HDTF, respectively."