ByteLoom: 幾何学的に整合性のある人間とオブジェクトのインタラクション動画の生成

Research Paper#Human-Object Interaction, Video Generation, Diffusion Models🔬 Research|分析: 2026年1月3日 16:20
公開: 2025年12月28日 09:38
1分で読める
ArXiv

分析

この論文は、デジタルヒューマンやロボティクスなどのアプリケーションにとって重要な、現実的な人間とオブジェクトのインタラクション(HOI)動画の生成における課題に取り組んでいます。主な貢献は、オブジェクトの幾何学的整合性を維持するためのRCMキャッシュメカニズムと、データ不足に対処し、詳細な手の注釈への依存を減らすためのプログレッシブカリキュラム学習アプローチです。幾何学的整合性と簡素化された人間の条件付けに焦点を当てることは、より実用的で堅牢なHOI動画生成に向けた重要な一歩です。
引用・出典
原文を見る
"The paper introduces ByteLoom, a Diffusion Transformer (DiT)-based framework that generates realistic HOI videos with geometrically consistent object illustration, using simplified human conditioning and 3D object inputs."
A
ArXiv2025年12月28日 09:38
* 著作権法第32条に基づく適法な引用です。