EgoReAct:从以自我为中心的视频生成3D人类反应

Research Paper#Computer Vision, Human Pose Estimation, Reaction Generation🔬 Research|分析: 2026年1月3日 16:20
发布: 2025年12月28日 06:44
1分で読める
ArXiv

分析

本文解决了从以自我为中心的视频生成逼真的3D人类反应的挑战,这个问题对VR/AR和人机交互等领域具有重要意义。 创建一个新的、空间对齐的数据集(HRD)是一项关键贡献,因为现有数据集存在未对齐的问题。 提出的 EgoReAct 框架利用 Vector Quantised-Variational AutoEncoder 和 Generative Pre-trained Transformer,为这个问题提供了一种新颖的方法。 结合 3D 动态特征,如度量深度和头部动态,是增强空间定位和真实感的一项关键创新。 声称在保持因果关系的同时,提高了真实感、空间一致性和生成效率,这表明该领域取得了重大进展。
引用 / 来源
查看原文
"EgoReAct achieves remarkably higher realism, spatial consistency, and generation efficiency compared with prior methods, while maintaining strict causality during generation."
A
ArXiv2025年12月28日 06:44
* 根据版权法第32条进行合法引用。