基于姿态引导的残差细化,用于可解释的文本到动作生成和编辑
Research Paper#Motion Generation, AI, Deep Learning🔬 Research|分析: 2026年1月3日 16:28•
发布: 2025年12月27日 04:45
•1分で読める
•ArXiv分析
本文通过引入结合可解释姿态码和残差码的混合表示,解决了现有文本到动作生成方法的局限性,特别是基于姿态码的方法。这种方法旨在提高生成动作的保真度和可控性,使其更容易根据文本描述进行编辑和细化。残差向量量化和残差dropout的使用是实现这一目标的关键创新。
要点
引用 / 来源
查看原文"PGR$^2$M improves Fréchet inception distance and reconstruction metrics for both generation and editing compared with CoMo and recent diffusion- and tokenization-based baselines, while user studies confirm that it enables intuitive, structure-preserving motion edits."