通过风格解耦和模态对齐实现个性化语音驱动的3D说话头动画

Paper#Computer Vision, Speech Synthesis, 3D Animation🔬 Research|分析: 2026年1月3日 19:52
发布: 2025年12月27日 14:14
1分で読める
ArXiv

分析

本文解决了现有语音驱动3D说话头生成方法的局限性,重点关注个性化和真实感。它引入了一个名为PTalker的新框架,该框架将说话风格与音频和面部动作分离,并提高了唇同步精度。关键贡献是能够生成逼真的、特定于身份的说话风格,这是该领域的一项重大进步。
引用 / 来源
查看原文
"PTalker effectively generates realistic, stylized 3D talking heads that accurately match identity-specific speaking styles, outperforming state-of-the-art methods."
A
ArXiv2025年12月27日 14:14
* 根据版权法第32条进行合法引用。