解耦视频生成:推进文本到视频扩散模型

Research#Video Gen🔬 Research|分析: 2026年1月10日 10:06
发布: 2025年12月18日 10:10
1分で読める
ArXiv

分析

这项研究通过分离场景构建和时间合成,探索了一种新的文本到视频生成方法,可能改善视频质量和一致性。这种解耦策略可能导致更高效和可控的视频创建过程。
引用 / 来源
查看原文
"Factorized Video Generation: Decoupling Scene Construction and Temporal Synthesis in Text-to-Video Diffusion Models"
A
ArXiv2025年12月18日 10:10
* 根据版权法第32条进行合法引用。