CorGi:通过缓存加速扩散Transformer

发布:2025年12月30日 12:55
1分で読める
ArXiv

分析

本文解决了视觉生成中扩散Transformer (DiT) 的计算成本问题,这是一个重要的瓶颈。通过引入 CorGi,一种无需训练的方法,缓存和重用Transformer块的输出,作者提供了一种实用的解决方案,可以在不牺牲质量的情况下加速推理。 关注冗余计算和使用贡献引导的缓存是关键的创新。

引用

CorGi 和 CorGi+ 平均实现了高达 2.0 倍的加速,同时保持了高质量的生成。