CorGi:キャッシュによる拡散トランスフォーマーの高速化
分析
この論文は、視覚生成におけるDiffusion Transformer (DiT) の計算コストという大きなボトルネックに対処しています。CorGiという、Transformerブロックの出力をキャッシュして再利用するトレーニング不要な方法を導入することにより、著者は品質を損なうことなく推論を高速化する実用的な解決策を提供しています。冗長な計算に焦点を当て、貢献度に基づいたキャッシュを使用することが重要な革新です。
重要ポイント
参照
“CorGiとCorGi+は、高い生成品質を維持しながら、平均で最大2.0倍の高速化を実現します。”