高效扩散 Transformer:可训练的对数线性稀疏注意力

Research#Diffusion🔬 Research|分析: 2026年1月10日 10:01
发布: 2025年12月18日 14:53
1分で読める
ArXiv

分析

这篇 ArXiv 论文很可能通过采用对数线性稀疏注意力机制来探索优化扩散模型的新技术。该研究旨在提高扩散 Transformer 的效率,从而可能实现更快的训练和推理。
引用 / 来源
查看原文
"The paper focuses on Trainable Log-linear Sparse Attention."
A
ArXiv2025年12月18日 14:53
* 根据版权法第32条进行合法引用。