利用GPU加速时间依赖狄拉克方程,实现百亿亿次计算

Research#Physics🔬 Research|分析: 2026年1月10日 07:19
发布: 2025年12月25日 14:47
1分で読める
ArXiv

分析

这项研究专注于优化计算物理模拟,这对于理解基本的物理现象至关重要。 使用GPU求解狄拉克方程,突显了高性能计算在解决复杂科学问题方面的进步。
引用 / 来源
查看原文
"GaDE leverages GPU acceleration for the time-dependent Dirac equation."
A
ArXiv2025年12月25日 14:47
* 根据版权法第32条进行合法引用。