BertsWin:トポロジーを維持した3D医用画像解析の高速化

Paper#Medical Imaging, Deep Learning, Transformers🔬 Research|分析: 2026年1月4日 00:08
公開: 2025年12月25日 19:32
1分で読める
ArXiv

分析

本論文は、自己教師あり学習(SSL)とVision Transformers(ViTs)を3D医用画像に適用する際の課題、特にMasked Autoencoders(MAEs)が3D空間関係を捉えることの限界に焦点を当てています。著者は、BERTスタイルのトークンマスキングとSwin Transformerウィンドウを組み合わせ、空間コンテキスト学習を改善するハイブリッドアーキテクチャBertsWinを提案しています。主な革新は、完全な3Dトークングリッドを維持し、空間トポロジーを保持し、構造優先度損失関数を使用することです。本論文は、標準的なViT-MAEベースラインと比較して、収束速度とトレーニング効率の大幅な改善を示しており、計算上のペナルティも発生していません。これは、3D医用画像解析の分野への重要な貢献です。
引用・出典
原文を見る
"BertsWin achieves a 5.8x acceleration in semantic convergence and a 15-fold reduction in training epochs compared to standard ViT-MAE baselines."
A
ArXiv2025年12月25日 19:32
* 著作権法第32条に基づく適法な引用です。