YOLO-Master:リアルタイム物体検出のための適応型計算

Paper#Computer Vision🔬 Research|分析: 2026年1月3日 16:09
公開: 2025年12月29日 07:54
1分で読める
ArXiv

分析

この論文は、シーンの複雑さに応じて計算リソースを動的に割り当てることで、リアルタイム物体検出を改善する新しいYOLOライクフレームワーク、YOLO-Masterを紹介しています。 Efficient Sparse Mixture-of-Experts (ES-MoE)ブロックと動的ルーティングネットワークの使用により、特に困難なシーンでのより効率的な処理が可能になり、リアルタイムのパフォーマンスを維持します。結果は、既存のYOLOベースのモデルと比較して、精度と速度が向上していることを示しています。
引用・出典
原文を見る
"YOLO-Master achieves 42.4% AP with 1.62ms latency, outperforming YOLOv13-N by +0.8% mAP and 17.8% faster inference."
A
ArXiv2025年12月29日 07:54
* 著作権法第32条に基づく適法な引用です。