通过Geo-Semantic场景图的上下文对象分类

Research Paper#Computer Vision, Object Recognition, Contextual Understanding, Graph Neural Networks🔬 Research|分析: 2026年1月3日 19:19
发布: 2025年12月28日 17:53
1分で読める
ArXiv

分析

本文通过强调上下文信息的重要性,解决了传统目标识别系统的局限性。它引入了一个新颖的框架,使用Geo-Semantic上下文图(GSCG)来表示场景,并使用基于图的分类器来利用这种上下文。结果表明,与上下文无关的模型、微调的ResNet模型,甚至是最先进的多模态LLM相比,目标分类的准确性都得到了显著提高。GSCG方法的可解释性也是一个关键优势。
引用 / 来源
查看原文
"The context-aware model achieves a classification accuracy of 73.4%, dramatically outperforming context-agnostic versions (as low as 38.4%)."
A
ArXiv2025年12月28日 17:53
* 根据版权法第32条进行合法引用。