M$^3$KG-RAG:多跳多模态知识图谱增强检索增强生成

Research#llm🔬 Research|分析: 2025年12月25日 02:34
发布: 2025年12月24日 05:00
1分で読める
ArXiv NLP

分析

本文介绍了一种新的检索增强生成(RAG)方法 M$^3$KG-RAG,该方法利用多跳多模态知识图谱(MMKG)来增强多模态大型语言模型(MLLM)的推理和基础能力。 主要创新包括用于构建多跳 MMKG 的多代理管道和用于精确实体基础和冗余上下文修剪的 GRASP(Grounded Retrieval And Selective Pruning)机制。 本文解决了现有多模态 RAG 系统的局限性,特别是在模态覆盖、多跳连接和不相关知识的过滤方面。 实验结果表明,MLLM 在各种多模态基准测试中的性能显着提高,表明所提出的方法在增强多模态推理和基础方面是有效的。
引用 / 来源
查看原文
"To address these limitations, we propose M$^3$KG-RAG, a Multi-hop Multimodal Knowledge Graph-enhanced RAG that retrieves query-aligned audio-visual knowledge from MMKGs, improving reasoning depth and answer faithfulness in MLLMs."
A
ArXiv NLP2025年12月24日 05:00
* 根据版权法第32条进行合法引用。