用于高效文档表示的 Skim-Aware 对比学习

发布:2025年12月30日 17:33
1分で読める
ArXiv

分析

本文解决了长文档表示的挑战,这是法律和医学等领域中的常见问题,标准Transformer模型难以处理。它提出了一种新的自监督对比学习框架,灵感来自人类的略读行为。该方法的优势在于其效率以及通过关注重要部分并使用基于NLI的对比目标对齐它们来捕获文档级上下文的能力。结果表明在准确性和效率方面都有所提高,这使其成为对长文档表示的宝贵贡献。

引用

我们的方法随机屏蔽文档的一部分,并使用基于自然语言推理 (NLI) 的对比目标将其与相关部分对齐,同时将其与不相关的部分区分开来。