帰納的テキスト分類のための新しいグラフ系列学習モデル

Research#llm🔬 Research|分析: 2025年12月25日 02:19
公開: 2025年12月24日 05:00
1分で読める
ArXiv NLP

分析

この論文では、帰納的テキスト分類を改善するために設計された新しいグラフ系列学習モデルであるTextGSLを紹介しています。このモデルは、単語ペア間の多様な構造情報(共起、構文、セマンティクス)を組み込み、Transformerレイヤーを使用してシーケンス情報を統合することにより、既存のGNNベースのアプローチの制限に対処します。複数のエッジタイプを持つテキストレベルのグラフを構築し、適応型メッセージパッシングパラダイムを採用することにより、TextGSLはより識別力のあるテキスト表現を学習することを目指しています。このアプローチにより、以前の方法と比較して、新しい単語や関係をより適切に処理できると主張されています。この論文では、強力なベースラインとの包括的な比較について言及しており、モデルの有効性の経験的検証を示唆しています。帰納的学習に焦点を当てることは、見えないデータへの一般化の課題に対処するため、重要です。
引用・出典
原文を見る
"we propose a Novel Graph-Sequence Learning Model for Inductive Text Classification (TextGSL) to address the previously mentioned issues."
A
ArXiv NLP2025年12月24日 05:00
* 著作権法第32条に基づく適法な引用です。