低リソース言語における希望発話検出のための多言語フレームワーク

公開:2025年12月27日 21:23
1分で読める
ArXiv

分析

この論文は、NLPにおける希望発話の過小評価、特にウルドゥー語のような低リソース言語における問題を扱っています。事前学習済みのTransformerモデル(XLM-RoBERTa、mBERT、EuroBERT、UrduBERT)を活用して、希望発話検出のための多言語フレームワークを作成しています。ウルドゥー語に焦点を当て、PolyHope-M 2025ベンチマークで高いパフォーマンスを示し、他の言語でも競争力のある結果を達成していることから、既存の多言語モデルをリソース制約のある環境に適用し、肯定的なオンラインコミュニケーションを促進する可能性を示しています。

参照

PolyHope-M 2025ベンチマークでの評価では、ウルドゥー語のバイナリ分類で95.2%、ウルドゥー語のマルチクラス分類で65.2%のF1スコアを達成し、スペイン語、ドイツ語、英語でも同様に競争力のある結果を示しています。