面向低资源语言的多语言希望言论检测框架

Paper#NLP, Hope Speech Detection, Multilingual, Low-Resource Languages, Transformers🔬 Research|分析: 2026年1月3日 16:22
发布: 2025年12月27日 21:23
1分で読める
ArXiv

分析

本文解决了NLP中希望言论的代表性不足问题,尤其是在乌尔都语等低资源语言中。它利用预训练的Transformer模型(XLM-RoBERTa、mBERT、EuroBERT、UrduBERT)创建了一个用于希望言论检测的多语言框架。 重点关注乌尔都语,并在PolyHope-M 2025基准测试中表现出色,以及在其他语言中取得的具有竞争力的结果,这表明了在资源受限的环境中应用现有多语言模型以促进积极的在线交流的潜力。
引用 / 来源
查看原文
"Evaluations on the PolyHope-M 2025 benchmark demonstrate strong performance, achieving F1-scores of 95.2% for Urdu binary classification and 65.2% for Urdu multi-class classification, with similarly competitive results in Spanish, German, and English."
A
ArXiv2025年12月27日 21:23
* 根据版权法第32条进行合法引用。