面向低资源语言的多语言希望言论检测框架

发布:2025年12月27日 21:23
1分で読める
ArXiv

分析

本文解决了NLP中希望言论的代表性不足问题,尤其是在乌尔都语等低资源语言中。它利用预训练的Transformer模型(XLM-RoBERTa、mBERT、EuroBERT、UrduBERT)创建了一个用于希望言论检测的多语言框架。 重点关注乌尔都语,并在PolyHope-M 2025基准测试中表现出色,以及在其他语言中取得的具有竞争力的结果,这表明了在资源受限的环境中应用现有多语言模型以促进积极的在线交流的潜力。

引用

在PolyHope-M 2025基准测试中的评估表明了强大的性能,乌尔都语二元分类的F1分数为95.2%,乌尔都语多类分类的F1分数为65.2%,在西班牙语、德语和英语中也取得了类似的竞争性结果。