检测孟加拉语中AI生成的文本:Transformer模型研究

发布:2025年12月25日 15:04
1分で読める
ArXiv

分析

本文探讨了检测AI生成文本这一重要问题,特别关注了较少受到关注的孟加拉语。该研究比较了零样本和微调的Transformer模型,展示了通过微调实现的显著改进。这些发现对于开发工具以对抗孟加拉语中AI生成内容的滥用具有重要价值。

引用

微调显著提高了性能,XLM-RoBERTa、mDeBERTa和MultilingualBERT在准确率和F1分数上都达到了约91%。