LLMはコンピューティング教育におけるAI生成テキストの検出に苦戦

公開:2025年12月29日 16:35
1分で読める
ArXiv

分析

この論文は、現在のLLMがAI生成コンテンツの検出、特に学術的誠実性のようなデリケートな分野において信頼できないことを強調しているため重要です。この調査結果は、教育者がこれらのモデルを盗作やその他の学術的不正行為の特定に自信を持って頼ることができないことを示唆しています。なぜなら、これらのモデルは、誤検知(人間の作品をフラグ付けする)と誤不検出(AI生成テキストの検出に失敗する、特に検出を回避するように促された場合)の両方に陥りやすいからです。これは、教育現場でのLLMの使用に大きな影響を与え、より堅牢な検出方法の必要性を強調しています。

参照

モデルは、人間が書いた作品を正しく分類することに苦労しました(エラー率は最大32%)。