ProGuard: 能動的AI安全

Paper#AI Safety, Multimodal Learning, Reinforcement Learning🔬 Research|分析: 2026年1月3日 18:39
公開: 2025年12月29日 16:13
1分で読める
ArXiv

分析

この論文は、生成モデルにおけるマルチモーダルな安全リスクを能動的に特定し記述するための新しいアプローチであるProGuardを紹介しています。従来の反応的な安全対策の限界に対処するため、強化学習と特別に設計されたデータセットを使用して、外れ値(OOD)の安全問題を検出します。能動的なモデレーションとOODリスク検出に焦点を当てていることは、AI安全の分野への重要な貢献です。
引用・出典
原文を見る
"ProGuard delivers a strong proactive moderation ability, improving OOD risk detection by 52.6% and OOD risk description by 64.8%."
A
ArXiv2025年12月29日 16:13
* 著作権法第32条に基づく適法な引用です。