可验证的Dropout:确保AI训练的完整性

发布:2025年12月27日 09:14
1分で読める
ArXiv

分析

本文解决了基于云的AI训练中的一个关键漏洞:潜在的恶意操作隐藏在随机操作(如dropout)固有的随机性中。通过引入可验证的Dropout,作者提出了一种使用零知识证明的隐私保护机制,以确保这些操作的完整性。这非常重要,因为它允许对训练步骤进行事后审计,防止攻击者利用深度学习的非确定性进行恶意目的,同时保持数据的机密性。本文的贡献在于为AI训练中一个真实的安全性问题提供了解决方案。

引用

我们的方法将dropout掩码绑定到一个确定性的、可加密验证的种子,并证明dropout操作的正确执行。