DivQAT:增强量化卷积神经网络对模型提取攻击的鲁棒性
分析
本文解决了量化卷积神经网络(CNN)容易受到模型提取攻击的脆弱性问题,这对知识产权保护至关重要。它引入了 DivQAT,一种将防御机制直接集成到量化过程中的新颖训练算法。这是一项重大贡献,因为它超越了后训练防御,后者通常计算成本高昂且效果较差,尤其是在资源受限的设备上。本文关注量化模型也很重要,因为它们越来越多地用于边缘设备,而安全是首要任务。当与其他防御机制结合使用时,声称可以提高有效性,这进一步增强了本文的影响力。
要点
引用
“本文的核心贡献是“DivQAT,一种基于量化感知训练(QAT)的训练量化CNN的新算法,旨在增强其对提取攻击的鲁棒性。””