使用对抗样本攻击机器学习

发布:2017年2月24日 08:00
1分で読める
OpenAI News

分析

这篇文章介绍了对抗样本,强调了它们作为故意设计的输入,旨在误导机器学习模型的性质。它承诺解释这些样本在各种平台上的运作方式,以及保护系统免受它们侵害的挑战。重点是机器学习模型对精心设计的输入的脆弱性。

引用

对抗样本是攻击者故意设计用来导致模型犯错的机器学习模型的输入;它们就像机器的视觉错觉。