使用对抗样本攻击机器学习

Security#Machine Learning Vulnerabilities🏛️ Official|分析: 2026年1月3日 18:07
发布: 2017年2月24日 08:00
1分で読める
OpenAI News

分析

这篇文章介绍了对抗样本,强调了它们作为故意设计的输入,旨在误导机器学习模型的性质。它承诺解释这些样本在各种平台上的运作方式,以及保护系统免受它们侵害的挑战。重点是机器学习模型对精心设计的输入的脆弱性。
引用 / 来源
查看原文
"Adversarial examples are inputs to machine learning models that an attacker has intentionally designed to cause the model to make a mistake; they’re like optical illusions for machines."
O
OpenAI News2017年2月24日 08:00
* 根据版权法第32条进行合法引用。