基于LLM的多智能体系统中的代码注入攻击

Research Paper#AI Security, LLMs, Multi-Agent Systems, Code Injection🔬 Research|分析: 2026年1月3日 16:38
发布: 2025年12月26日 01:08
1分で読める
ArXiv

分析

本文重点介绍了基于LLM的多智能体系统中的一个关键安全漏洞,即代码注入攻击。由于这些系统在软件开发中变得越来越普遍,这项研究揭示了它们对恶意代码的易感性,因此非常重要。本文的发现对安全AI驱动系统的设计和部署具有重大意义。
引用 / 来源
查看原文
"Embedding poisonous few-shot examples in the injected code can increase the attack success rate from 0% to 71.95%."
A
ArXiv2025年12月26日 01:08
* 根据版权法第32条进行合法引用。