基于提示的LLM拒绝服务攻击:黑盒基准测试

Research Paper#AI Security, LLMs, DoS Attacks🔬 Research|分析: 2026年1月3日 18:47
发布: 2025年12月29日 13:42
1分で読める
ArXiv

分析

本文介绍了一种新的基准测试,用于评估针对大型语言模型(LLM)的基于提示的拒绝服务(DoS)攻击。它解决了LLM的一个关键漏洞——过度生成——这可能导致延迟增加、成本上升,并最终导致DoS情况。这项研究意义重大,因为它提供了一个黑盒、仅查询的评估框架,使其更贴近现实世界,并适用于实际攻击场景。两种不同攻击策略(进化型过度生成提示搜索和强化学习)的比较,为不同攻击方法的有效性提供了宝贵的见解。Over-Generation Factor (OGF) 等指标的引入,提供了一种量化这些攻击影响的标准化方法。
引用 / 来源
查看原文
"The RL-GOAL attacker achieves higher mean OGF (up to 2.81 +/- 1.38) across victims, demonstrating its effectiveness."
A
ArXiv2025年12月29日 13:42
* 根据版权法第32条进行合法引用。