基于提示的LLM拒绝服务攻击:黑盒基准测试

发布:2025年12月29日 13:42
1分で読める
ArXiv

分析

本文介绍了一种新的基准测试,用于评估针对大型语言模型(LLM)的基于提示的拒绝服务(DoS)攻击。它解决了LLM的一个关键漏洞——过度生成——这可能导致延迟增加、成本上升,并最终导致DoS情况。这项研究意义重大,因为它提供了一个黑盒、仅查询的评估框架,使其更贴近现实世界,并适用于实际攻击场景。两种不同攻击策略(进化型过度生成提示搜索和强化学习)的比较,为不同攻击方法的有效性提供了宝贵的见解。Over-Generation Factor (OGF) 等指标的引入,提供了一种量化这些攻击影响的标准化方法。

引用

RL-GOAL攻击者在所有受害者中实现了更高的平均OGF(高达2.81 +/- 1.38),证明了其有效性。