基于LLM的针对安卓恶意软件检测器的特征级对抗攻击Research#adversarial attacks🔬 Research|分析: 2026年1月10日 07:31•发布: 2025年12月24日 19:56•1分で読める•ArXiv分析这项研究探讨了安卓恶意软件检测器对大型语言模型(LLM)生成的对抗性攻击的脆弱性。 这项研究强调了一个令人担忧的趋势,即利用复杂的 AI 模型来破坏现有系统的安全性。要点•LLM 可用于制作规避安卓恶意软件检测器的对抗样本。•攻击在特征级别运行,可能使它们更微妙且更难检测。•这项研究突出了移动安全领域的一种新的威胁向量。引用 / 来源查看原文"The research focuses on LLM-driven feature-level adversarial attacks."AArXiv2025年12月24日 19:56* 根据版权法第32条进行合法引用。较旧AI and Galaxy Evolution: A Comparison of AGN Hosts in Simulations较新AI Predicts Maps for Fast Navigation in Obstructed Environments相关分析Research人类AI检测2026年1月4日 05:47Research侧重于实现的深度学习书籍2026年1月4日 05:49Research个性化 Gemini2026年1月4日 05:49来源: ArXiv