Gap-K%: 一种检测大型语言模型预训练数据的新方法research#llm🔬 Research|分析: 2026年1月29日 05:02•发布: 2026年1月29日 05:00•1分で読める•ArXiv ML分析这项研究提出了一种开创性的方法 Gap-K%,用于识别生成式人工智能大型语言模型 (LLM) 中使用的预训练数据。这种创新方法利用了模型的前 1 预测与目标标记之间的对数概率差距,从而在数据检测方面实现了最先进的性能。要点•Gap-K% 侧重于前 1 预测和目标标记之间的差异。•它利用滑动窗口策略来捕捉局部相关性。•该方法在基准数据集上实现了最先进的性能。引用 / 来源查看原文"在这项工作中,我们提出了 Gap-K%,一种基于 LLM 预训练的优化动态的新型预训练数据检测方法。"AArXiv ML2026年1月29日 05:00* 根据版权法第32条进行合法引用。较旧Revolutionizing LLM-Driven Control: Counterfactual Reasoning Unveiled较新Decentralized Federated Learning Revolutionizes Computer Vision with Enhanced Efficiency相关分析research革新AI评估:为多轮智能体模拟真实用户2026年4月2日 18:00research麻省理工学院研究:人工智能对就业的影响将是上升的浪潮,而非崩溃的巨浪!2026年4月2日 18:00research在“无GPU”笔记本电脑上使用 LLM 构建本地 AI 智能体2026年4月2日 08:15来源: ArXiv ML