对数据损坏具有鲁棒性的稀疏离线强化学习

Research Paper#Reinforcement Learning, Offline RL, Robustness, Sparsity🔬 Research|分析: 2026年1月3日 17:07
发布: 2025年12月31日 10:28
1分で読める
ArXiv

分析

本文探讨了在高维、稀疏马尔可夫决策过程 (MDP) 中,离线强化学习在数据容易受到损坏时的鲁棒性问题。它强调了现有方法(如 LSVI)在结合稀疏性时的局限性,并提出了具有稀疏鲁棒估计器的 actor-critic 方法。主要贡献在于在这种具有挑战性的设置中提供了第一个非平凡的保证,证明了即使在数据损坏和特定覆盖假设下,学习接近最优策略仍然是可能的。
引用 / 来源
查看原文
"The paper provides the first non-vacuous guarantees in high-dimensional sparse MDPs with single-policy concentrability coverage and corruption, showing that learning a near-optimal policy remains possible in regimes where traditional robust offline RL techniques may fail."
A
ArXiv2025年12月31日 10:28
* 根据版权法第32条进行合法引用。