基于预测3D高斯分布随时间变化的视频跟踪Paper#Computer Vision🔬 Research|分析: 2026年1月3日 16:27•发布: 2025年12月27日 06:16•1分で読める•ArXiv分析本文提出了一种新颖的自监督方法Video-GMAE,用于视频表示学习。其核心思想是将视频表示为一组随时间移动的3D高斯散点。这种归纳偏置使得模型能够学习有意义的表示,并实现令人印象深刻的零样本跟踪性能。在Kinetics和Kubric数据集上的显著性能提升突出了所提出方法的有效性。要点•提出了Video-GMAE,一种用于视频表示学习的自监督方法。•将视频表示为移动的3D高斯散点。•实现了强大的零样本跟踪性能。•在Kinetics和Kubric数据集上显著提高了性能。•项目页面和代码已公开。引用 / 来源查看原文"Mapping the trajectory of the learnt Gaussians onto the image plane gives zero-shot tracking performance comparable to state-of-the-art."AArXiv2025年12月27日 06:16* 根据版权法第32条进行合法引用。较旧ManchuTTS: Towards High-Quality Manchu Speech Synthesis via Flow Matching and Hierarchical Text Representation较新Show HN: Hyperbrowser MCP Server – Connect AI agents to the web through browsers相关分析Paper基于选择策略的协调人形机器人操作2026年1月3日 06:10Paper从未对齐图像即时进行3D场景编辑2026年1月3日 06:10Paper用于未来预测的LLM预测2026年1月3日 06:10来源: ArXiv