<?xml version="1.0" encoding="UTF-8"?><?xml-stylesheet href="/scripts/pretty-feed-v3.xsl" type="text/xsl"?><rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:h="http://www.w3.org/TR/html4/"><channel><title>VapourX</title><description>人机合一，化具象为抽象</description><link>https://vapour-x.cn</link><item><title>π0.6！最新的具身风向标，And what is next?</title><link>https://vapour-x.cn/blog/day18/day18-blog</link><guid isPermaLink="true">https://vapour-x.cn/blog/day18/day18-blog</guid><description>每一次PI发布新的report，都昭示着一个新的具身领域的风向标，本文将会带大家一起解读最新的风向标究竟是什么。</description><pubDate>Wed, 19 Nov 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;引言&lt;/h2&gt;
&lt;p&gt;今天π*0.6的technical report发布了，从π0开始，Physical Intelligence的每次发布都带给了这个社区新的惊喜和惊吓，而每一次的发布也将会引领这一阶段具身的主流发展路线，本次将会解读π*0.6模型中的技术细节以及与之相关的几篇近期工作。&lt;/p&gt;
&lt;h2&gt;What about π0.6?&lt;/h2&gt;
&lt;p&gt;π0.6模型是基于π0.5模型的更新，它能够更加流畅地表征action chunk分布，并且能够产生中间步骤的文本和高层推理，这得益于训练过程中使用到了Knowledge Insulation的方式，达成了离散和连续的动作token都可以被端到端表达，同时使用梯度截断来实现对flow matching模型对模型剩余部分的影响。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/pi06.png&quot; alt=&quot;pi06 model structure&quot;&gt;&lt;/p&gt;
&lt;p&gt;在训练数据上，π0.6使用了多机器人的数据，基础的VLM模型换为了Gemma3-4B，并且扩增了action expert的体量。&lt;/p&gt;
&lt;p&gt;所以对于π0.6而言，模型的形式化表达就变成了：&lt;/p&gt;
&lt;p&gt;$$
\pi_\theta(a_{t:t+H}^c, a_{t:t+H}^d, \hat{l} \vert o_t, l)
$$&lt;/p&gt;
&lt;p&gt;同时我们注意到，在构建的过程中，实际上左边的action token是分为离散和连续两类的，输出的三项理论上来说互相独立，所以在建模最大似然估计的时候也可以进行分离。&lt;/p&gt;
&lt;p&gt;$$
\log \pi_\theta(a_{t:t+H}^c, a_{t:t+H}^d, \hat{l} \vert o_t, l) = \log \pi_\theta(\hat{l} \vert o_t, l) + \log \pi_\theta(a_{t:t+H}^c \vert o_t, l) + \log \pi_\theta(a_{t:t+H}^d \vert o_t, l)
$$&lt;/p&gt;
&lt;h2&gt;What about π*0.6?&lt;/h2&gt;
&lt;h3&gt;Overview&lt;/h3&gt;
&lt;p&gt;整体来说，π06定义了RECAP的模型训练范式，实现了模型的自我提升（self-improvement process），它将Demonstratino数据、on-policy数据以及遥操作intervention数据都加入到训练当中，实现了很多真实场景的高成功率和困难任务的低失败率。文中提到，这种学习的范式遵从着一种“需要精进一种技术就需要反复练习和反思”的哲学，而这也是近期很多工作提到的。而其中非常重要的路径就是强化学习，但对于真实世界来说，强化学习的问题就在于如何得到合理的reward feedback以及如何从异构的数据和不同的策略中学习。本文中提到的RECAP（RL with Experience and Corrections via Advantage-conditioned Policies）就意在提供一种解决方案。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/starteaser.png&quot; alt=&quot;pi06 star model structure&quot;&gt;&lt;/p&gt;
&lt;h3&gt;RECAP概览&lt;/h3&gt;
&lt;p&gt;RECAP首先使用离线强化学习预训练VLA实现初步的能力，另外也会对策略部署过程当中收集的数据进行训练，因为策略在部署过程当中会得到真实世界的一种简单的稀疏反馈，也就是成功与否，所以此时就得到了有sparse reward的训练数据。在离线强化学习的过程中，同时训练了一个Value function进行策略部署过程当中的价值评估，主要评估任务的完成度，同时也可以使用这个Value function做数据集中每一个action的advantage估计，因此可以得到受到改善的策略。&lt;/p&gt;
&lt;p&gt;在离线强化学习预训练过程当中，数据集的来源是多样的，文中提到其实还有一个π0.6模型，但是显然这个并没有成为一个单独的文章出现，只是提到这个模型有更大的backbone和更加多样的conditionning方法，而本文就是基于这个模型加上了离散的advantage value的结果。文中提到用这种自动化收集经验的方法能够加倍throughput同时降低失败率，作者使用这个模型实现了对做浓缩咖啡、折箱子以及全新场景的叠衣服任务的微调。&lt;/p&gt;
&lt;p&gt;总的来说，RECAP在数据采集上实现了多种不同来源数据的获取以及稀疏的结果导向的标注，对于一些数据，会进行人为干预实现纠正，在价值函数训练上使用了所有采集到的数据来获取一个能够检测失败和完成度的reference Value function。在训练的prefix条件注入中加入了advantage value来提供一种简单但高效的价值引导训练，实现对于次优和更优策略的提取。&lt;/p&gt;
&lt;p&gt;这是第一个实现了通用意义上的强化学习方法，过程中注入了人类的价值反馈和干预。接下来会具体解释价值函数的训练以及优势条件注入下的训练。&lt;/p&gt;
&lt;h3&gt;价值函数训练&lt;/h3&gt;
&lt;p&gt;从结构上，价值函数使用了和VLA架构相同的，但是体量更加小的VLM，并且将价值评估建模成了，从文本和观测映射到价值的分布，其中这个分布是一个离散价值分布。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/value.png&quot; alt=&quot;value function&quot;&gt;&lt;/p&gt;
&lt;p&gt;在训练过程当中，会对每一个轨迹的回报首先进行量化（也就是将连续数值离散化，学过通信原理和DSP的同学们应该都比较清楚这个概念），随后使用最小化交叉熵的方法来进行训练，得到一个有整个数据集先验的critic model，&lt;strong&gt;离散化这一步对于训练时非常有效的&lt;/strong&gt;，因为这样避免了学习连续的价值分布增加收敛的困难性，随后可以再通过反向求解的方式得到连续的价值评估。&lt;/p&gt;
&lt;p&gt;$$
\min_\Phi \mathbb{E}&lt;em&gt;{\tau \in \mathbf{D}}[\sum&lt;/em&gt;{o_t \in \tau} H(R_t^B(\tau)), p_\Phi(V \vert o_t, l)]
$$&lt;/p&gt;
&lt;p&gt;使用这个critic model我们就可以去对人类演示数据下训练的策略进行蒙特卡洛评估，但是这种策略在线的评估器并不如无策略的Q function estimator，但是这种方式会更加简单和可靠，文中也提到一个off-policy的estimator会对策略评估有更大的帮助。&lt;/p&gt;
&lt;h3&gt;Advantage Conditioning Policy Extraction&lt;/h3&gt;
&lt;p&gt;在已经拥有了价值函数之后，我们就可以进入到优化策略的进程中，这个过程被称为策略提取（policy extraction），本文中使用的方法就是advantage conditioning。反观其他方法，策略梯度由于无法提供完整的似然估计而并不能适用于Flow Matching Model的策略提取，AWR使用简单的监督学习目标导致了数据集中的关键信息的丢失。Advantage Conditioning将所有的数据集中的数据放在一起进行监督学习，同时也输入了一个表示动作的好坏数值，这个数值来源于advantage。&lt;/p&gt;
&lt;p&gt;使用贝叶斯定理可以重写策略提升的分布，&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/form1.png&quot; alt=&quot;formulation&quot;&gt;&lt;/p&gt;
&lt;p&gt;因此可以得到一个优化过程的正则闭式，另外通过这种方式就不必再显式地表示策略提升概率，只需要分别表示基础策略和indicator conditioned策略就可以，文中提到这种方式就和calssifier-free guidance类似，分别使用有无condition的模型来建模数据分布。对于indicator来说，服从delta分布，会基于task-relevent信息进行门限控制建模分布。&lt;/p&gt;
&lt;p&gt;$$
p(I \vert A^{\pi_{ref}}(o, a, l) = \delta(A^{\pi_{ref}}(o, a, l) &gt; \epsilon_l))
$$&lt;/p&gt;
&lt;p&gt;最后可以通过一个优化对数似然估计的问题来优化策略，在这个训练过程当中，使用到的数据就是收集到的所有数据。为了让human correction更有作用，作者强制将这些行为建模为indicator=True的形式。&lt;/p&gt;
&lt;h2&gt;如何构建self-improvement具身学习系统？&lt;/h2&gt;
&lt;p&gt;其实对于LLM来说Self-evolution并不是一个稀奇的事情，在LLM和Agent领域已经积累了很多从经验中学习的方法，而对于具身来说，最困难的事情就在于如何去建模真实世界的价值评估体系以及如何构建高效的自进化系统。以下几篇文章是最近博主读到过的相关的工作。&lt;/p&gt;
&lt;h3&gt;PLD：使用Base Policy进行探索，使用Residual Policy自进化&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/PLD.png&quot; alt=&quot;PLD Teaser&quot;&gt;&lt;/p&gt;
&lt;p&gt;本文通过RL generator实现了自动化的数据采集和自进化搭建。流程上说，通过首先训练一个任务的base policy并且将这个policy进行冻结后，使用off-policy RL进行残差行为的训练，随后基于这个base policy在rollout的过程中采用动态残差模块接管机制实现自动化的采集，最后所有的数据被整理在一起作为SFT蒸馏数据的基础。&lt;/p&gt;
&lt;p&gt;所以使用残差接管的采集得到的数据构成为：&lt;/p&gt;
&lt;p&gt;$$
{(s_1, a_{b, 1}), ...,(s_{t-1}, a_{b, t-1})} \cup {(s_t, a_{b, t} + \bar{a}_t), ...}
$$&lt;/p&gt;
&lt;p&gt;对于这种方法，残差模块主要是为了补全次优区域的不足，方法上达到了不错的效果，只可惜局限于单任务的RL，并没有做到General Purpose。在探索的过程当中，使用Q function做Off-policy的探索。&lt;/p&gt;
&lt;h3&gt;FieldGen：半自动采集数据方案&lt;/h3&gt;
&lt;p&gt;&lt;img src=&quot;Day18-Blog/fdgen.png&quot; alt=&quot;FieldGen Teaser&quot;&gt;&lt;/p&gt;
&lt;p&gt;通过分别对现有的数据分布中的joint和gripper构建锥形场和球形场来规模化新的数据轨迹，实现对真机数据的扩增，同时也是用了advantage-conditoining的方法来构建reward、value来对生成的数据进行筛选和进一步的训练，但是仅仅对pick任务进行了设计，这种半自动化的采集方案还有望对更多的任务进行扩展。&lt;/p&gt;
&lt;h3&gt;Minor Takeaways&lt;/h3&gt;
&lt;ul&gt;
&lt;li&gt;如何从Off-policy出发去构建更好的价值评估体系？&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个其实已经在这篇文章中提到了，或许使用Q Function能够进一步地提升价值评估的能力。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;如何达到高效的online real world RL训练范式？&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这更多是一个数据采集与处理的设计问题，数据采集层面上，我们或许需要接入一些柔顺接管的方案去提升online correction的数据质量，另外一方面我们也需要使用更加合理的通用Critic Model去做监督，实现自动化的监管与接替（模型或者人类），比如VLAC就是个很有用的工具。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;除却真机，如何在仿真上构建？&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从数据层面上，我们可以更大规模的使用仿真数据来构建Critic Model，另外工作如CTRL-World、WMPO以及WorldEval都在构建仿真环境的世界模型评估框架，这都是有望进一步提升策略的通用性和泛化性的途径。&lt;/p&gt;
&lt;hr&gt;
&lt;h1&gt;参考文献&lt;/h1&gt;
&lt;p&gt;[1] &lt;a href=&quot;https://www.physicalintelligence.company/download/pistar06.pdf&quot;&gt;a VLA That Learns From Experience&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2] &lt;a href=&quot;https://website.pi-asset.com/pi06star/PI06_model_card.pdf&quot;&gt;π0.6 Model Card&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3] &lt;a href=&quot;https://www.wenlixiao.com/self-improve-VLA-PLD/assets/doc/pld-fullpaper.pdf&quot;&gt;SELF-IMPROVING VISION-LANGUAGE-ACTION
MODELS WITH DATA GENERATION VIA RESIDUAL RL&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[4] &lt;a href=&quot;https://arxiv.org/pdf/2510.20774&quot;&gt;FieldGen: From Teleoperated Pre-Manipulation Trajectories to
Field-Guided Data Generation&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[5] &lt;a href=&quot;https://github.com/InternRobotics/VLAC/blob/main/data/VLAC_EAI.pdf&quot;&gt;VLAC: A Vision-Language-Action-Critic Model for Robotic Real-World Reinforcement Learning&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[6] &lt;a href=&quot;https://arxiv.org/abs/2510.10125&quot;&gt;Ctrl-World: A Controllable Generative World Model for Robot Manipulation&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[7] &lt;a href=&quot;https://arxiv.org/pdf/2511.09515&quot;&gt;WMPO: World Model-based Policy Optimization for
Vision-Language-Action Models&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[8] &lt;a href=&quot;https://arxiv.org/pdf/2505.19017&quot;&gt;WorldEval: World Model as Real-World Robot Policies Evaluator&lt;/a&gt;&lt;/p&gt;</content:encoded><h:img src="/_astro/starteaser.glKb6cHM.png"/><enclosure url="/_astro/starteaser.glKb6cHM.png"/><author>ACondaway</author></item><item><title>关于IGV记忆模块的一些近期工作与思考</title><link>https://vapour-x.cn/blog/memorymodulesurvey/memory-module-survey</link><guid isPermaLink="true">https://vapour-x.cn/blog/memorymodulesurvey/memory-module-survey</guid><description>高效而精确的记忆模块在IGV系统中至关重要，没有良好的记忆方案，IGV的长度将永远受限于存储和算力。</description><pubDate>Fri, 29 Aug 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;定义与研究现状&lt;/h2&gt;
&lt;p&gt;在可交互视频生成（Interactive Video Generation，IGV）领域中，Memory模块负责确保生成内容在静态和动态方面的连贯性。具体来说，它包括两个部分：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;静态记忆（Static Memory）&lt;/strong&gt;：保留场景级和对象级的信息，例如游戏地形、建筑结构、角色资产和对象表&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;动态记忆（Dynamic Memory）&lt;/strong&gt;：管理时间运动模式和行为序列，包括角色动画、车辆路径、粒子系统和动态环境元素（如天气变化）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;现有工作主要依赖注意力机制中的交叉注意力来保持视频的前后一致性，但存在保持程度不佳和记忆时间不长的问题[1]。为此一些工作设计了新的记忆结构，使用高维潜空间或显式的三维空间表征（如GS，pointcloud），但这些模块还需要进一步适配完整的视频生成系统，训练这些记忆能力也需要更多优质数据集。&lt;/p&gt;
&lt;p&gt;对记忆模块的讨论开始得较晚，在视频生成效果较好之后，才会考虑如何保持场景一致。早期工作直接依赖模型自身固有的记忆能力，未作深入探讨，此处不再赘述。以下为一些涉及记忆模块的代表性工作的发布时间：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;利用模型自身交叉注意力
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/abs/2408.14837&quot;&gt;Diffusion Models Are Real-Time Game Engines&lt;/a&gt;, 2024-08&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://oasis-model.github.io/&quot;&gt;Oasis: A Universe in a Transformer&lt;/a&gt;, 2024-10&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;利用显示的3D建模作为记忆存储
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/abs/2406.09394&quot;&gt;WonderWorld&lt;/a&gt;, 2024-06&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2503.03751&quot;&gt;Gen3C&lt;/a&gt;, 2025-03&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2505.05495&quot;&gt;Learning 3D Persistent Embodied World Models&lt;/a&gt;, 2025-05&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/abs/2506.05284&quot;&gt;Video World Models with Long-term Spatial Memory&lt;/a&gt;, 2025-06&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/abs/2506.05284&quot;&gt;VMem&lt;/a&gt;, 2025-06&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2506.20590&quot;&gt;WonderFree&lt;/a&gt;, 2025-06&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;li&gt;利用上下文的隐式记忆嵌入
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2403.14773&quot;&gt;StreamingT2V: Consistent, Dynamic, and ExtendableLong Video Generation from Text&lt;/a&gt;, 2024-03&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2410.23277&quot;&gt;SlowFast-VGen&lt;/a&gt;, 2024-10&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2504.12369&quot;&gt;WORLDMEM: Long-term Consistent World Simulation with Memory&lt;/a&gt;, 2025-04&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://www.arxiv.org/pdf/2505.20171&quot;&gt;Long-Context State-Space Video World Models&lt;/a&gt;, 2025-05&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2506.03141&quot;&gt;Context as Memory&lt;/a&gt;, 2025-06&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2508.09736&quot;&gt;M3-Agent&lt;/a&gt;, 2025-08&lt;/li&gt;
&lt;/ul&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;p&gt;总的来讲，前沿的工作还是以滑动窗口为主，配合对长期记忆的存储、更新和抽取，而难点在于长上下文情景下如何高效地做长期记忆操作，如何对已有记忆进行筛选。对此，既有工作中有用到camera pose匹配(context as memory等）。采访中提到，Genie-3采用的是隐式策略。&lt;/p&gt;
&lt;p&gt;本文将着重探讨采用显式（Explicit）与隐式（Implicit）方案的新一代记忆模块，均为一年以内的较新研究成果。&lt;/p&gt;
&lt;p&gt;[1] &lt;a href=&quot;https://arxiv.org/pdf/2504.21853&quot;&gt;A Survey of Interactive Generative Video&lt;/a&gt;&lt;/p&gt;
&lt;h2&gt;基于三维重建的显式方案&lt;/h2&gt;
&lt;p&gt;显式地表征三维场景，并在生成时用于参考，对较大物体的重建效果不错，且较容易落地；但是重建误差决定了该方案存在上限，例如VMem为了效率对细节丢失较多，深度估计也有固有误差，拓展难度高。&lt;/p&gt;
&lt;h4&gt;Video World Models with Long-term Spatial Memory&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://arxiv.org/abs/2506.05284&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;三种记忆的融合：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;长期空间记忆，即静态点云（static point cloud），经过TSDF滤波&lt;/li&gt;
&lt;li&gt;短期记忆，即最近几帧&lt;/li&gt;
&lt;li&gt;长期事件记忆，选择具有代表性的帧存储为historical reference，选择方法即帧间差距较大时触发&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;img src=&quot;https://imgbucket-1313228125.cos.ap-shanghai.myqcloud.com/20250831141910669.png&quot; alt=&quot;image-20250822163107560&quot;&gt;&lt;/p&gt;
&lt;p&gt;使用CUT3R生成点云，CogVideoX作为基座视频生成模型，TSDF将新点云与现有点云融合更新。利用3D点云使视频前后一致的设计参考了ControlNet。&lt;/p&gt;
&lt;h4&gt;VMem&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://arxiv.org/abs/2506.05284&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;用Surfel（表面元素）作为更轻量的索引&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;https://imgbucket-1313228125.cos.ap-shanghai.myqcloud.com/20250831141933194.png&quot; alt=&quot;image-20250823172855921&quot;&gt;&lt;/p&gt;
&lt;p&gt;方法：https://v-mem.github.io/img/video-1min-encoded_720p.mp4 很清晰的视频&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;Plücker是能表征图中任一点关于当时相机的位置的射线方程（包括相机起点），与拍到的内容无关&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;VMem在单图长程回访一致性、计算效率上占优；spatial memory在动态场景、动作一致性、文本-动作联合控制上更强，但依赖更重的点云融合管线，速度明显慢。&lt;/p&gt;
&lt;h4&gt;其他工作&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2505.05495&quot;&gt;Learning 3D Persistent Embodied World Models&lt;/a&gt;
用网格将整个空间分割，每次更新每块的内容，仅对小空间适用。用DINO-v2提取每帧的内容并用于更新，用深度图和camera pose计算图中内容的位置并更新对应区块&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2506.20590&quot;&gt;WonderFree: Enhancing Novel View Quality and Cross-View Consistency for 3D Scene Exploration&lt;/a&gt;
基于3DGS生成粗糙世界后用两个模块精细化，但仅用于生成世界，并非实时探索的视频生成。基于Wonderworld，该系列工作还有wonderturbo（提高实时性，生成仅需0.72s）。&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2503.03751&quot;&gt;GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control&lt;/a&gt;
用一个可实时更新的 3D 点云缓存当“外置记忆”，把已生成的场景几何和颜色都存进去。比较朴素的方法。&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;基于纯上下文的隐式方案&lt;/h2&gt;
&lt;p&gt;没有固有误差，理论上限更高，但十分依赖精心设计的结构和训练，且显著data-driven，要求大量高质的数据用于训练。&lt;/p&gt;
&lt;h4&gt;SLOWFAST-VGEN&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://arxiv.org/pdf/2410.23277&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;核心创新为时间LoRA模块&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;https://imgbucket-1313228125.cos.ap-shanghai.myqcloud.com/20250831141945439.png&quot; alt=&quot;image-20250822155504759&quot;&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;慢速训练即常规的后训练，基于预训练的 ModelScopeT2V 模型，通过掩码条件视频扩散来生成视频。可将输入视频块和动作描述作为条件，生成后续的视频块。
训练Unet：用三元组[输入，指令，加噪的输出]训练，学习去噪能力（找到那些噪声的$\mu,\sigma$）&lt;/li&gt;
&lt;li&gt;快速训练的时间LoRA模块：在推理过程中训练，用当前视频片段和上一个片段和当中的指令训练，基于生成的视频和实际的差距训练小矩阵，叠加到慢速学习出来的矩阵中，继续下一步推理&lt;/li&gt;
&lt;/ul&gt;
&lt;h4&gt;Long-Context State-Space Video World Models&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://www.arxiv.org/pdf/2505.20171&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;在时序维度引入Mamba，负责长程记忆的同时控制复杂度，加上最近几帧用来补充；训练时对前缀帧进行随机保留（不添加噪声的干净帧）&lt;/p&gt;
&lt;p&gt;并没有用到具体的记忆模块，而是利用了Mamba的机制提高模型的长程记忆能力，只需维护常数内存，不会因为推理进行而内存爆炸；但是因为单帧计算量变大，所需时间长达200~400ms；推理长度不能超出训练长度，空间保真性也尚待提升。&lt;/p&gt;
&lt;h4&gt;Context-as-Memory&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://arxiv.org/pdf/2506.03141&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;号称最接近Genie3的工作，核心是对相机位姿的存储和调用。&lt;/p&gt;
&lt;p&gt;对每一次生成，进行如下操作：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;遍历历史所有帧，计算与当前FOV的重叠度&lt;/li&gt;
&lt;li&gt;去除时间冗余，连续多帧高重叠度的只保留一帧；对时空差距较大但重叠度仍较高的帧额外保留&lt;/li&gt;
&lt;li&gt;筛选出一定数量的帧，与临近的几帧拼接后进行生成&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;&lt;img src=&quot;https://imgbucket-1313228125.cos.ap-shanghai.myqcloud.com/20250831142014792.png&quot; alt=&quot;image-20250823195910880&quot;&gt;&lt;/p&gt;
&lt;h4&gt;M3-Agent&lt;/h4&gt;
&lt;p&gt;&lt;a href=&quot;https://arxiv.org/pdf/2508.09736&quot;&gt;Paper&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;有多模态记忆系统的agent，不是一个直接用于视频生成的模型架构&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;有多模态的记忆，将一个实体的不同信息放在同一个槽中同维度存储，时序存储带有实体ID的记忆&lt;/li&gt;
&lt;li&gt;检索时，基于时间范围和实体ID进行搜索&lt;/li&gt;
&lt;li&gt;层级图，类似人类记忆的不同内容间的关系网络，在有新的事件/实体出现时立即更新&lt;/li&gt;
&lt;li&gt;每一段时间进行记忆压缩，生成长期记忆，删除低置信度的关系线段&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;https://imgbucket-1313228125.cos.ap-shanghai.myqcloud.com/20250831142021427.png&quot; alt=&quot;image-20250823202745168&quot;&gt;&lt;/p&gt;
&lt;h4&gt;其他工作&lt;/h4&gt;
&lt;ul&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2403.14773&quot;&gt;StreamingT2V: Consistent, Dynamic, and ExtendableLong Video Generation from Text&lt;/a&gt;
持续用第一帧内容提醒模型；用了一个预训练的高分辨率短视频增强模型逐段增强&lt;/li&gt;
&lt;li&gt;&lt;a href=&quot;https://arxiv.org/pdf/2504.12369&quot;&gt;WORLDMEM: Long-term Consistent World Simulation with Memory&lt;/a&gt;
和Context-as-Memory的方案类似，但把所有的关键帧都存储下来作为一个显式的库，而后者采用的其实是实时更新的最重要帧集合，worldmem的一致性更强，但是时间长后必然存在CPU/存储瓶颈，且频繁检索导致的延迟不可忽视&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Discussion&lt;/h2&gt;
&lt;p&gt;近期的工作大多在显式三维表征和隐式上下文建模之间徘徊。前者依赖点云、surfel 或体素等结构，能够提供明确的空间约束，但重建误差和更新效率始终是瓶颈；后者则完全交由模型内部机制维持一致性，避免显式误差，却需要更大规模的数据和更复杂的训练范式。值得注意的是，两类方法展现出一种逐渐融合的趋势，例如 context-as-memory 依靠相机位姿筛选历史帧，VMem 用轻量化的 surfel 作为索引。同时，研究者开始探索更接近人类认知的记忆机制，如层级抽象、语义压缩、多模态槽位存储，以缓解长时序生成中的存储和检索压力。&lt;/p&gt;
&lt;p&gt;就目前的研究而言，Memory Module仍然是各个IGV System的痛点，Long-context Consistency还没有很完整的解决方案，尤其是能够结合动态、交互的记忆模块还很欠缺。到底是在效率、准确性和泛化能力之间找到合适的折中点，用算力或数据集弥补剩余空缺，还是能开创出全新的记忆模式？&lt;/p&gt;</content:encoded><h:img src="/_astro/contextasimage.BG2gtelT.png"/><enclosure url="/_astro/contextasimage.BG2gtelT.png"/><author>Andreo Y.</author></item><item><title>Discrete Diffusion VLA: 离散扩散动作解码新方案</title><link>https://vapour-x.cn/blog/discretediffusionvla/discretediffusionvla</link><guid isPermaLink="true">https://vapour-x.cn/blog/discretediffusionvla/discretediffusionvla</guid><description>将离散扩散引入VLA动作解码头，实现单一Transformer结构下的高效动作解码，在多种设置下均优于自回归与连续扩散解码。</description><pubDate>Thu, 28 Aug 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;TL;DR&lt;/h2&gt;
&lt;p&gt;我们将离散扩散（discrete diffusion，也即LLADA使用的diffusion方法）做成VLA内部的动作解码头使得VLA保持单一Transformer结构。配合两项机制，自适应解码顺序与二次重掩码，实现更稳定的一致性细化，在多种设置下均优于自回归与连续扩散解码。我们的训练目标与 VLM 保持一致，最大限度保留VLM的预训练先验，并在成功率上取得更好结果。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;./cmp.png&quot; alt=&quot;Paradigm Comparison&quot;&gt;&lt;/p&gt;
&lt;h2&gt;What&apos;s new&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;首次将离散扩散引入 VLA 的动作解码头。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;单一 Transformer、VLM 式训练：保持离散 token 接口，并使用与主干一致的 CE 损失 → 最大化保留 VLM 的预训练先验。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;自适应解码顺序：每一轮基于置信度/置信度差优先保留&quot;容易&quot;的 token，并用余弦策略下调保留比例；其余位置继续保持为 [MASK] 进入下一轮细化。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;二次重掩码：对已保留的位置做阈值 + 残差下降检查；若存在不确定/不一致则回掩码，实现稳健的跨轮次纠错。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;h2&gt;Why it matters&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;
&lt;p&gt;与连续扩散解码不同，我们把动作生成完全保留在统一的 Transformer 内部，并沿用 VLM 的交叉熵训练目标。这既能最大程度承接 VLM 的视觉—语言先验（可类比为给模型&quot;扩展词汇表&quot;），也为继承统一 Transformer 的规模化规律提供路径，推动大规模 VLA 研究。&lt;/p&gt;
&lt;/li&gt;
&lt;li&gt;
&lt;p&gt;同时，Discrete Diffusion VLA 打破了自回归左到右的瓶颈：在少量、固定步数内并行自适应地产生动作片段；对置信度不足的 token 可通过迭代重掩码反复校正，保持了diffusion的逐次修正特性，充分利用跨模态上下文（包括动作token间依赖）进行持续细化。&lt;/p&gt;
&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;./exp.png&quot; alt=&quot;Benchmarks and tasks&quot;&gt;&lt;/p&gt;
&lt;h2&gt;Links&lt;/h2&gt;
&lt;p&gt;Paper：https://arxiv.org/abs/2508.20072&lt;/p&gt;
&lt;p&gt;Hugging Face（&amp;#x26; Demos）：https://huggingface.co/papers/2508.20072&lt;/p&gt;</content:encoded><h:img src="/_astro/arch.DRUIk3z8.png"/><enclosure url="/_astro/arch.DRUIk3z8.png"/><author>Zhixuan Liang</author></item><item><title>世界模型的本质</title><link>https://vapour-x.cn/blog/world_model_essense/blog</link><guid isPermaLink="true">https://vapour-x.cn/blog/world_model_essense/blog</guid><description>世界模型概念的简明介绍。</description><pubDate>Wed, 13 Aug 2025 00:00:00 GMT</pubDate><content:encoded>&lt;p&gt;最近 Genie3 很火，但大家对世界模型的概念还有些模糊，有人认为生成模型就是世界模型，但让我们回顾最早的世界模型定义，也就是 Genie1 论文“Genie: Generative Interactive Environments”中提到的定义：”生成式交互环境可以被视为世界模型的一类，它们能够在给定动作输入的条件下，实现下一帧的预测“，由此可知，生成模型≠世界模型。接下来给大家介绍下做强化学习的人眼中的世界模型。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image1.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;为什么是世界模型？&lt;/h2&gt;
&lt;p&gt;&lt;strong&gt;使用世界模型可以替代环境训练，我们可以完全在模拟的“梦境”环境中训练智能体，而不需要与真实环境交互&lt;/strong&gt;。这种方法提供了诸多好处。例如，运行计算密集型的游戏引擎需要使用大量的计算资源来将游戏状态渲染成图像帧，或者计算与游戏不直接相关的物理内容。我们可能不想在实际环境中浪费计算资源来训练智能体，而是可以在其模拟环境中多次训练智能体。现实世界中训练智能体的成本更高，因此逐步训练的世界模型用于模拟现实可能有助于将策略转移到现实世界中。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image2.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;世界模型是什么？&lt;/h2&gt;
&lt;p&gt;最早的世界模型概念来自 David Ha 和 LSTM 之父  Jürgen Schmidhuber 的 NIPS 2018 Oral Presentation 的论文 “World Models”。这篇论文给出的世界模型由以下3个部分组成：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;V 模型（Variational Autoencoder，VAE）&lt;/strong&gt; ：这是智能体（agent）的视觉感知部分，用于将高维的图像帧（如来自游戏环境的2D图像）压缩成低维的 latent 表示。这个模型对于智能体从原始输入数据中学习有意义的、抽象的表示至关重要。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image3.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;M 模型（MDN-RNN）&lt;/strong&gt; 的作用是预测未来，具体来说，M 模型根据当前时刻 $t$ 的隐向量（latent vector） $$z_t$$ 、隐状态（hidden state） $h_t$ 以及动作$a_t$来预测下一时刻的隐向量 $$z_{t+1}$$ 。它使用**混合密度网络（Mixture Density Network，MDN）&lt;strong&gt;与&lt;/strong&gt;循环神经网络（Recurrent Neural Network，RNN）**结合的方式，输出下一个隐向量 $$z$$ 的概率分布。温度参数 $$\tau$$ 用来控制模型的不确定性。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;$$
P\left(z_{t+1} \mid a_t, z_t, h_t\right)
$$&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image4.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;**C 模型（Controller，控制器）**使用来自V模型和M模型的表示来选择合适的动作。控制器的目的是最大化期望的累积奖励。C是一个简单的单层线性模型，它将$$z_t$$和$$h_t$$直接映射到每个时间步的行动$$a _t$$，$$ \left[z_t h_t\right] $$是把 $$z_t$$和$$h_t$$拼接在一起&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;$$
a_t=W_c\left[z_t h_t\right]+b_c
$$&lt;/p&gt;
&lt;p&gt;把 V、M、C 模型放一起，&lt;strong&gt;整体运作的流程&lt;/strong&gt;是：在每个时间步$$t$$，原始观测输入到V，输出 $$z_t $$。输入到C的是隐向量$$z_t $$与M的隐状态$$h_t $$的拼接。接着，C会输出一个动作向量$$a_t $$用于运动控制，并且会影响环境。接着，M将当前的$$z_t $$和动作$$a_t $$作为输入，更新自身的隐状态，生成$$h_{t+1} $$。值得注意的是，论文中是通过随机策略跟环境进行交互收集到的预演（rollouts）来训练世界模型。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image5.png&quot; alt=&quot;image.png&quot;&gt;
按时间步展开来，世界模型的结构如下图所示。
&lt;img src=&quot;Blog/image6.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;原论文给出了对应的世界模型 demo：https://worldmodels.github.io/，大家可以试玩下。也欢迎大家看我主页上世界模型相关的 paper（https://qiwang067.github.io/），最后宣传下我们 NeurIPS 组织的 Workshop “&lt;strong&gt;Embodied World Models for Decision Making&lt;/strong&gt;”（https://embodied-world-models.github.io/）”，&lt;strong&gt;Genie 3 的核心贡献者&lt;/strong&gt; Philip Ball 也会给 Talk，欢迎大家参加、投稿~，希望本文能对大家理解世界模型有所帮助。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Blog/image7.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;</content:encoded><h:img src="/_astro/image2.B_CUnonh.png"/><enclosure url="/_astro/image2.B_CUnonh.png"/><author>Qi Wang</author></item><item><title>AC Daily Blog Eps.16 我们正在谈论的世界模型Pt.1</title><link>https://vapour-x.cn/blog/day16/day16-blog</link><guid isPermaLink="true">https://vapour-x.cn/blog/day16/day16-blog</guid><description>最近Genie-3的发布让World Model变得十分火爆，我们借此机会去review一下这一段时间world model是如何发展的，并且在各种领域中都代表着什么、起着什么作用。本篇中主要会着重讲一些海外的大厂提出的世界模型框架。</description><pubDate>Sat, 09 Aug 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h2&gt;什么是世界模型？&lt;/h2&gt;
&lt;p&gt;从博主的视角，所谓世界模型，就是一种对于现有的感知的信息提炼和处理，经过强有力的对于物理世界和客观规律的先验的映射而得到非常准确的对于感知的反馈。从认知科学的角度，&quot;具身认知&quot;这种观念是十分重要的，1991年，Brooks提出了&quot;无表征智能&quot;，倡导使用行为来驱动机器人的架构。&lt;/p&gt;
&lt;p&gt;这个过程更像是人类的大脑在做的事情，通过去处理各个器官的感知信息来做出合适的反馈。那么在这里就会有很多下分的方向，这些都代表了不同意义的世界模型的构建。&lt;/p&gt;
&lt;p&gt;世界模型最早由Ha和Schmidhuber提出，证明了可以通过学习生成式环境模型来让agent在其内部的Dream中训练和迁移。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;以Genie为代表的谷歌发起的世界模型主要是通过有条件视频生成的技术路线实现了对于物理世界未来预测的反馈，这种范式也得到了很多研究者的认可，通过生成一些全新的场景，并且在这些场景中进行交互得到这个场景的动态反馈，那么就相当于在pixel-based的环境中当中创建了一个现实世界的映射。当然包括对于物体的性质的预测也好或者对于一些环境中的物体的反馈或者整个环境的变化的预测也好，归根结底，都在做预测，这一类统称为基于预测的世界模型。另外有基于风格迁移的世界模型，通过特定输入引导输出结果，风格化、结构化地调节模型的生成，这对于环境重建和数字孪生有很大的作用。最后还有推理模型，这个过程当中，通过比如思维链等方式就可以推理出一些有用的信息和有用的行为。这对于具身操作和自动驾驶等研究方向都有重要的指导意义。&lt;/p&gt;
&lt;h2&gt;从Genie说起&lt;/h2&gt;
&lt;p&gt;Video Prediction Model as World Model，在Genie之前其实有很多工作都已经对World Model的构建进行了尝试，比如在强化学习的范畴里面，通过一个world model来训练agent得到更好的策略，在这个过程当中WM成为了Agent理解世界的大脑。包括GAIA-1和UniSim这一类使用World Model来作用于自动驾驶和具身操作的工作，也为现在的学术界打下了一定的基础。这些方法无一例外都是用了video prediction的思路，很多都参考了自回归模型的结构。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image1.png&quot; alt=&quot;image1.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image2.png&quot; alt=&quot;image2.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;在2024年，Google DeepMind发布了Genie，提出了一种生成式交互环境模型框架，通过对模型输入可控的action，可以得到无限的生成式虚拟场景。整体上来说，它是由时空视频tokenizer和动态自回归模型以及一个简单的可扩展的latent action model构成。整体模型的训练过程是使用自监督的方式，这也大大提升了模型的foundation能力，这为后续很多其他领域的发展都提供了很好的平台。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image3.png&quot; alt=&quot;image3.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;整体来说Genie是基于视频生成模型进行构建的，对于视频生成模型而言，核心观念是引入Spatio-temperal Transformer，Genie通过自己训练的video tokenizer来提取潜在的动作信息，Genie使用的训练数据集主要是互联网中的2D游戏视频，因此自然产生了一些二维层面上的可交互表征，另外团队还训了一个基于RT1数据集的模型来验证泛化性。&lt;/p&gt;
&lt;h3&gt;模型框架&lt;/h3&gt;
&lt;p&gt;整体模型使用内存友好的ST-Transformer进行构建，其中包含若干层时空交织attention层，其中空间层的自注意力机制对每一个时间步获取分别的 $1 \times H \times W$ spatial token，在时序层中则使用 $T \times 1 \times 1$ temporal token进行注意力计算。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image4.png&quot; alt=&quot;image4.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;在temporal层中会和sequence transformer一样使用causal mask来进行因果推理。通过上述方式，随着frame数量的增加，是线性计算量增加的，相比四次方增加会好很多。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image5.png&quot; alt=&quot;image5.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;模型主要有三个子模块，（1）latent action model；（2）video tokenizer；（3）dynamics model&lt;/p&gt;
&lt;h4&gt;LAM&lt;/h4&gt;
&lt;p&gt;对于未来的视频帧的生成，会通过对过去的行为进行条件生成，这样可以确保一定的生成可控性，通过学习latent action的主要原因是因为这个过程是完全无监督的，确保了大量的无标注互联网数据可以进行训练。&lt;/p&gt;
&lt;p&gt;LAM需要对过去的视频帧和下一帧进行输入，输出对应的连续的latent action，这是encoder过程。Decoder过程则是把过去的帧和latent action输入来预测到下一帧，在这样的训练当中，我们会发现encoder是有前瞻性的，而decoder则是纯粹从有前瞻性的提示中去学习这种预测能力，所以还是很合理的。其中latent action需要编码最有意义的帧间变化，这样才能让decoder学到有意义的信息和预测能力。其中模型架构使用ST-Transformer架构，并且对temporal layer进行causal mask。&lt;/p&gt;
&lt;p&gt;Genie使用VQ-VAE作为训练目标将action控制在有限的离散集合中，并且进行了VQ codebook的size的限制。&lt;/p&gt;
&lt;p&gt;在最后使用时，只需要把decoder丢弃即可，因为核心是编码出最有意义的latent action，decoder只做训练的验证。这是经典的VAE训练思路。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image6.png&quot; alt=&quot;image6.png&quot;&gt;&lt;/p&gt;
&lt;h4&gt;Video Tokenizer&lt;/h4&gt;
&lt;p&gt;为了压缩信息，我们需要将视频变为离散的token，这个部分依然使用VQ-VAE来进行token提取，将一段时序的视频映射成等长的隐式编码，并且在这个过程中，依然使用ST-transformer来对enc-dec赋予时序理解的能力，并且也提升了token生成高质量视频的能力。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image7.png&quot; alt=&quot;image7.png&quot;&gt;&lt;/p&gt;
&lt;h4&gt;Dynamic Model&lt;/h4&gt;
&lt;p&gt;使用decoder-only的MaskGIT transformer来对每一个时间步进行先前的video token的输入，停止latent action token的训练同步输入，得到当前帧的video token的预测&lt;/p&gt;
&lt;p&gt;$$(\tilde{\boldsymbol{a}}&lt;em&gt;{1:t-1},\boldsymbol{z}&lt;/em&gt;{1:t-1}) \rightarrow \hat{z}_t$$&lt;/p&gt;
&lt;p&gt;使用ST-Transformer之后就可以通过T-1帧内容进行所有的next-frame prediction，因此随后可以使用交叉熵损失进行训练，在训练过程当中会对input token进行Mask，这思路类似于MAE&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image8.png&quot; alt=&quot;image8.png&quot;&gt;&lt;/p&gt;
&lt;h3&gt;推理&lt;/h3&gt;
&lt;p&gt;在Genie的推理过程中，User通过对模型进行image prompt的方式作为整个过程的初始化环节，随后image会被处理成token，随后User指定action，同步将token和action输入到Dynamic Model当中，最后会输出有连续时序的token预测，将这个token通过token decoder生成对应的预测图像/序列，这个过程会反复迭代，但根据这个架构，很显然，随着时间的增加，模型需要处理的token数量会线性增长，会影响到推理的效率。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image9.png&quot; alt=&quot;image9.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;再到Genie-2&lt;/h2&gt;
&lt;p&gt;基于Genie-1，Genie-2能够产生更加丰富多样的3D可交互世界，这相比于Genie-1生成的二维世界是一个巨大的突破。Genie-2在训练的过程中，使用大规模视频数据集和其他生成式模型生成的结果作为训练集，让模型学习到了物体交互和复杂的角色动画以及物理性质，并且能够建模和预测其他agent的行为，这对multi-agent的发展也有很大的帮助。&lt;/p&gt;
&lt;p&gt;模型首先使用一个图像进行prompt，使用Imagen 3作为backbone，当然也可以使用文字来描述这个世界通过T2I的方式构建这个世界。&lt;/p&gt;
&lt;p&gt;对于Action Control，玩家可以使用键盘和鼠标控制agent在图片中的运动，模型通过predict next observation的方式，就可以得到下一帧的画面。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image10.png&quot; alt=&quot;image10.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;另外模型还可以通过和使用者交互来产生大量从起始帧出发的不同的轨迹，这些轨迹可以用以模拟反事实的经验，这对于agent的增广训练有很大帮助。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image11.png&quot; alt=&quot;image11.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;并且Genie-2支持了长时间的记忆能力，它能够确保之前生成的东西在之后依然做到可观测，包括支持了长段的视频生成能力。&lt;/p&gt;
&lt;h3&gt;模型架构&lt;/h3&gt;
&lt;p&gt;Genie-2采用自回归的LDM，视频帧通过一个自动编码器得到隐式表达，进一步的，通过transformer dynamics model。在使用Diffusion Model的过程中采用Classifier-free guidance来提升action的可控性，随后为了让模型能够满足实时性的要求，会对diffusion model进行蒸馏。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image12.png&quot; alt=&quot;image12.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;现在，Genie-3&lt;/h2&gt;
&lt;p&gt;在前几天Genie-3发布，引发了一场非常巨大的讨论，至少现在GDM展示的demo已经足够令人惊艳，它能够达到几乎24fps的速度，这已经可以称得上是实时世界交互生成了，并且能够对几分钟内的生成结果维持一致性。总的来说，Genie-3是第一个实现实时交互并且维持一致性的世界模型。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image13.png&quot; alt=&quot;image13.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;通过更加优质的数据，它能够建模很多的复杂的自然现象（比如水流和光线等等），另外它可以产生动态的生态场景。同时对于agent的运动和摩擦的建模也能够进行相应的支持。&lt;/p&gt;
&lt;p&gt;其中最令博主觉得惊艳的是那个室内刷墙的例子，这个例子充分展现了agent与virtual 3D world的交互能力，以及场景的真实性和时间空间的一致性。这种一致性是大模型&lt;strong&gt;涌现出来的&lt;/strong&gt;能力，这相比于之前的3D场景重建的模型，之前提到的NeRF和3D GS来说，都能够有更强大的泛化能力和对于动态丰富细节场景的建模。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image14.png&quot; alt=&quot;image14.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;另外，Genie-3支持在视频过程中进行prompting来产生同一个起点帧不同的信息，这对于Embodied Agent的训练，提供了良好的数据。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image15.png&quot; alt=&quot;image15.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;NVIDIA Cosmos&lt;/h2&gt;
&lt;p&gt;NVIDIA在今年提出Cosmos World Foundation Model，旨在和NVIDIA显卡本身进行适配提出了高性能的世界基础模型框架，通过这个基础模型和一些少量的专有数据，就可以通过后训练的到特定领域的强有力的模型。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image16.png&quot; alt=&quot;image16.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;在NVIDIA的定义中，World Model被定义为给定历史观测和现有的扰动，产生下一帧的观测的预测，这依然是基于条件的预测模型的框架。&lt;/p&gt;
&lt;p&gt;首先训练了一个Cosmos Tokenizer对视频进行token编码，随后通过Denoiser的架构进行解码生成&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day16-Blog/image17.png&quot; alt=&quot;image17.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;对于NVIDIA，他们联合1X Technology的本体Neo Gamma，进行了大量的人形机器人的视角的数据采集，这让Cosmos能够在全尺寸人形机器人的智能化中提供很大的帮助。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;./Day16-Blog/image18.png&quot; alt=&quot;vpx-logo&quot;&gt;&lt;/p&gt;
&lt;p&gt;Know about &lt;strong&gt;VapourX&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&quot;人机合一，协同进化，化具象为抽象，寓抽象于具象。&quot;&lt;/strong&gt;&lt;/p&gt;
&lt;h1&gt;参考文献&lt;/h1&gt;
&lt;p&gt;[1] &lt;a href=&quot;https://arxiv.org/pdf/2402.15391&quot;&gt;Genie: Generative Interactive Environments&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2] &lt;a href=&quot;https://arxiv.org/pdf/2309.17080&quot;&gt;GAIA-1: A Generative World Model for Autonomous Driving&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3] &lt;a href=&quot;https://arxiv.org/pdf/2310.06114&quot;&gt;Learning interactive real-world simulators&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[4] &lt;a href=&quot;https://deepmind.google/discover/blog/genie-2-a-large-scale-foundation-world-model/&quot;&gt;Genie 2: A large-scale foundation world model&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[5] &lt;a href=&quot;https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/&quot;&gt;Genie 3: A new frontier for world models&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[6] &lt;a href=&quot;https://www.sciencedirect.com/science/article/abs/pii/000437029190053M&quot;&gt;Intelligence without representation&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[7] &lt;a href=&quot;https://arxiv.org/pdf/2501.03575v1&quot;&gt;Cosmos World Foundation Model Platform for Physical AI&lt;/a&gt;&lt;/p&gt;</content:encoded><h:img src="/_astro/output.Cj-vY2jY.png"/><enclosure url="/_astro/output.Cj-vY2jY.png"/><author>ACondaway</author></item><item><title>AC Daily Blog Eps.15 从GR-1到GR-3</title><link>https://vapour-x.cn/blog/day15/day15-blog</link><guid isPermaLink="true">https://vapour-x.cn/blog/day15/day15-blog</guid><description>字节跳动从23年开始发表具身预训练模型，到现如今已经从GR-1升级到了GR-3，这个过程当中的研发路线，似乎也能映射在大数据驱动下的具身操作大模型的范式的更新。</description><pubDate>Fri, 01 Aug 2025 00:00:00 GMT</pubDate><content:encoded>&lt;h1&gt;GR-1&lt;/h1&gt;
&lt;h2&gt;Overview&lt;/h2&gt;
&lt;p&gt;这篇文章将NLP和CV中常用的生成式预训练模型的思路迁移到了具身的操作当中，意在解决多任务视觉-语言条件下的机器人操作，其中GR-1首次在视频预测任务上进行预训练，通过模型Video Generative的能力的预训练，让模型能够预测未来帧和未来事件。&lt;/p&gt;
&lt;p&gt;在当时，GR-1的横空出世可以说刷爆了CALVIN benchmark的榜单，从这个角度上来说，通过统一的GPT风格的transformer和基于大规模视频预训练的模型，大大提升了具身操作的性能。&lt;/p&gt;
&lt;h2&gt;Method&lt;/h2&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h3&gt;视频生成预训练&lt;/h3&gt;
&lt;p&gt;在这个过程中，需要让模型能够在给定语言描述和历史观测帧来预测后向的视频帧。&lt;/p&gt;
&lt;p&gt;$$
\pi(l, \boldsymbol{o}&lt;em&gt;{t-h:t}) \rightarrow \boldsymbol{o}&lt;/em&gt;{t + \Delta t}
$$&lt;/p&gt;
&lt;p&gt;对于训练的数据结构，是一段文本，对应一整个视频序列&lt;/p&gt;
&lt;p&gt;$$
v = {l, \boldsymbol{o}_1, \boldsymbol{o}_2, \boldsymbol{o}_3, ..., \boldsymbol{o}_T}
$$&lt;/p&gt;
&lt;h3&gt;多任务视觉操作模型&lt;/h3&gt;
&lt;p&gt;将语言描述、历史观测和历史状态作为模型的输入，得到后向的视频的预测和action的输出，这个时候作者将整个数据集定义成专家轨迹的形式以o-s-a的形式进行组织。&lt;/p&gt;
&lt;p&gt;$$
\pi(l, \boldsymbol{o}&lt;em&gt;{t-h:t}, \boldsymbol{s}&lt;/em&gt;{t-h:t}) \rightarrow \boldsymbol{o}_{t + \Delta t} + \boldsymbol{a}_t
$$&lt;/p&gt;
&lt;p&gt;$$
{\tau}_{j = 1}^{M} = {l, \boldsymbol{o}_i, \boldsymbol{s}_i, \boldsymbol{a}&lt;em&gt;i}&lt;/em&gt;{i = 1}^T
$$&lt;/p&gt;
&lt;p&gt;对于不同的任务都收集了对应数量的专家轨迹。&lt;/p&gt;
&lt;h2&gt;模型框架&lt;/h2&gt;
&lt;p&gt;模型整体选用了GPT风格的Transformer，这种架构已然证明了他们的上下文推理能力和多模态能力。&lt;/p&gt;
&lt;p&gt;模型选择任务描述和视觉输入以及本体状态作为输入，最终输出动作。&lt;/p&gt;
&lt;p&gt;对于语言输入，模型采用预训练的CLIP风格的文本编码器；对于视觉输入使用MAE预训练的ViT进行编码最后输出[CLS] token作为整体表征，对应输出的patch token，会通过Resampler来产生最终的输入GR-1的Token；对于本体状态的输入，使用线性层进行编码得到对应的表征，具体来说，输入了末端执行器的6Dpose和夹爪的二元信息。&lt;/p&gt;
&lt;p&gt;在输入到GR-1之前，所有模态的信息通过一个线性层进行维度上的对齐，确保整体的稳定性。为了动作的预测，文中额外增加了[ACT] token，对于视觉信息的预测，文中额外增加了[OBS] token。&lt;/p&gt;
&lt;p&gt;在预训练阶段，得到的token被表示为&lt;/p&gt;
&lt;p&gt;$$
(l, \boldsymbol{o}_{t-h}, [OBS], ..., l, \boldsymbol{o}_t, [OBS])
$$&lt;/p&gt;
&lt;p&gt;使用机器人数据进行finetune时，得到的token被表示为&lt;/p&gt;
&lt;p&gt;$$
(l, \boldsymbol{s}&lt;em&gt;{t-h}, \boldsymbol{o}&lt;/em&gt;{t-h}, [OBS], [ACT], ..., l, \boldsymbol{s}_t, \boldsymbol{o}_t, [OBS], [ACT])
$$&lt;/p&gt;
&lt;p&gt;为了权衡模态之间的信息权重，语言模态在时间戳上重复使用，为了增强时序性，在每一个时间戳都提供了相应的时间戳embedding。&lt;/p&gt;
&lt;p&gt;网络遵循causal attention机制，在预训练的过程中除了[OBS]token，其他token能够获取到其之前所有的token的信息，在微调阶段，除了[ACT]和[OBS] token，其他token只能获取在其之前所有的token的信息。&lt;/p&gt;
&lt;p&gt;最后输出阶段，使用由自注意力机制和MLP组成的transformer decoder，decoder主要处理[OBS]对应的输出以及mask tokens，mask token对应的输出会用来重建预测的未来图像的patch。对于[ACT] token对应的输出，则会通过线性层映射得到预测的动作。对于图像使用MSE loss监督；对于末端6D pose使用Smooth-L1 Loss，对于夹爪的状态则使用BCE Loss&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image%201.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;在训练的过程中，预训练使用了大规模视频数据Ego4D，预训练阶段只需要使用视频预测MSE损失进行监督；微调阶段则使用机器人数据进行端到端的优化，在这个过程中会用到上述的所有Loss同时进行行为克隆训练和视频预测训练。&lt;/p&gt;
&lt;h1&gt;GR-2&lt;/h1&gt;
&lt;h2&gt;Overview&lt;/h2&gt;
&lt;p&gt;接续GR-1中的思路，GR-2更进一步地扩增了预训练的数据集的来源，用超过500亿的token进行训练，使得GR-2能够很大程度拥有Generalist的能力，甚至展现了对未见场景（心背景、环境、物品、任务）的泛化能力。&lt;/p&gt;
&lt;p&gt;对于其他领域的Foundation Model，其实有一个很重要的衡量指标就是泛化性和高效微调能力。对于一个Generalist来说，掌握大量的manipulation技能是最基本的，另外它需要有很强的学习新知识和处理干扰的能力，在整个过程当中，GR-2依然采用视频预测预训练+本体微调的思路。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image%202.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;Method&lt;/h2&gt;
&lt;p&gt;模型的核心价值就是要训练一个universal policy，依然给定语言指令、观测和状态，输出后几步的动作，对于输入，依然使用一个冻住的text encoder来编码语言，并且使用VQGAN来训练视觉输入，以得到离散token，robot state则使用线性层进行处理，在微调阶段，这个部分依然是可以训练的。在这次的预训练过程当中使用了更大规模的数据集进行训练，除此之外作者还搭建了一套数据的筛选和重新标注的管线。&lt;/p&gt;
&lt;p&gt;作者使用了数据增强的方式来，对模型的场景可泛化性做出了提升，主要的方法包括对于背景的更改和场景中其他物体的增加，文中通过将自采集的物体数据集和Open Image dataset上的数据进行训练，得到的扩散模型生成器就可以实现对场景中的物体的编辑，对于背景的更换，则使用SAM进行，前景分割和后景贴图，最后使用视频生成模型进行增强数据的产出。可以看出，对于GR-2，核心提升的就是泛化能力和多任务处理能力，包括后续的一些实验，也集中在unseen场景的处理当中。&lt;/p&gt;
&lt;h1&gt;GR-3&lt;/h1&gt;
&lt;p&gt;GR-3延续之前的理念，追求更加泛化，这次还包括了对模糊语言指令的处理，另外模型也支持对少量人类轨迹数据的微调。这次的更新更像是系统性的更新，包括了采集infra的搭建和数据处理管线以及模型训练范式的革新。在Demo视频中有一个非常亮眼的表现就是对易形变物体的灵巧操作的能力的展现。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image3.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;整个VLA模型的VLM部分使用的是开源的Qwen2.5VL模型，对于输出，相比于前两代，这一代使用了现在流行的action-chunk，并且使用了flow matching方法作为action expert。为了加强泛化能力，作者使用大规模的VL数据和具身数据进行co-train，这里co-train就意味着这两类数据的来源和分布差异是比较大的。通过这种方式模型不仅能够掌握新物体的理解，同时也能对一些抽象的表述（大小、空间关系、常识等等）进行理解。并且实现了用极少量的human trajectory数据对于模型的快速适应微调，同步地，他们还搭建了一套双手的VR遥操作数据采集infra。总的来说，这篇工作更加注重具身系统这一观念。&lt;/p&gt;
&lt;p&gt;这篇工作中设定了很多具有挑战性的任务，包括具有泛化性的pick-and-place、长程的桌面整理（类似于π0）、对于高变形度的衣物的操作，可以说锚定的都是日常生活的操作。&lt;/p&gt;
&lt;h2&gt;GR-3模型设计&lt;/h2&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image%204.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;p&gt;GR-3模型采用的是端到端的VLA模型架构，通过历史信息的输入输出对应的action chunk，并且采用了MoT架构来处理多个相机视角下的图片流，对于多视角图像和语言指令，文中使用预训练的Qwen2.5-VL-3B-Instruct作为backbone，并且使用DiT来作为action的输出，对于action的预测，使用了flow matching作为目标，FM模型由robot state和KV cache共同控制生成。通过多层的action DiT对action chunk的优化，并且中间对flow matching timestep使用AdaLN进行注入。另外使用causal mask来确保输出的action chunk内部的时序性。&lt;/p&gt;
&lt;p&gt;在推理的过程中，进行了相应的优化设计来确保推理速度，首先对于action DiT，他的Transformer层数是前端的VLM的一半，而在VLM的Transformer的计算中，只会缓存后半层的Key/Value信息来得到相对来说语义更强的特征，通过这种方式，也加速了推理的进程同时确保结果的质量。&lt;/p&gt;
&lt;p&gt;为了确保训练的稳定性，在attention和FFN的线性层后都使用了RMSNorm。&lt;/p&gt;
&lt;h2&gt;Training Recipe&lt;/h2&gt;
&lt;p&gt;**训练目标：**对于大规模、多源头数据的训练，本身具有很重要的研究价值。首先对于robot trajectory来说，会使用模仿学习的方法来最大化策略的似然，另外对于action prediction会使用Flow matching Loss进行监督，不同于π0使用ß分布的时序采样，这里使用了均匀分布的时序采样。为了加速训练，FM loss会在一次VLM的钱想过程中通过多次采样FM的时间步进行训练，在本文中仅使用五步Flow Matching，这相比于π0的十步能够减少一半的开销。&lt;/p&gt;
&lt;p&gt;**数采管线：**在数据采集的流程中，团队也十分关注数据的域随机化程度以及质量筛选。&lt;/p&gt;
&lt;p&gt;**增强语言信息：**作者使用了task status作为动作空间的额外维度来提供辅助监督，实现任务状态的理解和条件注入，其中用的是双极性编码的思路，分别表示为Ongoing、Terminated和Invalid状态。Ongoing表示了机器人正在task的运行途中，而Terminated表示任务已经完成，最后的状态则代表了文字和观察内容的不相符，这也一定程度上解决了RDT所面临的一些问题。在训练的时候会随机将文不对题的instruction作为训练数据来强制让模型具备图文匹配的理解，提升了VLA中L的作用。&lt;/p&gt;
&lt;p&gt;**Co-Train：**为了实现对于OOD指令的泛化性，文中对GR-3进行了Vision-Language data的训练，这个过程当中对于VLM和DiT都进行了相应的训练，VLM用NTP（Next-Token-Prediction）作为训练目标，而Action Expert则使用FM loss进行监督训练，可以看算法图的右半部分，在这个过程当中，文中是动态混合部分VL数据在一些robot trajectory中来促进模型的泛化性学习的，其实这里让博主有些疑惑，这样的训练方式是否能够work，它到底从中能学到什么。&lt;/p&gt;
&lt;p&gt;**Few-shot：**最后文中通过少量的真机轨迹的采集和微调，实现了GR-3的few-shot能力。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image%205.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h2&gt;System&lt;/h2&gt;
&lt;p&gt;团队还特别推出了移动机器人平台ByteMini robot，实现了22自由度的双臂移动机器人本体的设计，并且还对手腕做了球轴设计实现了更加灵动的操作，并且能够实现更大的工作空间。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;Day15-Blog/image%206.png&quot; alt=&quot;image.png&quot;&gt;&lt;/p&gt;
&lt;h1&gt;总结&lt;/h1&gt;
&lt;p&gt;总的来说，GR系列的每一个工作都是这个阶段具身的集大成者，并且能够充分把算法和大规模数据训练结合，我们会发现GR-3相比前两个模型产生了非常巨大的变化，逐代演进也映射了具身的发展，从一开始纯粹的数据驱动的模型训练，到数据筛选机制介入与更大规模的训练，再到如今从数据采集到大规模数据训练、VLM+action expert的新架构，其中暗含了每一个具身时期，这个社区在关注的事情。或许未来具身社区的工作会更加注重系统观念，但或许只有这样，这个社区才可以慢下来、精心做好一整个具身智能所关乎的流程。或许在这样的发展之下，终有一天，具身会走入每家每户，成为人类社会不可或缺的一部分。&lt;/p&gt;
&lt;p&gt;&lt;img src=&quot;./Day15-Blog/image%207.png&quot; alt=&quot;vpx-logo&quot;&gt;&lt;/p&gt;
&lt;p&gt;Know about &lt;strong&gt;VapourX&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;&quot;人机合一，协同进化，化具象为抽象，寓抽象于具象。&quot;&lt;/strong&gt;&lt;/p&gt;
&lt;h1&gt;参考文献&lt;/h1&gt;
&lt;p&gt;[1] &lt;a href=&quot;https://arxiv.org/pdf/2312.13139&quot;&gt;UNLEASHING LARGE-SCALE VIDEO GENERATIVE PRE-TRAINING FOR VISUAL ROBOT MANIPULATION&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[2] &lt;a href=&quot;https://arxiv.org/pdf/2410.06158&quot;&gt;GR-2: A Generative Video-Language-Action Model with Web-Scale Knowledge for Robot Manipulation&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;[3] &lt;a href=&quot;https://arxiv.org/pdf/2507.15493&quot;&gt;GR-3 Technical Report&lt;/a&gt;&lt;/p&gt;</content:encoded><h:img src="/_astro/image3.ocFo6Hwu.png"/><enclosure url="/_astro/image3.ocFo6Hwu.png"/><author>ACondaway</author></item></channel></rss>