AI搞定所有家务?换个房子也能行
【来源:虎嗅网】
近年来,机器人取得了显著进展,能表演杂技、跳舞、听从指令,甚至完成叠衣服、擦桌子等复杂任务。但机器人面临的最大挑战并非灵活性,而是泛化能力——在新环境中正确完成任务的能力。
想象一个你家中的清洁机器人:每个家庭布局不同,物品摆放各异,机器人必须在多个层面上实现泛化。低层面上,它需学会如何抓起未曾见过的勺子或盘子;高层面上,它要理解任务语义,如衣服应放进洗衣篮、用何种工具擦拭溢出物。实现这种能力既依赖强大的操作技能,也需要常识理解,而现实中可用于训练的数据又极其有限,这进一步增加了困难。
即使近年来的机器人在灵巧性方面有所突破,往往也是基于特定场景和相似数据训练出来的。
因此,如果我们希望机器人成为我们日常生活的一部分,在我们的家中、杂货店、办公室、医院和其他“杂乱”的环境中工作,机器人就必须具备更加强大的泛化能力。
今天,美国具身智能公司 Physical Intelligence 推出了一个基于 π0 的视觉-语言-动作(VLA)模型 π0.5,其利用异构任务的协同训练来实现广泛的泛化,可以在全新的家中执行各种任务。
实验表明,这种知识迁移对于有效的泛化至关重要,而且他们首次证明,端到端学习型机器人系统可以在全新的家庭中执行长程灵巧操作技能,例如清洁厨房或卧室。
π0.5 是如何工作的?
π0.5 背后的主要原理是异构数据的共同训练:通过在各种不同的数据源上训练 VLA 模型,不仅可以教它如何物理地执行不同的技能,还可以教它如何理解每项技能的语义背景,推断任务的高级结构,甚至从其他机器人转移物理行为。
协同训练的概念很简单:由于 VLA 源自通用的视觉语言模型(VLM),因此它们可以在包含动作、图像、文本和其他多模态标注(例如边界框)的任意组合的示例上进行训练。这包括通用的多模态任务,如图像字幕、视觉问答或物体检测;面向机器人的任务,如带有动作的机器人演示;以及“高级”机器人示例,这些示例由带有适当语义行为标记的观察结果组成。
演示还包含“口头指令”,即一个人通过自然语言一步步指导机器人完成一项复杂任务。该模型既可以对下一步要执行的语义步骤进行高级推理(类似于思路链推理),也可以进行低级预测,以向机器人的关节输出运动指令。
图|π0.5 的协同训练任务示意图,其中包括来自多种不同机器人类型的各种机器人数据源,以及包括高级子任务指令、指示和网络数据在内的多模态数据。
虽然协同训练的基本原理并非新事物,但训练一个能够广泛泛化的 VLA 需要合理地组合协同训练任务。VLA 需要由多种协同训练任务组成的“课程”,以便在所有必要的抽象层次上实现泛化。在实验中,他们训练了 π0.5 模型的不同版本,这些版本排除了完整训练混合的不同部分,只留下使用在实验中使用的相同机器人收集的移动操作数据(约 400 小时)。
图|评估完整的 π0.5 训练混合与排除各种数据源的消减相比。网络数据(WD)在泛化到分布外对象方面的差异最大,而来自其他机器人(ME 和 CE)的数据在所有评估条件下都很重要。
他们评估了两种实验条件:全面清洁任务;以及分布外泛化(OOD)评估,要求机器人将提示中指示的特定物体移入抽屉。对于这两种评估,都测量了成功率和语言理解率。在所有情况下,来自其他机器人(ME 和 CE)的数据对策略性能产生了巨大影响。在 OOD 案例中,他们还发现与包含网络数据(WD)的策略性能存在差异,这提高了机器人正确识别数据中未包含的新物体类别的能力。
为了更好地量化 π0.5 能够实现的泛化程度,他们进行了一项扩展研究,其中改变了训练数据中不同环境的数量。他们还在比较中加入了基线模型,该模型使用所有其他数据源的数据外,还直接使用来自测试环境的数据进行训练。该模型(用水平绿线表示)可以直观地了解,如果消除了泛化到新环境的挑战,VLA 在该场景中的表现如何。
图|评估在与训练混合中的其他数据集共同训练时,性能如何随训练环境的数量而变化。当使用所有可用的训练环境时(图中最右边一点),π0.5(黄色)与直接在测试环境(绿色)中训练的基线模型性能相似。
这些结果不仅表明,π0.5 的泛化性能会随着训练集中不同环境数量的增加而稳步提升,而且仅仅经过大约 100 个训练环境,它的性能就接近了直接在测试环境中训练的基线模型。
训练和推理
π0.5 构建于 π0 VLA 基础之上,经过联合训练,能同时输出动作和文本标签,因此可在高层和低层控制机器人。在运行时,它先生成一个文本形式的“高级”动作,再细化为一组连续的低级关节动作(每组称为一个 50 步的“动作块”)来执行该动作。
这一流程延续了他们此前的 Hi Robot 系统思路,不同之处在于 π0.5 将高级决策与低级控制统一由同一模型完成,类似于“思维链”模式。
模型本身包含离散自回归 token 解码和通过流匹配进行的连续解码,例如 π0。离散解码路径用于推断高级动作,而连续流匹配路径用于推断低级运动命令。
图|π0.5 使用的高层/低层推理程序。该模型首先生成一个用语言表达的高级动作,基本上是“告诉自己”应该采取什么步骤来完成任务,然后利用其流程匹配动作专家来选择运动指令。
如果换个房子试试呢?
他们通过让 π0.5 控制机械手,在训练数据中从未见过的新房屋中完成清洁任务,以评估其泛化能力。对 VLA 来说,这是极具挑战的测试。尽管 VLA 曾展现出出色的泛化能力,如理解语义指令、与人互动、组合技能等,但这些能力多在与训练环境相似的场景中实现。
此前,他们的 π0-FAST 虽能通过 DROID 系统推广到新环境,但仅限于如移动物体等简单任务。而此次实验中,π0.5 被放入全新家庭,需完成收拾碗碟、整理床铺、清洁地板等复杂任务。这些任务不仅耗时,还要求机器人执行如用海绵擦拭等复杂动作,理解任务语义,并将其拆解为多个环节,每步都需与正确的物体互动。
最后,π0.5 模型可以接受不同粒度的语言命令,从“把盘子放进水槽”这样的高级提示,到指示模型拾取特定物体或朝特定方向移动的详细单个命令。他们在下方视频中展示了一些语言跟随的示例。
下一步:更泛化的物理智能
这项工作表明,VLA 能够实现出色的泛化能力,即便面对如清洁厨房或卧室这样复杂且多变的机器人任务,也能有效应对。π0.5 能够让机器人完成在训练数据中从未遇到过的新家庭环境的清洁任务。
尽管 π0.5 还不够完美,常在高级语义推理和动作执行指令方面出现错误,但研究人员希望,通过让机器人从多样的知识来源中学习,π0.5 能够帮助我们更接近实现广泛泛化、灵活应变的物理智能。
目前,这些机器人可以通过语言反馈进行改进;未来,它们还可能借助自主经验,在更少监督的情况下不断优化,或在不熟悉的情境中主动请求帮助和建议。尽管如此,在知识迁移、模型构建技术,以及数据来源的多样性等方面,仍有大量进步空间。
参考链接:https://www.pi.website/blog/pi05
本文来自微信公众号:学术头条,作者:学术头条,整理:与可