2025年10月6号,亚马逊那边炸出个大新闻,他们FAR机器人团队(全称FrontierAIforRobotics)刚发布的OmniRetarget技术,搭在机器人上直接来了场“盲眼”跑酷。

30秒里,这机器人没靠任何摄像头、雷达,愣是主动搬起9斤重的椅子,爬上1米高的桌子,最后还翻个跟头跳下来。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

说实话,我一开始刷到demo的时候,还以为是后期剪的,直到看了现场回放才信,这动作顺得跟提前彩排过百八十遍似的。

更绝的是它不光会耍酷,干起活也不含糊。

搬箱子的时候能精准抓稳,不用人搭手;想上桌子了,一个猛子就能跳上去;遇到坡路,手脚配合着爬也没半点卡顿。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

网友看完都炸了,说“这不比特斯拉的擎天柱强10倍?”本来想觉得这话有点夸张,后来查了下擎天柱2025年的最新情况才发现,还真没太吹,擎天柱现在做类似的“移-操一体”动作,不光要慢一倍,还得靠一堆摄像头盯着环境,反观亚马逊这个“盲眼”的,纯靠自身感知就能搞定,差距一下就显出来了。

“盲眼”能干活的关键:OmniRetarget到底是个啥?

其实这机器人能这么牛,核心全靠OmniRetarget。

老实讲,我一开始听“开源数据生成引擎”这个名字,还以为是啥特别玄乎的技术,查明白才知道,简单说就是它能把人的动作,变成机器人能学的“标准化教程”。

而且这教程还不是死的,能让机器人在复杂环境里学会“又动又操作”的技能,更厉害的是,在电脑上仿真练会了,直接就能用到真实机器人上,不用再额外调参数,行业里叫“零样本迁移”,这在人形机器人领域真不算常见。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

有人可能会问,不就是学人类动作吗?之前的技术不行吗?还真不一样。

以前的动作重定向技术,大多不管机器人和物体、环境的互动关系,比如机器人拿东西,可能手的姿势对了,但没考虑怎么避开桌子边缘。

OmniRetarget就专门解决了这个问题,它靠一个“交互网格”,把机器人、物体、地形之间的空间关系、接触关系都算进去,保证动作又像人,又能实际落地。

如此看来,网友说它比擎天柱强,核心不是动作花哨,而是技术思路更贴近实际使用场景。

技术拆解:靠“网格”学动作,用“强化学习”落地

OmniRetarget的核心逻辑分两部分,先靠“交互网格”把人类动作转成机器人能学的轨迹,再靠强化学习让机器人真的能在物理世界里做到。

先说这个“交互网格”。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

它不是咱们平时说的网格图案,而是一个算空间关系的模型。

研究人员会把机器人的关键关节,还有从物体、环境上采的点,都当成这个“网格”的顶点。

而且采点还挺讲究,物体和环境表面的点比关节点密,说是为了更精准地保证接触关系,比如机器人手碰桌子,能准确知道该用多大劲、放在哪。

这些点会用“德劳内四面体化”技术连起来,本来想以为这技术多冷门,后来发现波士顿动力之前也用过类似的,但没像这样延伸到“机器人-物体-环境”全互动。

有了网格之后,还要让机器人学动作不走样。

他们会算一个“拉普拉斯形变能”,尽量让机器人动作和人类示范的空间关系、接触关系保持一致。

每一个时间帧,都要解决一个优化问题,比如不能让机器人撞着东西、关节速度不能超限制、支撑脚不能打滑。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

而且会用上一帧的最优结果当基础,这样动作才不会卡顿。

很显然,这一步就是为了保证机器人学的动作,既像人,又符合物理规律。

然后是强化学习。

光有轨迹还不够,得让机器人真的能在现实里做到。

研究人员会给机器人输入三类信息:一是参考轨迹,比如关节该在什么位置、骨盆有没有偏;二是本体感受,比如骨盆的速度、关节现在的状态;三是上一步做了什么动作。

然后设置五类奖励,比如身体跟不跟得上参考轨迹、有没有准确拿到物体这些,保证动作质量。

同时还会故意改改物体位置、地形高度,让机器人适应不同情况,也就是“领域随机化”。

说实话,这么搞下来,机器人的泛化能力肯定比只练一个动作的强,比如今天搬这个箱子,明天换个重点的,也能应对。

实验数据也能证明这技术的实力。

在OMOMO、内部MoCap、LAFAN1这几个常用数据集上测试,OmniRetarget在穿透(比如手穿进桌子)、脚部打滑、接触保留这几个关键指标上,都比PHC、GMR、VideoMimic这些主流技术好。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

就算偶尔有点轻微穿透,强化学习也能修正过来。

下游的策略成功率更明显,比所有基线技术都高10%以上,比如搬箱任务,搭了OmniRetarget的宇树G1成功率能到92%,而用PHC的才80%。

更难得的是,用增强后的数据集训练,成功率79.1%,跟只用原始动作的82.2%差不多,说明既扩大了机器人能应对的场景,又没牺牲性能。

华人学者领衔:7个月团队交出“首秀答卷”

最让人关注的,除了技术本身,还有背后的FAR团队。

这个团队成立才7个多月,前身是著名的机器人公司Covariant,核心成员包括伯克利机器人领域的大佬PieterAbbeel,他是伯克利机器人学习实验室主任,2010年代就主导过机器人抓取强化学习的突破。

而现在FAR的研究负责人,是华人学者RockyDuan。

这里还有个背景,2024年8月,亚马逊就跟Covariant达成了合作,拿到了他们技术的非排他许可,还聘用了Covariant四分之一的员工,PieterAbbeel、PeterChen这些创始人也都加入了亚马逊。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

本来想以为这么短时间,团队可能还在磨合,没想到直接拿出了OmniRetarget这样的成果,而且是在人形机器人(足式)领域的首次尝试。

毫无疑问,这既说明亚马逊在机器人领域的布局决心,也能看出华人学者在核心技术研发中的主导作用,RockyDuan能牵头这个项目,本身就证明了他的技术实力。

结语

回头看这次OmniRetarget的首秀,它的意义不只是机器人会跑酷、会搬东西。

更重要的是,它解决了人形机器人领域两个关键难题:一是怎么让机器人更好地和物体、环境互动,二是怎么让仿真训练的成果快速落地到真实硬件。

华人学者领衔!亚马逊FAR机器人,30秒跑酷首秀惊艳

这两点要是能普及,人形机器人离实际应用,比如仓储分拣、家庭服务,就更近了一步。

说实话,一开始我还担心亚马逊做机器人只是跟风,现在看来,他们是真的在沉下心搞核心技术。

FAR团队7个月出成果,华人学者领衔核心研发,技术指标还能领先行业,这几点加起来,不难看出亚马逊的“机器人野心”。

后续要是能在更多场景落地,比如亚马逊自己的仓储物流,说不定真能改变行业格局。

我现在还挺期待他们下一步的动作,毕竟这次“盲眼”跑酷,已经把大家的期待值拉满了。

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com