华人学者参与的重大突破:无视觉机器人实现复杂动作

 148    |      2025-10-29 00:54

2025 年 10 月,亚马逊 FAR 团队公布的 OmniRetarget 技术及宇树 G1 机器人的演示视频,引发了机器人领域的关注。视频中,这台身高 127 厘米、体重 35 公斤的机器人,在未启用摄像头与激光雷达的情况下,完成了搬椅子、爬平台、翻滚落地等一系列动作,整个过程持续 30 秒且姿态稳定。

你知道吗?这一突破的核心是 OmniRetarget 技术。它并非传统意义上的 “超级大脑”,而是一个开源的数据生成引擎,通过交互网格技术构建机器人、操作对象与地形的空间关系模型,将人类演示动作转化为机器人可识别的运动学参考。据公开信息,团队生成了超过 9 小时的运动轨迹数据,仅通过 5 个通用奖励项就训练出了跑酷与操作策略,能支持单手提、双手抱等 8 种搬箱姿势的精准适配。

令人惊讶的是,这项技术实现了从仿真环境到真实场景的 “零样本迁移”。也就是说,机器人在电脑中训练的技能,无需重新编程就能直接应用于实体设备,换用不同机型或地形也能自适应调整动作轨迹。Rocky Duan 等华人学者在团队中承担核心研发角色,而该团队由伯克利大学等机构的专家组成,研究覆盖感知、控制、强化学习等关键领域。

从行业影响来看,这项技术确实带来了新的可能性。以往依赖视觉传感器的机器人,在仓库角落、地下车库等光线昏暗或信号遮挡的环境中容易失效,而 OmniRetarget 技术依靠 “本体感觉” 就能完成任务,拓展了应用边界。据中国信通院相关预测,到 2045 年我国全能型人形机器人整机市场规模或达 10 万亿元量级,这类技术突破可能加速这一进程。

不过,技术突破与大规模应用之间仍有距离。宇树 G1 官方定价 9.9 万元起,搭载 23-43 个关节电机与力控灵巧手,虽具备硬件基础,但演示中的 30 秒任务与真实场景中 “连续工作 8 小时且故障率低于 0.1%” 的要求仍有差距。说实话,传统视觉依赖型机器人并非面临 “淘汰”,而是需要应对技术升级压力 —— 毕竟现有设备在成熟场景中的稳定性仍有优势。

这种技术演进背后,还有值得关注的协作模式。OmniRetarget 选择宇树 G1 作为测试平台,形成了 “算法研发与硬件制造” 的协同,且成果采取开源共享模式。这与特斯拉 Optimus 目前依赖视觉传感器的技术路径形成差异,但能否成为行业主流,还需看成本控制与实际场景验证。

宇树 CEO 王兴兴曾提及,计划明年实现机器人端茶送水、整理房间等功能。但机器人从 “实验室演示” 到 “家庭帮手”,不仅需要技术迭代,还需考虑安全标准、用户接受度等现实问题。这项技术真正改变生活,可能还需要更长时间的积累。

#秋季图文激励计划#