Figure人形机器人首次公开演示了全新技能——通过神经网络自主折叠衣物。
值得关注的是,在未对原有架构进行任何修改的情况下,仅通过增加训练数据量就让原本专注于物流场景的机器人掌握了这项新能力。
当操作开始时,机械臂灵巧地从杂乱的毛巾堆中精准抓取目标物体,并通过拇指沿边抚平、提拉四角、整理褶皱等连贯动作完成折叠操作。
整个过程实现了从视觉感知到动作执行的端到端闭环控制。
此前两个月该机器人在物流分拣任务中已展现出卓越能力:面对形态各异的包裹能持续高效完成识别抓取、翻转摆放等操作长达一小时之久,在灵活性与作业速度上已接近人类水平。
而此次挑战的衣物折叠任务则更具技术难度——柔软织物易变形、无固定抓取点且表面容易产生褶皱缠绕等问题对机器人的感知精度与运动控制提出了更高要求。
此次技术突破主要体现在三个方面:首先实现了无需显式物体表征的端到端控制;
其次通过强化学习策略解决了高度可变物体的操作不确定性;
最后在实时环境反馈机制上取得显著进展。
值得注意的是其核心Helix架构未作任何修改——该由视觉语言动作(VLA)模型构成的双系统框架自研发以来已展现出强大泛化能力:同一模型既可精准完成物品分拣、抽屉操控等精细操作,又能协调多机协作完成复杂任务,并支持数千种新物体的快速适配。
为提升物流场景适应性,研发团队对Helix架构进行了针对性优化:新增视觉记忆模块可整合连续视频帧特征形成短期记忆库;
状态历史追踪系统通过循环观测融合提升动作连续性;
力反馈机制则使机械臂能根据接触压力动态调整运动轨迹(如检测到传送带接触时自动暂停下压动作)。
这些改进共同构建了更精准稳定的闭环控制系统。
虽然叠衣功能看似寻常(此前特斯拉Optimus及WRC展会上已有类似演示),但结合此前展示的洗衣操作能力后不难发现:Figure机器人正逐步完善家庭服务场景全流程闭环。
随着现实世界训练数据规模持续扩大和技术迭代加速,在提升操作速度与环境适应性方面仍有广阔探索空间——未来或许还能期待晾衣、整理床铺等更多生活场景应用落地。
参考链接: [1]https://www.figure.ai/news/helix-learns-to-fold-laundry [2]https://x.com/adcock_brett/status/1955291307758489909
评论列表 (0条):
加载更多评论 Loading...