8月11日于世界机器人大会期间,阿里达摩院正式宣布开源其自主研发的核心技术成果:视觉-语言-动作模型RynnVLA-001-7B、环境认知模型RynnEC以及机器人上下文协议RynnRCP。
这些技术旨在解决具身智能开发中数据、模型与硬件设备间的兼容性难题,并构建完整的开发流程体系。
相关开源资源可通过指定链接获取。
当前具身智能领域虽发展迅速,但开发过程中仍存在数据接口分散、模型适配复杂等关键挑战。
达摩院创新性地将MCP(Model Context Protocol)理念引入该领域,并首次提出开源了专为机器人设计的RCP(Robotics Context Protocol)协议标准。
基于此标准构建的RynnRCP系统包含完整的服务框架与控制协议栈,可实现从传感器数据采集到动作执行全流程贯通式支持,并已实现对Pi0、GR00T N1.5等主流大模型及SO-100/SO-101系列机械臂等硬件设备的支持。
该框架主要由两大核心模块构成:其一是负责硬件层整合的RCP框架组件,通过标准化接口规范实现了机器人本体与传感器的数据互通,并兼容不同传输协议与推理服务;
其二是作为决策中枢的RobotMotion模块。
该模块能够将大模型输出的离散推理指令实时转化为高频连续控制信号,在保证运动轨迹平滑性的同时满足物理约束条件。
此外还配套提供仿真-实机一体化开发工具链,集成任务规划、同步仿真、数据回放及轨迹可视化等功能模块,显著降低策略迁移的技术门槛。
同期发布的两款大模型展现出突破性技术价值:视觉-语言-动作融合模型RynnVLA-001采用基于第一视角视频的人类操作技能预训练机制,在机械臂操控场景中可实现动作序列的连贯迁移;
环境认知模型RynnEC则通过多模态大语言模型架构赋予系统空间理解能力,在复杂场景下可精准解析物体位置关系与功能属性等11项特征维度,并支持仅凭视频流序列建立动态空间感知系统。
据悉达摩院持续加大在具身智能领域的投入力度,在系统架构与核心算法研发方面深入布局,并联合产业伙伴共同完善基础设施建设体系。
涵盖硬件适配标准制定、多模态数据采集及开发者社区运营等多维度生态建设工作正稳步推进中。
此前该团队刚于上月开源WorldVLA融合型世界动作模型,在图像语义理解与动作生成能力上取得业界关注的技术突破。
评论列表 (0条):
加载更多评论 Loading...