Figure AI推出Helix模型,让机器人“秒懂”世界!
Figure AI于周四终于揭晓了促使其与投资方之一OpenAI断绝关系的“重大突破”:Helix,一种全新的双系统AI架构,使机器人能够理解自然语言指令,并操控从未见过的物体,而无需针对每个物体进行特定的预训练或编程。
Figure AI是一家专注于构建AI赋能仿人机器人的美国初创公司,不久前刚宣布与OpenAI彻底分道扬镳,首席执行官Brett Adcock解释称,Helix在机器人智能方面的突破让这家公司不再需要与OpenAI合作。这一决定距两家公司去年宣布合作仅几个月,当时Figure AI还完成了一轮6.75亿美元融资,估值达到26亿美元,以推动其Figure 02机器人开发。
这家人形机器人公司今年早些时候获得6.75亿美元B轮融资,投资者包括OpenAI、微软、英伟达和杰夫·贝索斯,当时估值达26亿美元。据报道,该公司正寻求额外15亿美元融资,如果成功,其估值将飙升至395亿美元。
这家总部位于加州桑尼维尔(Sunnyvale)的初创公司开发了一种视觉-语言-动作(Vision-Language-Action, VLA)模型,统一了感知、语言理解和学习控制能力,使其能够进行泛化应用。
与传统机器人必须针对每项新任务进行大量编程或示范学习不同,Helix模型结合了高级推理系统和实时运动控制系统。这两个系统有效弥合了语义理解(知道物体是什么)与运动控制(知道如何操控物体)之间的差距。
Helix的突破在于其双系统架构,模仿人类认知:一个拥有70亿参数的“系统2”视觉-语言模型(VLM),处理高阶理解能力,运行频率7-9Hz(即每秒更新9次),用于结构化和复杂任务的推理,相当于“深思熟虑”;以及一个拥有8000万参数的“系统1”视觉-运动控制策略(visuomotor policy),运行频率200Hz(即每秒更新200次),将指令转化为精确的物理动作,相当于“直觉反应”。
这一突破使机器人能够随着时间推移变得更加强大,而无需频繁更新系统或训练新数据。为了展示这一技术,Figure AI发布了一段视频,展示两台Figure机器人协作整理杂货,一台机器人递物品,另一台机器人则将物品放入抽屉和冰箱。
Figure声称,这两台机器人此前并不知道它们正在处理的物品,但仍然能够识别哪些应该存放在冰箱里,哪些需要保持干燥存放。
"Helix可以泛化至任何家居物品," Adcock在社交媒体上表示。"就像人类一样,Helix能够理解语音、推理问题,并能抓取任何物体——且无需训练或额外编程。"
Figure声称,这一模型在机器人技术领域创造了多个首次突破。它能以200Hz(每秒200次)的速率持续控制整个仿人机器人上半身,包括手指、手腕、躯干和头部方向的动作。它还能让两台机器人协作处理从未见过的物体,共同完成任务。
版权声明:内容及插图归源作者所有。文章为源作者独立观点,不代表 雷电财经 立场。
温馨提示:如您对本文存在异议,或不巧侵犯了您的合法权益,请通过 [ 投稿须知 ] 联系我们删除!
下一篇:没有了