Redian新闻
>
北大具身智能新成果:无需训练,听指令就能灵活走位

北大具身智能新成果:无需训练,听指令就能灵活走位

公众号新闻
北大前沿计算研究中心 投稿
量子位 | 公众号 QbitAI

北京大学董豪团队具身导航最新成果来了:

无需额外建图和训练,只需说出导航指令,如:

Walk forward across the room and walk through the panty followed by the kitchen. Stand at the end of the kitchen

我们就能控制机器人灵活移动。

在此,机器人靠的是主动与大模型构成的“专家团队”沟通完成指令分析、视觉感知、完成估计和决策测试等一系列视觉语言导航关键任务。

目前项目主页和论文都已上线,代码即将推出:

机器人如何根据人类指令导航?

视觉语言导航涉及到一系列子任务,包括指令分析,视觉感知,完成估计和决策测试。

这些关键任务需要不同领域知识,它们环环相扣决定机器人的导航能力。

受到现实中专家讨论行为的启发,北大董豪团队提出DiscussNav导航系统。

作者首先以提示方式赋予LLM(大语言模型)和MLM(多模态大模型)专家角色和特定任务,激活它们的领域知识和能力,由此构建具备不同特长的视觉导航专家团队。

然后,作者设计了讨论问题语料库和讨论机制,遵循该机制,由LLM驱动的导航机器人可以主动发起一系列与视觉导航专家的讨论。

在每一步移动前,导航机器人都会与专家讨论来理解人类指令中要求的动作和提及的物体标志。

进而依据这些物体标志的类型有倾向性地对周围环境进行感知,指令完成情况估计,由此做出初步的移动决策。

在决策过程中,导航机器人会根据Chain-of-Thought(思维链)同时生成N个独立的预测结果,当这些预测结果之间不一致时,机器人会向决策测试专家求助,筛选出最终的移动决策。

从这个过程我们可以看到,相比传统方法需要进行额外的预训练,这个方法通过与大模型专家交互指导机器人根据人类指令移动,直接解决了机器人导航训练数据稀缺的问题

更进一步,正是由于这个特点,它也实现了零样本能力,只要遵循以上讨论流程,就能follow多样的导航指令。

以下是DiscussNav在经典的视觉语言导航数据集Room2Room上的表现。

可以看到,它显著高于所有零样本方法,甚至超过两个经过训练的方法

作者进一步在Turtlebot4移动机器人上开展真实室内场景导航实验。

凭借专家角色扮演和讨论激发出的大模型强大的语言和视觉泛化能力,DiscussNav在真实世界的表现明显优于之前最优的零样本方法和经过预训练微调的方法, 展现出良好的sim-to-real迁移能力。

通过实验,作者进一步发现,DiscussNav产生了4个强大的能力

1、识别开放世界物体,比如“白色桌子上的机械手臂”,“椅子上的泰迪熊”。

2、识别细粒度的导航标志物体,比如“厨房柜台上的植物”,“桌上的纸箱”。

3、纠正其它专家在讨论中回复的错误信息,比如标志提取专家在从导航动作序列提取导航标志前会检查并纠正被错误分解的动作序列。

4、排除不一致的移动决策,比如决策测试专家们可以根据当前环境信息从DiscussNav预测的多个不一致的移动决策中选择最合理的一个作为最终移动决定。

“仿真和大模型先验是Free Lunch”

通讯作者董豪在之前的报告中提出,深入探索如何有效利用仿真数据和大模型从海量数据中学习到的先验知识是未来具身智能研究的发展方向。

目前受限于数据规模和探索真实环境的高昂成本,具身智能研究仍将重点关注仿真平台实验和仿真数据训练。

近期大模型的进展为具身智能提供新方向,合理发掘和利用大模型中存在的语言常识和物理世界先验将推动具身智能发展。


论文地址: 
https://arxiv.org/abs/2309.11382
参考链接:
https://zsdonghao.github.io/
https://sites.google.com/view/discussnav 

「量子位2023人工智能年度评选」开始啦!

今年,量子位2023人工智能年度评选从企业、人物、产品/解决方案三大维度设立了5类奖项!欢迎扫码报名 

MEET 2024大会已启动!点此了解详情


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
​独家丨小鹏前自动驾驶AI负责人刘兰个川入职安克,负责具身智能研发《军营飞来一只白灵》&《我想我是海》想象的翅膀用视觉来做Prompt!沈向洋展示IDEA研究院新模型,无需训练或微调,开箱即用比Siri更懂iPhone!GPT-4V可“操作”手机完成任意指令,无需训练一个框架整合大脑理论 8 具身智能的未来 有生计算具身智能专场:具身智能的数据、感知模态、算法设计以及下游应用中的最新进展 | 第16届中国R会议暨2023X-AGI大会移植猪肾猴子成功存活两年!Nature发布跨物种器官移植最新成果Llama2 7B中文魔改PK:「雅意」百万指令集微调 VS「伶荔」扩词+增量预训练+指令微调NeurIPS 2023 | 北大具身智能团队提出需求驱动导航:对齐人类需求,让机器人更高效“不想变成美国那样”,英国的这项禁令就是五十步笑百步!6002 血壮山河之随枣会战 “和平运动 ”2机器人 + LLM ≠ 具身智能?冷却的不止季节(106)— 提醒CMU清华MIT引爆全球首个Agent无限流,机器人「007」加班自学停不下来!具身智能被革命苹果的 LLM-based-Agent 要如何掀起具身智能风暴?小鹏前自动驾驶 AI 负责人刘兰个川入职安克,负责具身智能研发苹果的LLM-based-Agent要如何掀起具身智能风暴?机器人研究迎来ImageNet时刻:一个数据集,让DeepMind具身智能大模型突飞猛进搜救犬二驴比赛不听指令再次火爆全网,网友:“显眼包的稳定发挥哈哈!”Agent 爆火之后,具身智能才是 AI 下一站?北大具身智能团队提出需求驱动导航,对齐人类需求,让机器人更高效7B羊驼战胜540B“谷歌版GPT”,MIT用博弈论调教大模型,无需训练就能完成真实再现生物脊柱功能,老鼠机器人也能像杰瑞一样灵活,Science Robotics 发布老鼠机器人最新研究成果北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务真格精酿回顾:如何找到具身智能商业价值创造的关键?|Z Events10余项新成果集中发布!全球航运大咖齐聚这场国际航运盛会只需29刀!Costco新服务:无需保险、不用排队,就能看病拿处方药!纽大具身智能新进展:靠视觉反馈学会开罐头,任务成功率提高135%,LeCun点赞发布不足一周 纽约市移民巴士限制令就被这样钻空子2023世界显示产业大会创新成果正式发布NeurIPS 2023 | RevCol V2: 当解耦学习遇上自监督训练,视觉预训练的思路NeurIPS 2023 | InstructBLIP:指令微调训练通用视觉-语言模型有钱的加拿大人创新成果汇聚2023世界显示产业大会:屏之光影,看见未来“视”界
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。