Redian新闻
>
Meta重磅更新,小扎在元宇宙里养了会做家务的狗!人形化身超逼真,AI智能体在真实物理世界和人互动

Meta重磅更新,小扎在元宇宙里养了会做家务的狗!人形化身超逼真,AI智能体在真实物理世界和人互动

公众号新闻



  新智元报道  

编辑:Aeneas 好困
【新智元导读】今天,Meta重磅发布了Habitat 3.0,经它训练的AI智能体,学会了找人,还能帮人打扫房间。社交智能机器人,进入下一个里程碑!

今天开始,人类离帮忙做家务的机器人,又近了一步!
Meta宣布推出Habitat 3.0,目的是开发出社会化的AI智能体,这意味着社交智能机器人已经进入新的里程碑阶段。
这些具身智能背后的关键,当然就是AI Agent。有了它们,机器人可以和人类协作,帮人类完成日常任务。

论文地址:https://ai.meta.com/static-resource/habitat3

项目地址:https://github.com/facebookresearch/habitat-lab/tree/v0.3.0
其实,Meta在今天同时宣布了三项重大进展——
1. Habitat 3.0是第一个支持在多样化、逼真的室内环境中,就人机交互任务进行大规模训练的模拟器。
它能同时支持机器人和人形化身,让人类和机器人在家庭环境中协作,比如帮忙打扫房间。
2. Habitat合成场景数据集(HSSD-200),是由艺术家创造的三维数据集,包含211个场景中466个语义类别的18,000多个对象。
HSSD-200在同类数据集中质量最高,可以训练导航智能体,对物理世界三维重建场景的泛化效果非常好,使用的场景数量也要少两个数量级。
3. HomeRobot则是一个家用机器人助手硬件和软件平台,非常经济实惠,机器人可以在模拟和物理世界环境中,执行开放的词汇任务。
在大规模学习上,Habitat 3.0在单GPU上每秒可以完成超过1000步。

网友:能干家务的机器人什么时候出来

网友们表示:这是机器人技术的重大飞跃。
还有人感慨:这是非常高级的模拟人生游戏。
已经有人期待在Meta Quest VR中体验 Habitat 3.0了。
Dream一下,家政辅助机器人应该不远了。

Habitat 3.0

利用Habitat 3.0,Meta不仅在外貌和姿势上对人类进行了真实的模拟。
而且,还支持从简单(如行走和挥手)到复杂(如与物体交互)等各种类型的动作,并兼容动捕。
此外,虚拟化身还可以通过程序进行控制,并且不会出现性能下降——人-机模拟速度跟机器人-机器人模拟速度类似。

人在回路

Habitat 3.0的另一个关键特征,就是「人在回路」了。
通过鼠标、键盘或VR,我们可以实现效果惊人的人机交互控制。
完成任务后,系统会收集机器人的策略和数据,并进行人机交互的评估。

社交任务

此外,Habitat 3.0还可以模拟多种真实的社交场景。
比如在被称为社交导航的任务中,机器人需要在保持安全的同时找到并跟随人类。
在另一项任务中,机器人需要和人类共同协作,完成诸如整理房间的任务。
这时人和机器人需要分别走到目标位置,其中,机器人需要想办法尽可能高效地和人类共同实现这一目标。
经过训练的机器人,可以实现各种社会行为!
除了能和人类保持安全距离外,机器人还会在必要时自己后退,给人类留出走路的空间。

让AI智能体在真实世界和人类互动

以往,当我们想到AI助手时,想到的通常是基于网络的聊天机器人,或者智能扬声器。
而Meta的研究者们一直希望实现具备通用智能的具身AI Agent,让它们可以感知环境,在数字和物理世界中和人类沟通、帮助人类。
其中一个愿景,就是做出全天可穿戴的AR头显,供人类使用。
另外,研究者们还在改进社交智能机器人背后的技术,让它们帮人类干家务,还能适应人类对于伴侣要求的个性化偏好。
工作主要集中在深入研究嵌入式系统,让下一代的AR和VR体验更佳。
不过,在物理硬件(无论是机器人还是AR眼镜)上与真人一起训练和测试具身AI智能体,会有一些可扩展性限制,还可能存在安全问题。
这就需要建立标准化的基准程序。
因此,Meta的研究者们开发了一套新工具,用于跨模拟器、数据集的机器人研究。
他们还开发了一个包含软硬件的技术堆栈,让这方面的研究更容易,也更实惠。
为了快速提高机器人能力,研究者在模拟器中开发和测试新的算法和模型,然后移植到实体机器人上。
几年以来,Habitat模拟器取得了许多显著的进步。
在Habitat 1.0训练的虚拟机器人,能以每秒超过10,000步(SPS)的速度,在物理世界房屋的三维扫描中导航。
Habitat 2.0 引入了交互式环境(例如,可拿起的物品、可打开的抽屉),并训练虚拟机器人通过重新排列物品来清理房屋。
Habitat 3.0在此基础更进一步,能够同时支持机器人和人形化身,实现人机协作完成日常任务,比如整理客厅、在厨房准备食谱。
这就开辟了新途径,研究人类与机器人在多样化、逼真、视觉和语义丰富的任务中的协作。
另外,Habitat 3.0还支持具有逼真外观、自然步态和动作的人形化身,可以模拟逼真的低级和高级交互。
这些人形化身既可由学习到的策略控制,也可由真人通过「human-in-the-loop」界面进行控制。
这个界面支持键盘、鼠标以及VR头显。
人与机器人在模拟环境中的共存,使人类能够首次在类似家庭的环境中,在有人形化身存在的情况下,学习机器人AI策略,完成日常任务,并对其进行评估。
这无疑具有重大意义——
1. 强化学习算法通常需要数百万次的迭代,才能学习到有意义的知识,因此在物理世界中进行这些实验可能,需要数年时间。
而在模拟实验中,几天就能完成。
2. 在物理世界的不同房屋中收集数据是不切实际的,因为这需要将机器人移动到不同的地方,还要设置环境。
而在模拟中,可以在几分之一秒内改变环境,然后立马在新环境中开始实验。
3. 如果模型没有训练好,机器人就有可能破坏环境,或者伤害物理世界中的人。
而模拟器能够让研究者在安全的环境中测试方法,然后再将其部署到物理世界中,这样就保证了安全。
4. 当今最先进的AI模型,需要大量数据进行训练,而模拟使研究者能够轻松地扩大数据收集规模。
而在物理世界中,数据收集的成本可能相当高,速度也会很慢。
而且,研究者还提出了两个高度相关的任务和一套基准,以建立社会化具身AI领域的基准。
第一个任务是「社交整理」,涉及机器人和人形化身协同工作,执行一系列拾放任务,比如清理房屋。
在这项任务中,机器人和人类必须协调行动,以实现共同目标。大规模的模拟训练后,就会产生这种智能行为。
第二项任务是「社交导航」,让机器人在保持安全距离的情况下,定位并跟踪一个人。

Habitat合成场景数据集

三维场景数据集对于在模拟环境中训练机器人来说至关重要。
目前,虽然已经有不少数据集可支持对训练数据进行扩展,但我们并不了解数据集规模与真实性之间的权衡。
为此,Meta推出了一个全新的合成三维场景数据集——HSSD-200。
它由211个代表实际室内环境的高质量三维场景组成,包含了来自466个语义类别的18,656个物理世界物体模型。与之前的数据集相比,更加接近真实的物理场景。
具体来说,HSSD-200提供了更高质量,且完全由人工制作的3D室内场景,并包括了与WordNet本体相对应的细粒度语义分类。
此外,HSSD-200的资产压缩功能,还可实现高性能的人工智能模拟。
场景方面,HSSD-200采用了Floorplanner室内设计界面进行制作,布局主要是对实际房屋的再现。
其中,单个对象由专业的3D艺术家创建,在大多数情况下与实际的家具和电器相匹配。
实验表明,规模较小但质量较高的HSSD-200数据集,可以生成以物品为导航目标的(ObjectNav)智能体,其性能可与在规模更大的数据集上训练的智能体相媲美。
而且,在HSSD-200上训练智能体所需的场景数量,要少2个数量级——
与使用10,000个ProcTHOR场景训练出的智能体相比,使用122个HSSD-200场景训练出的智能体对HM3DSem物理世界场景的泛化效果更好。

HomeRobot

共用、共享平台是机器学习进步的重要组成部分,但在机器人领域,由于很难复制和扩展硬件成果,因此十分缺少类似的平台。
对此,Meta为可重现的机器人研究平台提出了三个目标:
- 一颗激励人心的北极星:
平台需要提供具有指导性的北极星任务,以此激励研究人员并帮助他们开展工作。其中,他们还可以在有趣的真实世界问题上对各种方法进行比较。
比如「开放词汇移动操纵(OVMM)」——在任意未知的环境中拾取物体,并将其放到指定位置。这需要非常强大的长期感知能力和场景理解能力,而且对各类的任务都非常有用。
- 软件能力:
平台需要提供一些抽象界面,使机器人更容易用于各种任务,包括导航和操作。
- 社区:
平台需要鼓励开发者参与进去,并尝试围绕代码库建立一个社区。
为了推动这一领域的研究,Meta推出了一个全新的HomeRobot库,实现了对Hello Robot Stretch的导航和操纵功能的支持。

项目地址:https://github.com/facebookresearch/home-robot
具体来说,HomeRobot有两个组件:
1. 模拟组件:提在新的、高质量的多房间家庭环境中使用大量且多样的对象集;
2. 物理世界组件:为低成本的Hello Robot Stretch以及波士顿动力公司的产品提供软件堆栈,以鼓励在各实验室之间复制物理世界实验。
此外,HomeRobot还提供了一个非常友好的软件栈,从而让用户能够快速设置机器人,并立即进行测试。其特点包包括:
- 可移植性:
每项任务的模拟和物理世界设置之间都有统一的状态和动作空间,为使用高层次的动作空间(如预设抓取策略)或低层次的连续关节控制来操作机器人,提供了简便的方法。
- 模块化:
感知和行动组件支持高层次的状态(如语义地图、分割点云)和高层次的行动(如前往目标位置、拾取目标物体)。
- 基准智能体:
使用这些功能为OVMM提供基本功能的策略,以及构建更复杂智能体的工具,其他团队可以在此基础上进行开发。
在HomeRobot OVMM基准中,智能体可在家居环境中抓取新奇物品,并将其放入或放在目标容器中。
其中,Meta采用强化学习和启发式(基于模型)基线,展示了导航和放置技能可以从模拟到物理世界转移。结果表明,基线可以在物理世界中实现20%的成功率。
参考资料:
https://ai.meta.com/blog/habitat-3-socially-intelligent-robots-siro/




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
重磅! Meta官宣: 2024加速扩招! 需要懂人工智能/元宇宙人才...哈佛大学首席面试官到底是个什么鬼?Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树英伟达DLSS 3.5发布!全新AI「光线重建」实现超逼真光影,新老显卡都支持英伟达爆火智能体研究:AI逼真还原人类情感!会饿会孤独,会跑步会发火韩国元宇宙学会:目标跻身全球元宇宙市占率前五首个精通3D任务的具身通才智能体:感知、推理、规划、行动统统拿下街上被人认出; 放弃移民美国英国皇家工程院国际院士、欧洲科学院院士许彬:未来虚拟世界将以沉浸式方式与物理世界共存小扎深夜炸场,世界首款MR头显暴打Vision Pro!Meta版ChatGPT搬进「元宇宙」,网红神器眼镜高能现身一文看懂什么是物联网预言机:DePIN的重要基石,连接物理世界与Web3.0的桥梁特斯拉人形机器人大更新,给世界一点小震撼,但量产还很遥远|焦点分析青铜动物雕塑,超逼真~《握住世界的手》&《我爱长春》500万美元的退休生活GPT-4肆虐「谁是卧底」桌游!交谈逼真,类人属性仍有发展空间劝你偷懒不做家务的理由,我又又又给你找到了【评论抽奖送取暖器!】逼真到可怕!Gen-2史诗级更新,手搓4K好莱坞大片,Midjourney梦幻联动,CEO:创意软件时代已死文生3D模型大突破!MVDream重磅来袭,一句话生成超逼真三维模型多国发布元宇宙相关规划,迪拜战略吸引1000+元宇宙公司大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干荷叶小扎元宇宙1小时「真人对谈」载入史册!13个月超进化,表情模拟2.0,连头发丝都根根分明“物理网红”张朝阳重庆大学讲物理:现代人需要对物理有所了解Meta版ChatGPT来了:Llama 2加持,接入必应搜索,小扎现场演示陈十一院士:软件把离散世界和真实世界连在一起扎克伯格在元宇宙里一小时的「真人对话」,惊艳了全世界PICO大裁员:头显先被关在元宇宙大门里成绩是一时的,但生活能力是一辈子的,父母一定要从小教孩子做家务的能力家里养了只金毛,女儿每天从学校回来八百趟…老妈无语:干脆带它上学得了香港科技大学校董会主席、美国国家工程院外籍院士沈向洋:未来世界将由人工智能体和人类共同打造元宇宙交流与实验室:2023教育元宇宙发展研究报告曾全网刷屏的“被逼洗内裤”男孩,如今保送清华了:会做家务的孩子,长大不会差AI无人机竞速击败人类冠军,Nature封面:将AlphaGo成果带到物理世界乖乖小狗和傻敷敷狗!我怎么不是只小狗!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。