Redian新闻
>
大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干

大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干

公众号新闻



  新智元报道  

编辑:LRS 好困
【新智元导读】让视觉语言模型(VLM)在模拟的电子世界里游玩是什么体验?让Octopus根据智能体的观测写控制代码,即可实现让VLM做家务、闯荡洛圣都。


随着游戏制作技术的不断发展,电子游戏已然成为现实世界的模拟舞台。


以游戏《侠盗猎车手》(GTA)为例,在GTA的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市)当中经历丰富多彩的生活。



然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们是否也能有一个AI视觉模型,操控GTA中的角色,成为执行任务的「玩家」呢?


GTA的AI玩家又是否能够扮演一个五星好市民,遵守交通规则,帮助警方抓捕罪犯,甚至做个热心肠的路人,帮助流浪汉找到合适的住所?


目前的视觉-语言模型(VLMs)在多模态感知和推理方面取得了实质性的进步,但它们往往基于较为简单的视觉问答(VQA)或者视觉标注(Caption)任务。这些任务设定显然无法使VLM真正完成现实世界当中的任务。



因为实际任务不仅需要对于视觉信息的理解,更需要模型具有规划推理以及根据实时更新的环境信息做出反馈的能力。同时生成的规划也需要能够操纵环境中的实体来真实地完成任务。


尽管已有的语言模型(LLMs)能够根据所提供的信息进行任务规划,但其无法理解视觉输入,极大的限制了语言模型在执行现实世界的具体任务时的应用范围,尤其是对于一些具身智能任务,基于文本的输入往往很难详尽或过于复杂,从而使得语言模型无法从中高效地提取信息从而完成任务。


而当前的语言模型对于程序生成已经进行了若干探索,但是根据视觉输入来生成结构化,可执行,且稳健的代码的探索还尚未深入。


为了解决如何使大模型具身智能化的问题,创建能够准确制定计划并执行命令的自主和情境感知系统。


来自新加坡南洋理工大学,清华大学等的学者提出了一种基于视觉的可编程智能体Octopus,其目的是通过视觉输入学习、理解真实世界,并以生成可执行代码的方式完成各种实际任务。


论文地址:https://arxiv.org/abs/2310.08588

项目网页:https://choiszt.github.io/Octopus/

开源代码:https://github.com/dongyh20/Octopus


通过在大量视觉输入和可执行代码的数据对的训练,Octopus学会了如何操控电子游戏的角色完成游戏任务,或者完成复杂的家务活动。



数据采集与训练


为了训练能够完成具身智能化任务的视觉-语言模型,研究者们还开发了OctoVerse,其包含两个仿真系统用于为Octopus的训练提供训练数据以及测试环境。


这两个仿真环境为VLM的具身智能化提供了可用的训练以及测试场景,对模型的推理和任务规划能力都提出了更高的要求。具体如下:


1. OctoGibson:

基于斯坦福大学开发的OmniGibson进行开发,一共包括了476个符合现实生活的家务活动。整个仿真环境中包括16种不同类别的家庭场景,涵盖155个实际的家庭环境实例。模型可以操作其中存在的大量可交互物体来完成最终的任务。


2. OctoGTA:

基于《侠盗猎车手》(GTA)游戏进行开发,一共构建了20个任务并将其泛化到五个不同的场景当中。通过预先设定好的程序将玩家设定在固定的位置,提供完成任务必须的物品和NPC,以保证任务能够顺利进行。


下图展示了OctoGibson的任务分类以及OctoGibson和OctoGTA的一些统计结果。


为了在构建的两个仿真环境中高效的收集训练数据,研究者构建了一套完整的数据收集系统。

通过引入GPT-4作为任务的执行者,研究者们使用预先实现的函数将在仿真环境当中采集到的视觉输入处理为文本信息提供给GPT-4,在GPT-4返回当前一步的任务规划和可执行代码后,再在仿真环境当中执行代码,并判断当前一步的任务是否完成。

如果成功,则继续采集下一步的视觉输入;如果失败,则回到上一步的起始位置,重新采集数据。


上图以OctoGibson环境当中的Cook a Bacon任务为例,展示了收集数据的完整流程。


需要指出的是,在收集数据的过程中,研究者不仅记录了任务执行过程中的视觉信息,GPT-4返回的可执行代码等,还记录了每一个子任务的成功情况,这些将作为后续引入强化学习来构建更高效的VLM的基础。


GPT-4的功能虽然强大,但并非无懈可击,错误可以以多种方式显现,包括语法错误和模拟器中的物理挑战。


例如,如图3所示,在状态#5和#6之间,由于agent拿着的培根与平底锅之间的距离过远,导致「把培根放到平底锅」的行动失败,此类挫折会将任务重置到之前的状态。


如果一个任务在10个步骤之后仍未完成,则被认定为不成功,我们会因预算问题而终止这个任务,而这个任务的所有子任务的数据对都会认为执行失败。



在收集一定规模的训练数据后,研究者利用这些数据训练出了一个具身智能化的视觉-语言模型Octopus,上图展现了完整的数据采集和训练流程。


在第一阶段,通过使用采集的数据进行监督式微调,研究者构建出了一个能够以视觉信息作为输入,遵从固定格式进行输出的VLM模型。在这一阶段,模型能够完成视觉输入信息到任务计划以及可执行代码的映射。


在第二阶段,研究者引入了RLEF(Reinforcement Learning with Environmental Feedback),通过利用先前采集的子任务的成功情况作为奖励信号,采用强化学习的算法更进一步的提升VLM的任务规划能力,从而提高整体任务的成功率。

 

实验结果

 

研究者在构建的OctoGibson环境中,对于当前主流的VLM和LLM进行了测试,下表展示了主要实验结果。



对于不同的测试模型,Vision  Model列举了不同模型所使用的视觉模型,对于LLM来说,研究者将视觉信息处理为文本作为LLM的输入,其中O代表提供了场景中可交互物体的信息,R代表提供了场景中物体相对关系的信息,GT代表使用真实准确的信息,而不引入额外的视觉模型来进行检测。


对于所有的测试任务,研究者报告了完整的测试集成功率,并进一步将其分为四个类别,分别记录在训练集中存在的场景中完成新任务,在训练集中不存在的场景中完成新任务的泛化能力,以及对于简单的跟随任务以及复杂的推理任务的泛化能力。


对于每一种类别的统计,研究者报告了两种评价指标,其中第一个为任务的完成率,以衡量模型完成具身智能任务的成功率;第二个为任务规划准确率,用于体现模型进行任务规划的能力。



此外,研究者还展示了不同模型对于OctoGibson仿真环境中采集的视觉数据的响应实例。下图展示了TAPA+CodeLLaMA,Octopus以及GPT-4V对于OctoGibson当中视觉输入生成的回复。


可以看到,相较于TAPA+CodeLLaMA以及只进行了监督式微调的Octopus模型,使用RLEF进行训练之后的Octopus模型的任务规划更加合理,即使是对于较为模糊的任务指令(find a carboy)也能提供更加完善的计划,这些表现都更进一步说明了RLEF训练策略对于提升模型的任务规划能力以及推理能力的有效性。

 


总体来说,现有的模型在仿真环境中表现出的实际任务完成度和任务规划能力依旧有很大的提升空间。研究者们总结了一些较为关键的发现:


1. CodeLLaMA能够提升模型的代码生成能力,但不能提升任务规划能力。


研究者指出,通过实验结果可以看出,CodeLLaMA能够显著的提升模型的代码生成能力。


然而,尽管一些模型使用了CodeLLaMA进行代码生成,但整体任务的成功率依然会受到自身任务规划能力的限制。


而反观Octopus,尽管未使用CodeLLaMA,代码的可执行率有所下降,但得益于其强大的任务规划能力,整体任务成功率依旧优于其他模型。


2. LLM在面对大量的文本信息输入时,处理较为困难。


在实际的测试过程中,研究者通过对比TAPA和CodeLLaMA的实验结果得出了一个结论,即语言模型很难较好地处理长文本输入。


研究者们遵从TAPA的方法,使用真实的物体信息来进行任务规划,而CodeLLaMA使用物体和物体之间的相对位置关系,以期提供较为完整的信息。


但在实验过程中,研究者发现由于环境当中存在大量的冗余信息,因此当环境较为复杂时,文本输入显著增加,LLM难以从大量的冗余信息当中提取有价值的线索,从而降低了任务的成功率。


这也体现了LLM的局限性,即如果使用文本信息来表示复杂的场景,将会产生大量冗余且无价值的输入信息。


3.  Octopus表现出了较好的任务泛化能力。


通过实验结果可以得出,Octopus具有较强的任务泛化能力,其在训练集当中未出现的新场景中完成任务的成功率和任务规划的成功率均优于已有的模型,也展现出了视觉-语言模型的一些内在优势,针对同一类别的任务,其泛化性优于传统的LLM。


4.  RLEF能够增强模型的任务规划能力。


在实验结果中,研究者们提供了只经过第一阶段监督式微调的模型以及经过RLEF训练之后模型的性能比。


可以看出,在经过RLEF训练之后,模型在需要较强的推理能力和任务规划能力的任务上,整体成功率和规划能力有了显著提升。


与已有的VLM训练策略相比,RLEF也更加的高效。上图所展示的示例也能够体现RLEF训练之后模型在任务规划能力上的提升,经过RLEF训练之后的模型能够懂得在面对较为复杂的任务时,如何在环境当中进行探索;


此外,模型在任务规划上能够更加遵从仿真环境中的实际要求(如,模型需要先移动到要交互的物体,才能开始交互),从而降低任务规划的失败比率。


讨论


消融实验


在对模型的实际能力进行评估之后,研究者们更进一步探究了一些影响模型性能的可能因素。如下图所示,研究者从三个方面开展了实验。



1. 训练参数的比重


研究者对比了只训练视觉模型与语言模型的连接层,训练连接层和语言模型,以及完整训练的模型的性能。


可以看出,随着训练参数的增加,模型的性能逐渐获得了提升。这说明,训练参数的多少对于模型是否能够在一些固定的场景当中完成任务至关重要。


2. 模型的大小


研究者们比较了较小的3B参数模型与基线7B模型在两个训练阶段的性能差异。通过比较可以看出,当模型整体参数量较大时,模型的性能也会得到明显的提升。


如何选定合适的模型训练参数,使得模型能够拥有完成对应任务的能力,同时也能够保证模型的轻量化和较快的推理速度,将是未来VLM领域研究中较为关键的一点。


3. 视觉输入的连续性


为了探究不同的视觉输入对于实际VLM性能的影响,研究者对视觉信息的输入顺序进行了实验。


在测试的过程中,模型会在仿真环境当中顺序转动,采集第一视角图像,并采集两张鸟瞰图,之后这些视觉图像会按顺序输入VLM当中。


而在实验中,当研究者随机打乱视觉图像顺序再输入VLM中时,VLM产生了较大的性能损失。


这一方面说明了完整且结构化的视觉信息对于VLM的重要性,另一方面也从某种程度上反映了VLM在对视觉输入进行响应时需要依靠视觉图像的内在联系,而一旦这种视觉上的联系被破坏,将会极大的影响VLM的表现。


GPT-4 & GPT-4V(ision)


此外,研究者还对GPT-4以及GPT-4V在仿真环境当中的性能进行了测试和统计。


1. GPT-4


针对GPT-4,在测试过程中研究者提供与使用其采集训练数据时完全相同的文本信息作为输入。在测试任务上,GPT-4能够完成一半的任务,这一方面说明现有的VLM相对于GPT-4这样的语言模型,从性能上还有很大的提升空间;


另一方面也说明,即使是GPT-4这样性能较强的语言模型,在面对具身智能任务时,其任务规划能力和任务执行能力依然需要更进一步的提升。


2. GPT-4V


由于GPT-4V刚刚发布可以直接调用的API,研究者还没来得及尝试,但是研究者们之前也手动测试了一些实例来展现GPT-4V的性能。


通过一些示例,研究者认为GPT-4V对于仿真环境当中的任务具有较强的零样本泛化能力,也能够根据视觉输入生成对应的可执行的代码,但其在一些任务规划上稍逊色于在仿真环境采集的数据上微调之后的模型。


局限性


研究者们指出了目前工作的一些局限性。


1. 当前的Octopus模型在较为复杂的任务上性能并不令人满意。在面对复杂任务时,Octopus往往会做出错误的规划,并且严重依赖于环境给出的反馈信息,最终往往难以完成整体的任务。


2. Octopus模型仅在仿真环境当中进行训练,而如何将其迁移到真实世界当中将会面临一系列的问题。例如,真实环境当中模型将难以得到较为准确的物体相对位置信息,如何构建起物体对于场景的理解将变得更加困难


3. Octopus目前的视觉输入为离散的静态图片,如何使其能够处理连续的视频将是未来的挑战。


连续的视频可以更进一步提高模型完成任务的性能,但如何高效地处理和理解连续视觉输入将成为进一步提升VLM性能的关键。

参考资料:
https://arxiv.org/abs/2310.08588




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
让AI模型成为GTA五星玩家,基于视觉的可编程智能体Octopus来了小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大一百二十六 父亲来校新加坡南洋理工和国立大学「2024年本科申请时间与要求」汇总!3D视频人物肖像生成新突破!港科大、清华等发布AniPortraitGAN,面部表情、肩部运动全可控首创pix2emb范式!NUS清华联合发布NExT-Chat:对话/检测/分割全能多模态大模型红色日记 九大召开 4.1-30多LLM协同作战!清华等开源多智能体框架AgentVerse:合作打造Minecraft物品,还能训练宝可梦南洋理工大学刘杨教授:没有安全,AI 难落地;没有 AI,安全难保障丨GAIR 2023《有你真好》&《千年一梦》100万悬赏AI界喜剧之王!北邮、南洋理工等发布「沙雕视频」数据集FunQA:用算法学习人类幽默用魔法打败魔法,南洋理工大学学者首次实现全自动化攻陷各大厂商大模型聊天机器人专注图表理解,腾讯、南洋理工等开源图表羊驼大模型ChartLlama【C1->AV 15% Bonus; UR->BA 30% Bonus; MR->AF 25% Bonus】转点奖励活动汇总南洋理工大学招收机器学习方向博士后/博士生/研究助理大模型集体失控!南洋理工新型攻击,主流AI无一幸免北大等发布最新AI智能体Jarvis-1,制霸「我的世界」科研上新 | 第2期:可驱动3D肖像生成;阅读文本密集图像的大模型;文本控制音色;基于大模型的推荐智能体这可太洛圣都了!DPU:存储、网络等可编程关键应用一百二十五 退学很绅士、做家务、不骚扰,我为什么也要被“厌男”?北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型ICCV 2023|南洋理工大学开源大规模语言视频分割数据集MeViS【喜报】J同学喜获南洋理工访学offer | 科藤留学Meta重磅更新,小扎在元宇宙里养了会做家务的狗!人形化身超逼真,AI智能体在真实物理世界和人互动携帯失而复得任正非路过实验室,发现一名员工在打游戏:这电脑打游戏卡不卡?员工:研发重地,请您离开我的眼睛就是尺!80亿参数OtterHD带你「清明上河图」数骆驼!南洋理工华人团队打造南洋理工最新Matter: 可编程离散单元组装的复杂三维曲面李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型聚焦 | 新加坡南洋理工大学刘宏教授解读“中国与全球南方——跨界治理的视野和知识转移的实践”西交、清华等发布多模态大模型,有望成为「DALL·E 4」技术路线?和AI一起「白日作梦」任正非路过实验室,发现华为员工在打游戏:这电脑打游戏卡不卡?员工:研发重地,请您离开中国石化与新加坡南洋理工大学梦幻联动,助力能源至净
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。