Redian新闻
>
大语言模型的视觉天赋:GPT也能通过上下文学习解决视觉任务

大语言模型的视觉天赋:GPT也能通过上下文学习解决视觉任务

公众号新闻
机器之心报道

编辑:小舟

LLM 的能力还可以发挥到机器学习的更多子领域。

当前,大型语言模型(LLM)已经掀起自然语言处理(NLP)领域的变革浪潮。我们看到 LLM 具备强大的涌现能力,在复杂的语言理解任务、生成任务乃至推理任务上都表现优异。这启发人们进一步探索 LLM 在机器学习另一子领域 —— 计算机视觉(CV)方面的潜力。

LLM 的一项卓越才能是它们具备上下文学习的能力。上下文学习不会更新 LLM 的任何参数,却在各种 NLP 任务中却展现出了令人惊艳的成果。那么,GPT 能否通过上下文学习解决视觉任务呢?

最近,来自谷歌和卡内基梅隆大学(CMU)的研究者联合发表的一篇论文表明:只要我们能够将图像(或其他非语言模态)转化为 LLM 能够理解的语言,这似乎是可行的。


论文地址:https://arxiv.org/abs/2306.17842

这篇论文揭示了 PaLM 或 GPT 在通过上下文学习解决视觉任务方面的能力,并提出了新方法 SPAE(Semantic Pyramid AutoEncoder)。这种新方法使得 LLM 能够执行图像生成任务,而无需进行任何参数更新。这也是使用上下文学习使得 LLM 生成图像内容的首个成功方法。

我们先来看一下通过上下文学习,LLM 在生成图像内容方面的实验效果。

例如,在给定上下文中,通过提供 50 张手写图像,论文要求 PaLM 2 回答需要生成数字图像作为输出的复杂查询:


还能在有图像上下文输入的情况下生成逼真的现实图像:


除了生成图像,通过上下文学习,PaLM 2 还能进行图像描述:


还有与图像相关问题的视觉问答:


甚至可以去噪生成视频:


方法概述

实际上,将图像转化为 LLM 能够理解的语言,是在视觉 Transformer(ViT)论文中就已经研究过的问题。在 Google 和 CMU 的这篇论文中,他们将其提升到了一个新的层次 —— 使用实际的单词来表示图像。

这种方法就像建造一个充满文字的塔楼,捕捉图像的语义和细节。这种充满文字的表示方法让图像描述可以轻松生成,并让 LLM 可以回答与图像相关的问题,甚至可以重构图像像素。


具体来说,该研究提出使用经过训练的编码器和 CLIP 模型将图像转换为一个 token 空间;然后利用 LLM 生成合适的词法 token;最后使用训练有素的解码器将这些 token 转换回像素空间。这个巧妙的过程将图像转换为 LLM 可以理解的语言,使我们能够利用 LLM 在视觉任务中的生成能力。


实验及结果

该研究将 SPAE 与 SOTA 方法 Frozen 和 LQAE 进行了实验比较,结果如下表 1 所示。SPAEGPT 在所有任务上性能均优于 LQAE,且仅使用 2% 的 token。


总的来说,在 mini-ImageNet 基准上的测试表明,SPAE 方法相比之前的 SOTA 方法提升了 25% 的性能。


为了验证 SPAE 设计方法的有效性,该研究进行了消融实验,实验结果如下表 4 和图 10 所示:



感兴趣的读者可以阅读论文原文,了解更多研究内容。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
新冠未乘黄鹤去......硬核观察 #1071 研究发现更大的上下文对大语言模型来说意义不大性能超越GPT-4!谷歌推出大语言模型PaLM 2,全面升级Bard反击ChatGPT|环球科学要闻ChatGPT的朋友们:大语言模型经典论文一次读到吐幻象 or 事实 | HaluEval:大语言模型的幻象评估基准“超越”(MMCU)中文通用大语言模型测试集--国内首个多领域多任务数据集大语言模型会偷懒?新研究:上下文太长,模型会略过中间不看 | 本周论文推荐将上下文长度扩展到256k,无限上下文版本的LongLLaMA来了?生成式 AI 与大语言模型时代的 NVIDIA GPU 生态 | NVIDIA 解决方案与架构技术总监张瑞华演讲预告田渊栋团队新作:通过位置插值来扩展大语言模型的上下文窗口揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?当今存在自然,20年后难见ICLR 2023 | 大模型上下文学习的无限扩展方法:kNN Prompting如何更好地蒸馏ChatGPT模型能力:Lion闭源大型语言模型的对抗性蒸馏模型原理及实验工作介绍无限量访问GPT-4!ChatGPT企业版来了,可扩展32k上下文,代码解释器随便用ChatGPT凌晨重磅更新!GPT-3.5/4双升级:上下文飙升4倍,用API自己造插件首篇!Point-In-Context:探索用于3D点云理解的上下文学习UCLA发布SciBench,评估大语言模型的科学问题解决能力学习生成式大语言模型,东北大学自然语言处理实验室有一堂课博采众长!我全都要!Allen AI推出集成主流大语言模型的LLM-BLENDER框架对标GPT-4!谷歌发布大语言模型PaLM 2,可在手机运行,云、搜索、电邮等一网打尽!基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘5067 血壮山河之武汉会战 鏖战幕府山 36矢量数据库:企业数据与大语言模型的链接器无题大语言模型的多语言机器翻译能力分析谷歌I/O开发者大会发布全新大语言模型,反超GPT-4!办公全家桶炸裂升级,还带来了首款折叠屏手机大型语言模型技术公开课上线4讲!直播讲解ChatGPT开源平替、类GPT4低成本定制以及GPT4Tools走向计算机视觉的通用人工智能:GPT和大语言模型带来的启发剑桥、腾讯AI Lab等提出大语言模型PandaGPT:一个模型统一六种模态ChatGPT企业版来了:历史最强版本,2倍速GPT-4使用无限制、32k上下文繁复不是一种美丽语言模型悄悄偷懒?新研究:​上下文太长,模型会略过中间不看ChatGPT上下文碾压64K开源模型!UC伯克利:开源模型能力严重「虚标」|最新硬核评测曝光大型语言模型专场上线!四位AI新青年直播讲解MiniGPT-4、LLaVA、Gorilla以及大型语言模型Token危机
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。