Redian新闻
>
阿里大模型又开源!能读图会识物,基于通义千问7B打造,可商用

阿里大模型又开源!能读图会识物,基于通义千问7B打造,可商用

公众号新闻
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

阿里开源大模型,又上新了~

继通义千问-7B(Qwen-7B)之后,阿里云又推出了大规模视觉语言模型Qwen-VL,并且一上线就直接开源。

具体来说,Qwen-VL是基于通义千问-7B打造的多模态大模型,支持图像、文本、检测框等多种输入,并且在文本之外,也支持检测框的输出。

举个🌰,我们输入一张阿尼亚的图片,通过问答的形式,Qwen-VL-Chat既能概括图片内容,也能定位到图片中的阿尼亚。

测试任务中,Qwen-VL展现出了“六边形战士”的实力,在四大类多模态任务的标准英文测评中(Zero-shot Caption/VQA/DocVQA/Grounding)上,都取得了SOTA。

开源消息一出,就引发了不少关注。

具体表现如何,咱们一起来看看~

首个支持中文开放域定位的通用模型

先来整体看一下Qwen-VL系列模型的特点:

  • 多语言对话:支持多语言对话,端到端支持图片里中英双语的长文本识别;

  • 多图交错对话:支持多图输入和比较,指定图片问答,多图文学创作等;

  • 首个支持中文开放域定位的通用模型:通过中文开放域语言表达进行检测框标注,也就是能在画面中精准地找到目标物体;

  • 细粒度识别和理解:相比于目前其它开源LVLM(大规模视觉语言模型)使用的224分辨率,Qwen-VL是首个开源的448分辨率LVLM模型。更高分辨率可以提升细粒度的文字识别、文档问答和检测框标注。

按场景来说,Qwen-VL可以用于知识问答、图像问答、文档问答、细粒度视觉定位等场景。

比如,有一位看不懂中文的外国友人去医院看病,对着导览图一个头两个大,不知道怎么去往对应科室,就可以直接把图和问题丢给Qwen-VL,让它根据图片信息担当翻译。

再来测试一下多图输入和比较:

虽然没认出来阿尼亚,不过情绪判断确实挺准确的(手动狗头)。

视觉定位能力方面,即使图片非常复杂人物繁多,Qwen-VL也能精准地根据要求找出绿巨人和蜘蛛侠。

技术细节上,Qwen-VL是以Qwen-7B为基座语言模型,在模型架构上引入了视觉编码器ViT,并通过位置感知的视觉语言适配器连接二者,使得模型支持视觉信号输入。

具体的训练过程分为三步:

  • 预训练:只优化视觉编码器和视觉语言适配器,冻结语言模型。使用大规模图像-文本配对数据,输入图像分辨率为224x224。

  • 多任务预训练:引入更高分辨率(448x448)的多任务视觉语言数据,如VQA、文本VQA、指称理解等,进行多任务联合预训练。

  • 监督微调:冻结视觉编码器,优化语言模型和适配器。使用对话交互数据进行提示调优,得到最终的带交互能力的Qwen-VL-Chat模型。

研究人员在四大类多模态任务(Zero-shot Caption/VQA/DocVQA/Grounding)的标准英文测评中测试了Qwen-VL。

结果显示,Qwen-VL取得了同等尺寸开源LVLM的最好效果。

另外,研究人员构建了一套基于GPT-4打分机制的测试集TouchStone

在这一对比测试中,Qwen-VL-Chat取得了SOTA。

如果你对Qwen-VL感兴趣,现在在魔搭社区和huggingface上都有demo可以直接试玩,链接文末奉上~

Qwen-VL支持研究人员和开发者进行二次开发,也允许商用,不过需要注意的是,商用的话需要先填写问卷申请。

项目链接:
https://modelscope.cn/models/qwen/Qwen-VL/summary
https://modelscope.cn/models/qwen/Qwen-VL-Chat/summary
https://huggingface.co/Qwen/Qwen-VL
https://huggingface.co/Qwen/Qwen-VL-Chat
https://github.com/QwenLM/Qwen-VL

论文地址:
https://arxiv.org/abs/2308.12966


「量子位智库·仿生机器人沙龙」招募中

9月6日,「量子位智库·仿生机器人沙龙」将在北京中关村举办,欢迎全行业仿生机器人玩家参与 ~

点击图片了解详情,企业报名可联系活动负责人王琳玉(微信:iris_wang17,请备注企业+姓名)。沙龙观众通道后续开放,敬请期待 ~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大模型访问链接汇总:通义千问开放!最好的7B模型易主,笔记本轻松跑,免费开源可商用,来自“欧洲的OpenAI”阿里云通义千问向全社会开放;OpenAI被作家起诉侵犯版权;工信部启动AGI等4大未来产业揭榜挂帅|AIGC周观察第十九期阿里云通义千问140亿参数Qwen-14B发布;TCL中环签约首个绿电园区项目|绿研院日报650亿参数大模型预训练方案开源可商用!LLaMA训练加速38%,来自明星开源项目阿里云开源「通义千问」大模型;马斯克:特斯拉有望年底实现完全自动驾驶;妙鸭相机上线 B 端工作站 | 极客早知道人手一个编程助手!北大最强代码大模型CodeShell-7B开源,性能霸榜,IDE插件全开源《走过百年》&《漫天樱花飞》中文版开源Llama 2同时有了语言、多模态大模型,完全可商用智能周报|OpenAI发布ChatGPT企业版,预计今年营收10亿美元;首批11家国产大模型「获批」,不包括阿里巴巴通义大模型第四章 三民主义救中国 (1)通义千问能看图了!阿里云开源视觉语言大模型Qwen-VL ,支持图文双模态输入阿里云开源通义千问多模态视觉模型,号称“远超同等规模通用模型表现”苹果已研究生成式AI多年/阿里云开源通义千问70亿参数模型/新一代Switch最早本月宣布中文LLaMA-2刷榜,开源可商用!千元预算,训练半天,效果媲美主流大模型Meta“搞大事”了:发布GPT“平替”Llama 2,开源、免费、还可商用!全球首个可商用生物医药大模型BioMedGPT-10B开源雨夜賞燈記百川开源最强中英文百亿参数模型!超越LLaMA,中国开源大模型开启商用新纪元通义千问能看图了!阿里云开源视觉语言大模型 Qwen-VL ,支持图文双模态输入阿里云通义千问开源;腾讯混元大模型开始应用内测;马斯克或从OpenAI买入域名Ai.com丨AIGC大事日报免费、可商用,阿里云开源70亿参数通义千问大模型32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”LangChain+通义千问+AnalyticDB向量引擎保姆级教程5101 血壮山河之武汉会战 浴血田家镇 9阿里云开源通义千问,曲阜师大室温超导实验未得出零电阻,特斯拉或年底完全自动驾驶,印度限制进口笔记本平板,这就是今天的其他大新闻!爱奇艺VR公司业务停滞,员工或被欠薪;阿里云开源通义千问 70 亿参数模型,免费可商用;华为正式发布鸿蒙 4,接入大模型|Q资讯百度华为阿里等入选大模型“国家队”;盘古大模型3.0发布;阿里云推AI绘画大模型丨AIGC大事日报首个可商用的32k上下文开源大模型「长颈鹿」来了,两万词长文不在话下阿里云通义千问全面开放|首席资讯日报台湾剧《造浪者》苹果公布第三财季业绩:营收818亿美元;马斯克:有望年底实现完全自动驾驶;阿里云宣布通义千问开源;星巴克中国回应被瑞幸反超...未央播报 | 25日起存量首套房贷利率批量下调 阿里云宣布开源通义千问14B模型国产语音对话大模型来了:李开复零一万物参与,中英双语多模态,开源可商用王小川大模型25天再升级!13B版本开源免费可商用,3090即可部署
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。