Redian新闻
>
零一万物发布Yi-VL多模态语言模型并开源,测评仅次于GPT-4V

零一万物发布Yi-VL多模态语言模型并开源,测评仅次于GPT-4V

公众号新闻

作者 | 褚杏娟

1 月 22 日,零一万物发布 Yi Vision Language(Yi-VL)多模态语言大模型,并正式面向全球开源。Yi-VL 模型基于 Yi 语言模型开发,包括 Yi-VL-34B 和 Yi-VL-6B 两个版本。

测评:仅次于 GPT-4V

根据零一万物消息,Yi-VL 模型在英文数据集 MMMU 和中文数据集 CMMMU 上取得了领先成绩,在处理复杂跨学科任务上有很好表现。

MMMU(全名 Massive Multi-discipline Multi-modal Understanding & Reasoning 大规模多学科多模态理解和推理)数据集包含了 11500 个来自六大核心学科(艺术与设计、商业、科学、健康与医学、人文与社会科学以及技术与工程)的问题,涉及高度异构图像类型和交织文本图像信息,对模型的高级知觉和推理能力提出了极高要求。

Yi-VL-34B 在该测试集上以 41.6% 的准确率超越了一系列多模态大模型,仅次于 GPT-4V(55.7%)。



来源:https://mmmu-benchmark.github.io

同样,在针对中文场景打造的 CMMMU 数据集上,Yi-VL 模型再次展现“更懂中国人”的优势。CMMMU 包含了约 12000 道源自大学考试、测验和教科书的中文多模态问题。其中,GPT-4V 在该测试集上的准确率为 43.7%, Yi-VL-34B 以 36.5% 的准确率紧随其后。



来源:https://cmmmu-benchmark.github.io/

Yi-VL 模型在图文对话等多元场景中的表现如何?我们先看两个范例:


可以看到,基于 Yi 语言模型的强大文本理解能力,只需对图片进行对齐,就可以得到不错的多模态视觉语言模型。零一万物表示,这也是 Yi-VL 模型的核心亮点之一。

架构设计

在架构设计上,Yi-VL 模型基于开源 LLaVA 架构,包含三个主要模块:

  • Vision Transformer(简称 ViT)用于图像编码,使用开源的 OpenClip ViT-H/14 模型初始化可训练参数,通过学习从大规模“图像 - 文本”对中提取特征,使模型具备处理和理解图像的能力。

  • Projection 模块为模型带来了图像特征与文本特征空间对齐的能力。该模块由一个包含层归一化(layer normalizations)的多层感知机(Multilayer Perceptron,简称 MLP)构成。这一设计使得模型可以更有效地融合和处理视觉和文本信息,提高了多模态理解和生成的准确度。

  • Yi-34B-Chat 和 Yi-6B-Chat 大规模语言模型的引入为 Yi-VL 提供了强大的语言理解和生成能力。该部分模型借助先进的自然语言处理技术,能够帮助 Yi-VL 深入理解复杂的语言结构,并生成连贯、相关的文本输出。

在训练方法上,Yi-VL 模型的训练过程分为三个精心设计的阶段,旨在全面提升模型的视觉和语言处理能力。

  • 第一阶段:零一万物使用 1 亿张的“图像 - 文本”配对数据集训练 ViT 和 Projection 模块。在这一阶段,图像分辨率被设定为 224x224,以增强 ViT 在特定架构中的知识获取能力,同时实现与大型语言模型的高效对齐。

  • 第二阶段:零一万物将 ViT 的图像分辨率提升至 448x448,这一提升让模型更加擅长识别复杂的视觉细节。此阶段使用了约 2500 万“图像 - 文本”对。

  • 第三阶段:零一万物开放整个模型的参数进行训练,目标是提高模型在多模态聊天互动中的表现。训练数据涵盖了多样化的数据源,共约 100 万“图像 - 文本”对,确保了数据的广泛性和平衡性。

零一万物技术团队同时也验证了可以基于 Yi 语言模型强大的语言理解和生成能力,用其他多模态训练方法,比如 BLIP、Flamingo、EVA 等,快速训练出能够进行高效图像理解和流畅图文对话的多模态图文模型。

Yi 系列模型可以作为多模态模型的基座语言模型,给开源社区提供一个新的选项。同时,零一万物多模态团队正在探索从头开始进行多模态预训练,以更快接近、超过 GPT-4V,达到世界第一梯队水平。

目前,Yi-VL 模型已在 Hugging Face、ModelScope 等平台上向公众开放,用户可通过以下链接亲身体验这款模型在图文对话等多元场景中的表现。

Yi-VL 模型地址:

https://huggingface.co/01-ai

https://www.modelscope.cn/organization/01ai

今日荐文


OpenAI“宿敌”:放松不了一点!开源模型一不小心就变安全“卧底”


阿里员工抄袭YC初创公司并开源,老外:反正官司打不赢,不费那个劲了


国产GTPs上线!智谱AI推出GLM-4全家桶,我们浅试了一下


“AI女友”霸占GPT商店,OpenAI苦不堪言:开发者也难出头!


工资暴跌,还要训练AI替代自己?数据标注员正在被大厂抛弃


吵了一年,我来下个结论:纯向量数据库和向量插件都没有未来!



你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
杭州/北京内推 | 阿里达摩院多模态团队招聘多模态方向全职研究员/实习生​AAAI 2024 | 首个多模态实体集扩展数据集MESED和多模态模型MultiExpan我们应该感恩吗?---写在感恩节GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发AI早知道|抖音即创平台上线;零一万物发布并开源Yi微调模型;亚马逊宣布推出全新一代语音基础模型驱动的ASR系统AI早知道|Figure发布第一个OpenAI大模型加持的机器人demo;零一万物全面开放笛卡尔向量数据库搜索内核小学好同学,白血病零一万物 Yi 大模型最新评测,英语能力仅次于 GPT-4刚刚开源!中科大提出利用GPT4-V构建大规模高质量图文数据集ShareGPT4V,助力模型霸榜多项多模态榜单!大模型+自动驾驶=?普渡大学等最新《自动驾驶领域多模态大型语言模型》综述AI早知道|Apple 发布 MM1多模态大语言模型;xAI 是市场上薪酬最高的人工智能公司前阿里员工抄袭YC初创公司并开源,老外:反正官司打不赢,不费那个劲了全球首个开源多模态医疗基础模型:人工打分平均超越GPT-4V、支持2D/3D放射影像世界顶尖多模态大模型开源!又是零一万物,又是李开复超越同级7B模型! 中国团队开源大规模高质量图文数据集ShareGPT4V,大幅提升多模态性能《感恩》&《忘不了的温存》AI早知道|ChatGPT模型大更新;阿里云发布多模态大模型;百度推多模态模型UNIMO-G复旦发布AIGC图像检测方法综合测评平台,整合并开源多种现有检测算法一口气读完《沙丘》 ,零一万物宝藏API正式开箱!酷炫Demo实测,多模态中文图表体验超越GPT-4VAI早知道|Claude计划增加图像识别;Yi-VL多模态语言模型全球开源字节发布机器人领域首个开源视觉-语言操作大模型,激发开源VLMs更大潜能北京获准的大模型占全国近半;OpenAI CEO筹建AI芯片公司;零一万物多模态语言模型上线丨AIGC大事日报腾讯发表多模态大模型最新综述,从26个主流大模型看多模态效果提升关键方法OpenAI调查ChatGPT错误率升高问题;零一万物上线Yi微调模型;Adobe收购印度AI视频创企丨AIGC大事日报超越 GPT-4V 和 Gemini Pro!HyperGAI 发布最新多模态大模型 HPT,已开源GPT-4V只能排第二!华科大等发布多模态大模型新基准:五大任务14个模型全面测评112页报告深挖GPT-4V!UCLA等发布全新「多模态数学推理」基准MathVista零一万物 API 上线,用户反馈多模态中文图表体验超过 GPT-4VOpenAI 忙着“宫斗”,手握 2.2 万块 H100 的竞争对手趁机发布新款大模型:1750 亿参数,性能仅次于 GPT-4感恩节里说“感恩”Hugging Face宣布最受欢迎的AI机构;零一万物上线Yi-34B-Chat微调模型及量化版丨AIGC日报国内多所高校共建开源社区LAMM,加入多模态语言模型大家庭的时候到了红色日记 回顾七六 1977年 28岁 1.1-8零一万物Yi-VL多模态大模型开源,MMMU、CMMMU两大权威榜单领先OpenAI忙着“宫斗”,手握2.2万块H100的竞争对手趁机发布新款大模型:1750亿参数,性能仅次于GPT-4
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。