Redian新闻
>
能「说」会「画」, VisCPM:SOTA 开源中文多模态大模型

能「说」会「画」, VisCPM:SOTA 开源中文多模态大模型

公众号新闻

来自:OpenBMB开源社区

进NLP群—>加入NLP交流群

最近, 清华大学 NLP实验室、面壁智能、知乎联合在 OpenBMB 开源多模态大模型系列VisCPM ,评测显示, VisCPM 在中文多模态开源模型中达到最佳水平。

VisCPM 是一个开源的多模态大模型系列,支持中英双语的多模态对话能力(VisCPM-Chat模型)和文到图生成能力(VisCPM-Paint模型)。VisCPM基于百亿参数量语言大模型 CPM-Bee(10B)训练,融合视觉编码器(Q-Former)和视觉解码器(Diffusion-UNet)以支持视觉信号的输入和输出。VisCPM可以仅通过英文多模态数据预训练,泛化实现优秀的中文多模态能力。


  • 👐 开源使用:VisCPM 可以自由被用于个人和研究用途。我们希望通过开源VisCPM 模型系列,推动多模态大模型开源社区和相关研究的发展。

  • 🌟 涵盖图文双向生成:VisCPM 模型系列较为全面地支持了图文多模态能力,涵盖多模态对话(图到文生成)能力和文到图生成能力。

  • 💫 中英双语性能优异:得益于语言模型基座 CPM-Bee 优秀的双语能力,VisCPM 在中英双语的多模态对话和文到图生成均取得亮眼的效果。

 ➤  VisCPM 🔗 
https://github.com/OpenBMB/VisCPM




VisCPM-Chat:支持图像双语多模态对话


VisCPM-Chat 支持面向图像进行中英双语多模态对话。该模型使用Q-Former作为视觉编码器,使用CPM-Bee(10B)作为语言交互基底模型,并通过语言建模训练目标融合视觉和语言模型。模型训练包括预训练和指令精调两阶段:
  • 预训练:使用约100M高质量英文图文对数据对VisCPM-Chat进行了预训练,数据包括CC3M、CC12M、COCO、Visual Genome、Laion等。在预训练阶段,语言模型参数保持固定,仅更新Q-Former部分参数,以支持大规模视觉-语言表示的高效对齐。

  • 指令精调:采用LLaVA-150K英文指令精调数据,并混合相应翻译后的中文数据对模型进行指令精调,以对齐模型多模态基础能力和用户使用意图。在指令精调阶段,我们更新全部模型参数,以提升指令精调数据的利用效率。有趣的是,我们发现即使仅采用英文指令数据进行指令精调,模型也可以理解中文问题,但仅能用英文回答。这表明模型的多语言多模态能力已经得到良好的泛化。在指令精调阶段进一步加入少量中文翻译数据,可以将模型回复语言和用户问题语言对齐。

我们在LLaVA标准英文测试集和翻译的中文测试集对模型进行了评测,该评测基准考察模型在开放域对话、图像细节描述、复杂推理方面的表现,并使用GPT-4进行打分。可以观察到,VisCPM-Chat在中文多模态能力方面取得了最佳的平均性能,在通用域对话和复杂推理表现出色,同时也表现出了不错的英文多模态能力。

我们提供了两个模型版本,分别为 VisCPM-Chat-balance 和 VisCPM-Chat-zhplus,前者在英文和中文两种语言上的能力较为平衡,后者在中文能力上更加突出。两个模型在指令精调阶段使用的数据相同,VisCPM-Chat-zhplus 在预训练阶段额外加入了 20M 清洗后的原生中文图文对数据和 120M 翻译到中文的图文对数据。

下面是VisCPM-Chat 的多模态对话效果展示:




VisCPM-Paint :支持双语文到图生成


VisCPM-Paint 支持中英双语的文到图生成。该模型使用 CPM-Bee(10B)作为文本编码器,使用 UNet 作为图像解码器,并通过扩散模型训练目标融合语言和视觉模型。在训练过程中,语言模型参数始终保持固定。我们使用 Stable Diffusion 2.1 的 UNet 参数初始化视觉解码器,并通过逐步解冻其中关键的桥接参数将其与语言模型融合。该模型在 LAION 2B 英文图文对数据上进行了训练。

与 VisCPM-Chat 一样,得益于 CPM-Bee 的双语能力,VisCPM-Paint 可以仅通过英文图文对训练,泛化实现良好的中文文到图生成能力,达到中文开源模型的最佳效果。通过进一步加入 20M 清洗后的原生中文图文对数据,以及 120M 翻译到中文的图文对数据,模型的中文文到图生成能力可以获得进一步提升。

同样,VisCPM-Paint 有 balance和 zhplus 两个不同的版本。我们在标准图像生成测试集 MSCOCO 上采样了 3万张图片,计算了常用评估图像生成指标 FID (Fréchet Inception Distance) 评估生成图片的质量。

下面是 VisCPM-Paint 的图片生成效果展示:




VisCPM 提供 不同中英文能力的模版本 供大家下载选择,并且安装和使用简易高效,可以 通过几行代码实现多模态对话,还在代码中默认开启了对输入文本和输出图片的安全检查。(详情见README

未来我们也会将 VisCPM 其整合到 huggingface 代码框架中,还会陆续完善安全模型、 支持快速网页部署、 支持模型量化功能、支持模型微调等功能。VisCPM 允许个人使用和研究用途,商用请发送邮件至 [email protected] 提供接洽方式,欢迎大家积极开拓多模态大模型应用边界!


 ➤  VisCPM开源地址 
🔗 https://github.com/OpenBMB/VisCPM
 ➤  基座模型CPM-Bee
🔗 https://github.com/OpenBMB/CPM-Bee



进NLP群—>加入NLP交流群


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
BLIP-2、InstructBLIP稳居前三!十二大模型,十六份榜单,全面测评「多模态大语言模型」LaVIN-lite:单张消费级显卡微调多模态大模型智源Emu开源!超越DeepMind,刷新8项SOTA,首个「多模态-to-多模态」全能高手在线可玩:阿里开源多模态大模型mPLUG-Owl,电影问答、梗图理解、多轮聊天……更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全一切」清华ACL2023 | WebCPM:首个联网支持中文问答开源模型开源多模态大模型哪家强?TOP12榜单来了,GitHub揽获2.2k+星美元最大的敌人是黄金理解指向,说出坐标,Shikra开启多模态大模型参考对话新维度追赶GPT-4的多模态大模型对比分析跑步看世界-佩吉PageVPGTrans: 10%的成本定制你自己的类GPT-4多模态大模型多模态大模型向前,机器人领域的新机遇在哪里?训练成本不到1000元,直降90%!NUS、清华发布VPGTrans:轻松定制类GPT-4多模态大模型YouKu-mPLUG最大中文视频数据集和Benchmark,助力多模态大型模型发展战国故事《定风波》卷二(1):惊梦赋予LLM视觉理解能力,360人工智能研究院开源中文多模态对话模型SEEChat阿里达摩院大模型公开课上新!主讲中文个性化对话大模型ChatPLUG和模块化多模态大模型mPLUG-Owl中文版开源Llama 2同时有了语言、多模态大模型,完全可商用独家 | 多模态大模型初创企业「智子引擎」,近日完成千万元天使轮融资专访生数科技唐家渝:清华系团队拿到近亿融资,用Transformer来做多模态大模型融资千万,结盟软通动力,人大多模态大模型元乘象正在圈地大B市场|甲子光年独家 | 多模态大模型初创企业“智子引擎”,近日完成千万元天使轮融资清华系面壁智能开源中文多模态大模型VisCPM :支持对话文图双向生成,吟诗作画能力惊艳从感知到理解-融合语言模型的多模态大模型研究全新中文大模型多任务基准CMMLU:评估中文多任务语言理解能力清华ACL 2023最新长文 | WebCPM:首个联网支持中文问答开源模型多模态大模型的下一站在哪里?从零训练一个多模态LLM:预训练+指令微调+对齐+融合多模态+链接外部系统中科院发布多模态 ChatGPT,图片、语言、视频都可以 Chat ?中文多模态大模型力作训练开销骤减,10%成本定制专属类GPT-4多模态大模型我时常漫步在小雨里多模态大语言模型综述来啦!一文带你理清多模态关键技术专访生数科技唐家渝:清华系团队拿到上亿融资,用Transformer来做多模态大模型第十四章
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。