手机大模型爆发:vivo 发布自研蓝心大模型,参数追赶 GPT-3
作者丨郭 思
编辑丨陈彩娴
11月1日vivo开发者大会上,vivo发布自研AI"蓝心"大模型,并发布大模型矩阵,包括1750亿、1300亿、700亿、70亿、10亿五款不同参数规模的大模型,并宣布130亿蓝心大模型实现端侧跑通,开源7B大模型。
其中1750亿参数已达到GPT-3参数水平,同时vivo也是国内首家开源7B大模型的手机厂商。
可以说vivo 这次开发者大会,给手机行业丢了一枚重磅炸弹。
早在2017年,vivo就成立了人工智能全球研究院。
而且vivo一直关注通用人工智能的进展,对于ChatGPT引发的大模型热潮,vivo高级副总裁施玉坚的判断是:真正好的自研大模型应该是大而全、算法强、真安全、自进化、广开源五个特征兼具。
在此vivo开发者大会,vivo发布的蓝心的大模型第一大亮点便是便是参数高达1750亿,一举达到了GPT-3的参数规模。
早在8月份小米的大模型MiLM-6B就已经公布在了GitHub上,从GitHub上的信息可以得知,MiLM-6B的参数规模达64亿。华为此前盘古3.0为客户提供100亿参数、380亿参数、710参数和1000亿参数的系列化基础大模型。
相比起来,vivo发布的蓝心大模型1750亿的参数规模,在一众手机厂商中一骑绝尘。
根据发布会资料现在,除了超大规模的1750亿参数和1300亿参数模型外, 700亿参数模型的vivo云端主力模型, 70亿蓝心大模型7B则是是面向手机打造的端云两用模型,在语言理解、文本创作等场景下表现非常优秀。综合表现行业领先,在各大中文榜单持续名列前茅。而10亿蓝心大模型1B则是面向端侧场景打造的专业文本大模型,具备本地化的文本总结、摘要等能力,处理过程准确又安全。
值得一提的是,vivo此次也开源了70亿蓝心大模型7B,成为了首个开源自研大模型的手机厂商。
大模型浪潮之下,开源和闭源成为商业模式上的交锋之战。
自Llama 2后,开源逐渐成为主流趋势,行业内甚至有声音表示未来开源大模型将杀死闭源。
vivo自研大模型的开源意味着,vivo正式加入了这场大模型开源之战,赤裸裸的接受行业人士的检验和批判。而另一方面,施玉坚在开发者大会上也表示,vivo还推出了蓝心大模型开发套件BlueKit,让其他手机厂商和开发者可以基于这款模型进行二次开发和创新。
关于华米OV的竞争,从智能手机时代的各项功能的角逐,发展到如今大模型时代各家的布局。如何实现轻量化、本地化的端侧部署是一个竞争关键。
某手机厂商内部员工告诉AI科技评论,大模型在端侧跑起来这个事儿和跑的好用起来是完全两个概念,只要内存够大,别说13B、130B都能跑起来。
端侧大模型本身就不容易,相比起在云端运行,走端侧这条路径意味着厂商需要在很小的算力空间,做出媲美超级大模型的效果。
大模型的特点是参数够大,在运行时需要大量的内存来存储模型参数和临时数据,而手机芯片通常具有有限的内存资源。能跑起来可能只是意味着手机上装有这个大模型,但是一旦使用,手机就会过热、卡顿。离理想的使用体验距离相差较远。
将一个大模型部署在端侧,行业采用的做法是GPU与NPU结合的方式。GPU自不用多说,负责端侧的图形渲染处理和并行计算。
NPU(Neural-network Processing Unit,神经网络处理器)则是一类基于DSA (Domain Specific Architecture) 领域专用架构技术的专用于人工智能(特别是人工神经网络、机器视觉、机器学习等)硬件加速的微处理器。
可以简单理解成NPU是去掉图形光栅这些的GPU。大模型参数太大,也就是说相比起在云端运行,大模型要想在端侧运行就必须借用NPU这个助手。
这一点也可以从各家芯片厂商的动态看出端倪,在刚刚过去的高通骁龙发布会上,高通对骁龙8 Gen3的 Adreno GPU 和 Hexagon NPU 进行了大幅升级。
一位行业人士告诉AI科技评论,自从生成式A浪潮掀起之后,高通也在不停地考察,怎么样改变现在大模型与英伟达 GPU 绑定的趋势,高通自己做了一个NPU框架,但内部客户用起来,并不是很好用,好多算法在NPU的框架上都没有跑起来。
而作为全球移动芯片无冕之王的架构大厂Arm而言,对于NPU的部署也一直在进行,Arm很早之前就推出Arm智能视觉参考设计,集成了安谋科技开发的玲珑VPU和周易NPU。
此次vivo开发者大会,vivo高级副总裁施玉坚表示,vivo蓝心大模型在端侧的运行可以直接跳过NPU,只需要在GPU上运行。这句话被一语带过,到底是一句噱头还是行业重大突破,我们暂时还不得而知。但是可以肯定的是,如果vivo真的能实现在端侧部署大模型不需要用到NPU,那将会成为行业的重大突破。
不过从效果上来看,vivo10亿参数蓝心大模型1B确实惊艳。
在此次开发者大会上,vivo10亿参数蓝心大模型1B的运行效果可达到最快64字/秒(3840/分)的出词速度。而资料显示,根据输入的关键词或文章大纲,自动生成相应的文章段落或初稿,ChatGPT平均速度约为2000-3000字每分钟。如果真如宣传所说,那么vivo10大模型端侧的运行效果能超过ChatGPT。
不过值得注意的是,虽然行业一直在谈终端运行大模型,但是我们还是得区分瘦终端与标准终端的区别。
标准终端设备具备自己的硬盘、RAM、控制计算单元,通过安装full-fledged OS可以跑计算和存储程序,乃至于具备近场的AI算力,具有完整的运算能力。
而瘦终端则是指一个终端只具备最基础的硬件设施和轻量级的light OS,其所有的功能都必须通过联网/云端实现,终端本身通常只具备基础的显示或者初级的计算存储功能。
简而言之,就是市面很多厂商宣传的终端运算其实模型存储在云,计算也还是在云,终端只负责基础的展示和实现。
这两者概念的混淆也可能会成为大众对于终端运行效果的误解。(大模型在端侧的部署和运行或许不止存在概念上的误会,更有各种落地上的难点和困难,对于这个趋势,欢迎添加本文作者:郭思 微信号lionceau2046,畅聊你的看法)
在此次vivo开发者大会上,vivo表示,蓝心大模型在SuperCLUE-Sagety安全总榜上超过了讯飞星火与文心一言,以总分85.17的分数霸榜第一。榜单当然只是一个辅助标准,但是主打安全这一点确定是vivo与现在市面上其他手机大模型厂商的一个显著竞争点。
在大模型布局上,小米注重“轻量化、本地部署”同时也发力了诸如机器人、智能家居等多种产品形态,而和vivo同出一脉的OPPP近期也有新动作,注重大模型在语音助手上带来的巨大改变。
vivo的侧重点则回到了手机厂商做大模型最本源的优势,数据与安全。
手机作为每个人日常生活的必备终端,存储着非常多个性化和隐私化的数据,如果全部在云端运行,隐私泄露等事情比比皆是。
另一方面,在ChatGPT浪潮掀起之前,可信AI本来就是行业关注的重点,如果避免大模型的幻觉、偏见、毒性等问题也是各方在进行技术研发时所关注的重点。
在安全方面,除了模型的可信性得到了保证,vivo此次还推出了蓝河操作系统,主打智慧、流畅、安全。值得一提是是蓝河操作系统是行业首个系统框架由Rust语言编写的操作系统,用Rust语音编写也是保障安全的一个重中之重。
目前常见的操作系统内核都是基于 C 语言,因为 C 语言简单独立十分好用,但也有它的缺点缺少有效的并发支持,导致内存和并发漏洞成为当前操作系统的噩梦,也就是不够安全。
而 Rust 语言具有与 C 一样的硬件控制能力,且大大强化了安全编程。从某种角度上看,新出现的 Rust 语言的核心目标是解决 C 的短板,取代 C。所以用 Rust 写 OS 具有很好的开发和运行的体验。
蓝河OS有几个亮点,比如说:和AI大模型深度捆绑,能够自动生成桌面,没有虚拟机,直接内核运行,还按PC的设计理念做OS。
可以说对于安全,vivo打出了一套组合拳,这也是为什么开发者大会上,vivo一直强调自研大模型必须真安全的原因。
环顾整个手机赛道, 目前竞争已经进入存量博弈阶段,手机厂商需要在新技术上建立竞争优势,也需要通过新的卖点角逐高端市场。
这次vivo开发者大会给人明显感觉就是vivo在多条腿走路。
而从单一的手机布局到如今的多矩阵走路,这一点,与其说是vivo冲向AI时代的技术高歌,不如说,是vivo面向现今手机行业困境的一次反击。
在这场反击过程,vivo对于大模型的布局让人眼前一亮,也让人不得不期待后续vivo大模型故事的走向。(其它手机厂商在大模型领域又有哪些动态和故事,欢迎添加本文作者郭思,微信号:lionceau2046,互通有无。)
更多内容,点击下方关注:
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
未经「AI科技评论」授权,严禁以任何方式在网页、论坛、社区进行转载!
公众号转载请先在「AI科技评论」后台留言取得授权,转载时需标注来源并插入本公众号名片。
微信扫码关注该文公众号作者