Redian新闻
>
敲开芯片厂大门,大模型厂商开始把应用装进手机里

敲开芯片厂大门,大模型厂商开始把应用装进手机里

公众号新闻

2024.05.10

本文字数:2550,阅读时长大约5分钟



导读从App应用走向大模型应用生态,大模型应用厂商到了要向芯片要算力的阶段。


作者 | 第一财经 郑栩彤


手机端侧AI的机会让本来交集并不多的两个行业走到了一起。
联发科无线通信事业部生态发展资深总监章立在一场开发者大会上对记者表示,有大模型厂商已看到,从App应用走向大模型应用生态,到了要向云端芯片、终端芯片要算力的阶段。
近日,联发科对外推出了“天玑AI先锋计划”,并提供了相关的开发者解决方案,以支持大模型厂商在端侧AI的技术落地和端侧生成式AI应用创新。在章立看来,未来一段时间,生成式AI和芯片是强相关的。
过去一年,随着生成式AI从云端走向终端,像联发科这样的芯片公司开始嗅到了更多的机会。他们逐步发现,除了手机厂商外,更多的大模型企业也开始直接与芯片公司从底层展开合作,以解决算力成本在端侧的覆盖问题。
不同于云端的大型服务器集群,智能终端过去受限于小型化,算力有限,但独特优势则在于有更好的隐私性。业内逐渐看到AI手机、AI PC、智能汽车等端侧AI场景的潜力,更重要的是,当大模型装进手机里时,大模型企业可以通过本地化部署AI,绕开昂贵的云端运算成本。
但手机端可运行的大模型目前多在70亿参数左右,可支持的大模型应用场景还受限,爆款AI应用要爆发还需端侧的算力和生态支持。联发科之外,业内也在探索适合端侧运行的小型化模型。

大模型企业敲开芯片厂大门


大模型云端算力昂贵是推动大模型应用走向端侧的动力之一。
有消息称,ChatGPT每天需响应超2亿次请求,耗电量可能超每天50万千瓦时。一名大模型应用厂商高管也告诉记者,Sora至今不向公众开放使用,主要原因很可能就是运算成本太高。
相比之下,运用分散的端侧算力,在手机、电脑等个人持有的终端设备上运算而不依赖于联网,被认为可以替代部分云端算力,减轻用户使用大模型服务的算力成本。但大模型参数量较大的特点,使算力要求颇高,这正是手机等终端受限之处。目前,联发科和高通移动芯片最高都可支持上百亿参数大语言模型运行,而云端运行的主流大模型动辄上千亿参数。
“现在手机算力可支持70亿参数大模型,再往上可能就是100多亿参数。”有芯片业内人士告诉记者。
以手机为代表的端侧目前不适合搭载很高算力芯片的一个原因是功耗。安谋科技产品总监杨磊指出,PC、平板电脑、手机、智能眼镜大多由电池供电,功耗和电池容量决定设备续航时长,而一张高性能GPU动辄功耗数百瓦,更适合云端使用,一般手机功耗不超过10瓦。
算力有限的情况下,端侧搭载大模型面临多重挑战。联发科无线通信事业部副总经理李彦辑告诉记者,大模型厂商希望在端侧高效运行大模型,但面临两类问题。一是运行效率,包括耗电量和速度,二是内存占用可能过高。直接把云端训练好的模型放到手机端将会遇到以上问题,大模型厂商对这些优化方案很在意。
“跟大模型厂商合作时有很多困难。比如,把7B(70亿)、13B的模型装到手机这么小的设备里是很大的挑战,必须通过我们的开发套件中的Neuron Studio做量化、压缩,做出最佳和最小的网络结构。” 联发科无线通信事业部技术规划总监李俊男告诉记者。
基于算力需求,芯片厂商与大模型厂商走得更近了。“缺乏芯片的支持,在端侧或云侧都会面临同样的挑战。”章立告诉记者,大模型应用会趋于从芯片底层出发,发掘打造移动平台用户新体验的可能。

爆款应用何时出现?


AI手机、AI PC概念提出后,基于这些智能终端的爆款应用并未诞生。
记者了解到,目前端侧算力是限制大模型应用落地手机的一个原因。“目前手机端侧AI的功能还比较有限,可支持修图,但在断网的情况下进行大模型语音对话还不太行。图片类的模型不需要很大参数,语音类的更大。”以上芯片业内人士告诉记者。
章立则告诉记者,端侧爆款应用将会出现,而这跟芯片制程与能力关系并不绝对。原本大家觉得手机似乎卷不动了,App厂商似乎无所适从,因为过去规则已形成,竞争关系、流量比较收敛,很多开发者没有新机会。生成式AI则给了开发者更多工具。技术带来用户体验创新,这种情况下不需担心爆品会否出现,只是无法确定何时出现。
要促使AI应用在手机等端侧落地,大模型应用向芯片要算力是一个层面,提高端侧整体算力和小模型表现效果是另外两个层面。业内展望手机算力还会进一步提高。
杨磊认为,旗舰手机芯片算力可达40~50TOPS,中档手机算力10~20TOPS,入门级手机未专门配备AI能力,预测随着半导体技术演进,旗舰手机算力水平有望达100TOPS,入门级手机将提升至5~10TOPS,两年后手机都有望具备本地部署AI大模型的硬件计算能力。
为适应分散化的端侧运算要求,大模型也在向小型化发展。
今年4月Meta发布Llama 3系列的两个开源大模型,参数量分别是8B和70B。猎豹移动董事长兼CEO傅盛表示,小参数模型Llama 3 8B的表现比上一代大参数Llama 2 70B更好,这印证了小参数模型的能力会快速提升。新浪微博新技术研发负责人张俊林也认为,Llama 3最重要的改变是训练数据量极大扩充,小模型固定大小并增加数据量后效果会持续提升。张俊林告诉记者,目前小模型的能力还看不到上限。
迅速提升的小模型能力,已让一些业界人士预测小模型将加快在智能终端落地。“现在很流行小模型SLM。通过比较好的训练将模型缩小,现在看来小模型的能力也很好,3B以下能力不错,这是对端侧非常有利的趋势,苹果可能也在布局这种小模型。”李俊男表示,端侧AI算力相关的内存带宽瓶颈也可以采用小模型解决。
从发布的成果看,苹果也在发力小模型并突破端侧参数限制。华福证券研报称,苹果除了30亿参数的MM1模型外,更多在端侧模型布局,其中端侧场景化小模型ReALM最小参数8000万。苹果还提出利用闪存解决大模型运行的内存瓶颈,其Flash-LLM方案将端侧设备可运行模型参数量提高至原来的两倍。随着6月WWDC及后续发布会进行,苹果相关产品有望面世。
至于未来的端侧爆款应用将是何种形态,章立表示,联发科看应用时有两个维度,一是看在做革新和生成式AI化的存量头部App,另一个是看新冒出来的App,现在还不确定爆款App会从哪类中诞生。云端和端侧可能都有大模型应用跑出来,相比之下, 云端可能更适合做“0到1”的创新,端侧则更适合做感知和一些更好的创新。
李彦辑则认为,影像、视频等多模态大模型输入输出在手机上应该很快会实现。此外,专家系统还会训练很多小模型,可根据用户需求切换。手机端的需求已越来越清晰,例如能力上趋于私人化、本地运算。
微信编辑 | Ziang

推荐阅读

飞书,裁员!



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
信息茧房里的匹夫今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理2.5%KV缓存保持大模型90%性能,大模型金字塔式信息汇聚模式探秘|开源云天励飞余晓填:剖解大模型技术演进与挑战,算法芯片化突破大模型落地“三角约束”丨GenAICon 2024汽车深夜“高速”撞白宫大门,司机丧命,拜登安全顶尖算法+顶尖架构,地平线敲开高阶智驾终局的大门务实探索AI应用落地,恺英自研“形意”大模型已应用于研发明晚8点揭秘:北京的这所“异类美高”为何能持续敲开藤校大门?LangChain与Semantic Kernel,大模型开发应用的框架,都用上了吗?鹅厂大模型人才扩招50%!面向全球顶尖天才少年:薪资算力数据管够造车3年敲开美股大门,黑马极氪不容小觑开源大模型火了!(附99个大模型微调模型/数据/工具)!醉眼三月双林奇案录第三部之校园疑案: 第二十二节抢人!想逃离加拿大?这几个欧洲国家敞开大门,让你边玩边工作李飞飞团队重磅报告解读AI十大趋势:中国AI专利数全球第一,大模型训练狂烧钱,医学领域AI应用突出 | 大模界到钉钉播种 AI 应用的,不只大模型厂商们新风口!车载通信网络变革下,中国芯片厂商“抢滩”车载SerDes2/29-3/3圣路易斯行(2)三首智能技术日新月异,本土Tier1如何携芯片厂家“顺势而为”?钉钉集齐七大模型厂商:我们不是卖资源,而是要一起创新商业模式王小川:不烧钱推AI应用、大模型价格战是云厂商的游戏强力覆盖导购、本地生活,月之暗面推出多个“Kimi分身”,大模型应用元年加速到来?大模型如何用于游戏?游戏玩家代理与大模型综述:方法、应用与挑战首次敲开“国家队”大门,这一医疗赛道已到爆发前夜?万字梳理中国AIGC产业峰会激辩,大模型应用最全行业参考在此大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事OpenAI 一停服,国内大模型厂商抢生意“抢疯”了AI早知道|商汤发布日日新5.0大模型;微软推出小语言模型Phi-3;腾讯旗下协作SaaS产品全面接入混元大模型约3.7万人上月被捕,圣迭戈成非法移民越境美南部边境首选!马斯克:30年内火星肯定建成人类居住城市!全美最大天然气生产商开始裁员博主需不需要出柜?微软发布Phi-3 Mini:3.8B参数小到能塞进手机,性能媲美GPT-3.5IDC最新报告,7大维度11家大模型厂商比拼,唯一全优是谁?台湾7.3级地震,台积电等芯片厂商影响可控今日arXiv最热NLP大模型论文:CMU最新综述:工具使用,大模型的神兵利器
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。