Redian新闻
>
开源大模型将“杀死”闭源模型?

开源大模型将“杀死”闭源模型?

公众号新闻
关注获取更多资讯


Hugging Face创始人Clem Delangue曾预言,“OpenAI不足为惧,开源会慢慢赶上来”。


7月19日,LLaMA 2宣布开源,所有人可直接商用。近三个月过后,我们才逐渐意识到——这一天,也许是大模型发展的分水岭


在此之前,全世界的开源大模型不计其数,但主要停留在开发研究层面,LLaMA 2的开源犹如一颗重磅炸弹,引爆了整个大模型圈——有人哭晕在厕所,有人梦里也能笑醒。



自LLaMA 2开源以来,首先掀起一波以其核心的开源,如LLaMA 2低成本训练版、LLaMA 2最强版、微调版等。截至发稿,Hugging Face上的LLaMA 2相关模型已经有5000多条结果,Github上也有1500多个词条



全球创业者通过解构、增强LLaMA 2构建了行业专有模型,进而出现了一波LLaMA 2+法律、LLaMA 2+医疗等系列开源行业模型,仅国内便有十几个开源行业模型。

此外,国内头部科技公司的开源模型也在不断攻城略地:阿里巴巴的QWEN-7B开源一个多月下载量破100万;百川智能开源的Baichuan-7B、13B开源模型下载量突破500万,有200多家企业申请部署开源大模型。



反观闭源大模型调用API的模式,数据需要上传,存在隐私安全隐患,且按照调用次数收费,而开源模型本地部署完全免费,商用后产生的利润也可以收归己有。在这种情况下,仅仅是基于成本考量,便已经有许多企业放弃上千万元费用,转而部署和微调LLaMA 2


❏ 01

开源大模型,开的是什么?


目前,科技公司在大模型的开源和闭源上有以下几种路径:


  • 首先是完全闭源的大模型,例如OpenAI的GPT-3.5、GPT-4,以及国内百度的文心一言;

  • 其二是先闭源再开源,例如阿里巴巴的通义千问、智谱AI的GLM系列模型;

  • 其三是先开源再闭源,例如百川智能的Baichuan。



目前国内能够主动开源大模型并提供商业许可的企业比较有限,主要有以开源切入AI赛道的百川智能、AI科技大厂阿里、大模型初创公司智谱AI,以及走精调LLaMA 2路线的虎博科技。


这也是大模型浪潮下比较典型的入局路线,一类是自研大模型开源路线,一类是走LLaMA 2路线。前者在国际上的典型代表是Stability AI,该公司先后开源了一系列文生图模型,凭一己之力撑起了开源文生图领域;后者的代表有中东土豪研究院,在LLaMA 2基础上做大参数,仅在LLaMA 2开源50天后便推出了地表最强开源模型Falcon 180B,霸榜Hugging Face。



在LLaMA 2开源之后,Meta先后推出了帮助开发人员自动生成代码的开源模型Code LLaMa,全新AI翻译模型SeamlessM4T、允许开源视觉模型DINOv2商业化,并推出视觉评估模型FACET。


不难发现,Meta的开源策略是在各个AI领域发布最先进的开源模型,吸引更多开发者的关注和使用,壮大整个AI开源生态并反哺业务、巩固地位——这与当年英伟达推动GPU计算的开源策略如出一辙



❏ 02

开源和闭源,矛盾吗?


根据此前报道,Meta已经将新一代开源大模型提上日程,能力对标GPT-4。国外大模型格局看似是OpenAI“一超多强”,实际上众多科技公司环伺,已然形成开源对闭源的围剿之势。



开源大模型为企业提供了闭源的替代方案,在非常大的数据集上进行训练,拥有几十亿参数的大模型就可以与超大规模大模型相媲美,且只需极少的预算、适量的数据以及低阶适应等技术就可以获得满意的效果,训练成本降低了上千倍。并且开源大模型的发展速度远快于封闭生态系统——就像安卓系统上有着诸多新功能。


开源和闭源并非目的,而是手段



正如以开源切入大模型赛道的百川智能,在Baichuan-7B、13B后拿出了Baichuan-53B闭源大模型。王小川的解释是:模型变大之后没有走开源的方式,是因为大家部署起来成本会非常高,所以使用闭源模式让大家在网上调用API。


在当前,闭源大模型的价值集中体现在通过调用API来降低高性能大模型的训练、推理和部署。这也是OpenAI闭源的思路,其自身技术的绝对领先优势使得闭源的价值也非常大。


腾讯云数据库负责人王义成认为,开源的本质化也是商业化,是从宏观层面考量能否满足公司的长期商业利益。开源的本质是扩大生态和影响力,前提是我们要清楚自己的定位、目标客户群,考虑开源能否帮助产品突破。



开源和闭源并不是完全对立的关系,只是在技术发展初期的路径选择不同。就像安卓可以尝鲜更多功能,iOS则更加安全和省心一样,开源和闭源在功能上相互补充,各有优势和劣势。


在未来,一定不是one size fits all,不同的场景适配的AI模型一定是不同参数、不同形式的。


开源和闭源,只是位置和阶段的不同。二者一定会是相互竞争、相互补充的,但在二者开战的这个AI新赛段里,一定会为我们带来更多的惊喜和思考。


我们拭目以待。


设置星标不迷路哟~


美国硅谷企业游学/美国硅谷企业考察

美国硅谷AGI市场考察/OpenAI企业游学

考察团名额有限,正在火热招募中

您可点击此处了解行程详情

也可扫描文末二维码

可根据行业免费定制行程哟!


*图片均来自于网络,如有侵权请联系删除



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
开源打败闭源?Meta 即将推出开源代码生成平台 Code Llama,剑指 OpenAI Codex完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光红色日记 8.11-20​开源模型在竞赛数学MATH上首次突破50%,清华、微软联合推出工具集成推理语言模型是谁想“杀死”李佳琦?谁“杀死”了香港半导体?HashiCorp CEO 预测,除非开源模型发展,否则硅谷将没有开源公司 | Linux 中国海南44岁农妇被强奸后自杀,其实她被“杀死”了三次…直播正在“杀死”双11?开源大模型FLM-101B:训练成本最低的超100B参数大模型谁“杀死”了长途大巴?GPT-4版微软Win11下周二见;千亿参数生物医药大模型面世;DALL·E 3模型将接入Bing丨AIGC大事日报20B跨级挑战70B性能!国产开源大模型打造大模型新标杆开源打败闭源?Meta即将推出开源代码生成平台Code Llama,剑指OpenAI Codex浙江大学发布开源大模型知识编辑工具EasyEdit,效果超越传统微调方法国产开源大模型,首次实现代码解释1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-432卡176%训练加速,开源大模型训练框架Megatron-LLaMA来了《湖天一览楼》1部2章(4) 八国联军进京一次通过率73%,开源代码大模型WizardCoder超越最新GPT-4以外所有闭/开源模型打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训citations vs. scholarship relevant to real-world problems/his ac开源大模型有望迎接“安卓时刻”,创业公司如何抓住机遇? | 榕汇实战分享霸榜测评的开源大模型,为何是阿拉伯人搞出来的?阿里云中标9亿AI算力大单;浙大校友开源LLaVA-1.5多模态大模型;Meta因开源模型遭抗议丨AIGC大事日报首个可商用的32k上下文开源大模型「长颈鹿」来了,两万词长文不在话下I consider myself a visual learner,the map visualization值得一试的开源模型!开源社区上季度都有哪些靠谱项目?UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源数学能力超ChatGPT,70B开源大模型火了:用AI微调AI,微软全华班出品曝大基金三期将投3000亿!马斯克起诉中国公司侵害特斯拉技术秘密;王小川发布全新开源大模型! | AIoT情报吾爱吾园(上)1800亿参数,性能碾压Llama 2,世界最强开源大模型Falcon 180B发布选择GPT-3.5、还是微调Llama 2等开源模型?综合比较后答案有了32k上下文可商用!羊驼进化成长颈鹿,“开源大模型之最”
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。