“开源模型是智商税” v.s. “开源AI是前进的道路”
杨宇东: 开源闭源问题是业界关注焦点。你认为,闭源模型会持续领先。但我们看到,开源大模型越来越多,甚至有些能力都不亚于我们说谓的GPT4了,这个问题你怎么看,你们还是会坚定的走闭源路线? 李彦宏: 我觉得,开源其实是一种智商税。你仔细想一想,我们为什么要做大模型?是它能够有应用,这些应用在各种场景下,能够为客户为用户提升效率、降低成本,产生过去产生不了的作用。 所以当你理性的去想,大模型能够给我带来什么价值?以什么样的成本给我带来价值?你永远应该选择闭源模型。 今天这些闭源模型,无论是ChatGPT还是文心一言,以及其他各种各样的闭源模型,它的平均水平,一定是比这些开源模型更强大,推理成本一定是比开源模型更低。
发表这番言论几天之后,李彦宏在公司内部邮件再次谈及了对开源大模型的看法(完整内容见下图),直言业界许多公司只是想“靠在开源上套个壳、做点客户化的东西去赚钱”。
但就在今天,Meta 发布新一代开源大模型 Llama 3.1 —— 毫不留情地打了 Robin 的脸。
因为这款开源大模型首次击败了闭源最强 SOTA 模型。
Llama 3.1 提供了 8B、70B 及 405B 参数版本。其中,405B 是其迄今最强大的开源模型,也是近年来规模最大 LLM 之一。从评分上看,它超过了 GPT-4 (0125),和 Claude 3.5 不相上下。
根据相关测试基准结果,Llama 3.1 405B 综合实力已与业界最新最强的标杆模型 GPT-4o 们旗鼓相当,甚至实现多项超越。
扎克伯格将 Llama 3.1 誉为“艺术的起点”,并表示开源模型正在迅速缩小与闭源模型的差距。
去年,Llama 2 的性能仅与领先模型的上一代产品相当。今年,Llama 3 可与最先进的模型相媲美,并在某些领域处于领先地位。
从明年开始,我们预计未来的 Llama 模型将成为业内最先进的大模型。但在那之前,Llama 已经在开放性、可定制性和成本效益方面处于领先地位。
扎克伯格重提开源 Linux 与闭源 Unix 的故事,认为前者支持更多功能和更广泛的生态系统,并且是云计算和运行大多数移动设备操作系统的行业标准基础。“我相信人工智能也会以类似的方式发展。”
扎克伯格引用了很多理由阐述为什么这个世界需要开源模型,称对开发者而言,除了更透明的开发环境以更好训练、微调和提炼他们自己的模型,另一个重要因素是“需要一种既高效又负担得起的模式”。
他解释道,对于面向用户和离线的推理任务,开发人员可以在自己的基础设施上运行 Llama 3.1 405B,成本大约是 GPT- 4o 等闭源模型的 50%。
首先,为了确保我们能够使用最好的技术,并且不会长期被困在封闭的生态系统中,Llama 需要发展成为一个完整的生态系统,包括工具、效率改进、芯片优化和其他集成。
如果我们是唯一一家使用 Llama 的公司,那么这个生态系统就不会发展,我们的境况也不会比封闭的 Unix 好。
其次,我预计 AI 开发将继续保持高度竞争,这意味着开源任何给定模型并不会失去当时相对于下一个最佳模型的巨大优势。Llama 成为行业标准的道路是一代又一代地保持竞争力、高效和开放。
第三,Meta 与封闭模型供应商之间的一个关键区别是,出售 AI 模型访问权限不是我们的商业模式。这意味着公开发布 Llama 不会像封闭提供商那样削弱我们的收入、可持续性或投资研究的能力。(这是一些封闭提供商不断游说政府反对开源的原因之一。)
最后,Meta 拥有悠久的开源项目和成功历史。我们通过开放计算项目发布我们的服务器、网络和数据中心设计,并让供应链在我们的设计上实现标准化,从而节省了数十亿美元。
我们通过开源领先的工具(如 PyTorch、React 等)从生态系统的创新中受益匪浅。只要我们长期坚持,这种方法就会一直对我们有效。
围绕开源、闭源两大路线之争,此前业界已有过多番讨论,但当时的主要基调在于,两者各有价值,开源能够以高性价比的方式惠及广大开发者,并且有利于大语言模型自身的技术迭代与发展,而闭源能够集中资源更快、更深突破性能瓶颈,比开源更有望率先达成 AGI(通用人工智能)。
换句话说,业界普遍认为,在模型的性能水平上,开源很难追上闭源。
而 Llama 3.1 405B 的出现或许会让行业重新思考这一结论,很可能将影响一大批已经倾向于使用闭源模型服务的企业和开发者群体。
相关阅读
扎克伯格:Llama 3.1会成为开源AI标准,就像当年Linux一样
李彦宏再度锐评:开源大模型只有表面可控性、闭源的效率就是更高
李彦宏:开源模型会越来越落后、自然语言将成为新的通用编程语言
李彦宏:大模型开源与传统Linux开源不同、闭源才能走通商业模式
Reference
活动推荐
END
热门文章
微信扫码关注该文公众号作者