谷歌内部文件泄漏:谷歌、OpenAI都没有护城河,大模型门槛正被开源踏破
机器之心报道
开源社区的能量是否被低估了?
开源 AI 正在取得胜利,我同意,对于全世界来说,这是件好事,对于构建一个有竞争力的生态系统来说也是好事。虽然在 LLM 领域,我们还没有做到这一点,但我们刚刚让 OpenClip 击败了 openAI Clip,并且 Stable Diffusion 比封闭模型更好。 你不需要庞大的模型,高质量的数据更有效、更重要,API 背后的羊驼模型进一步削弱了护城河。 你可以从一个好的基础模型和参数高效微调(PEFT)算法开始,比如 Lora 在一天内就能运行得非常好。算法创新终于开始了! 大学和开源社区应该组织更多的工作来管理数据集,训练基础模型,并像 Stable Diffusion 那样建立微调社区。
能在手机上运行的大型语言模型:人们可以在 Pixel 6 上运行基础模型,速度为 5 tokens / 秒。 可扩展的个人 AI:你可以花一个晚上在你的笔记本电脑上微调一个个性化的 AI。 负责任的发布:这个问题与其说是「被解决了」,不如说是「被忽略了」。有的网站整体都是没有任何限制的艺术模型,而文字也不例外。 多模态:目前的多模态科学 QA SOTA 是在一个小时内训练完成的。
我们没有秘密武器。我们最大的希望是向谷歌以外的其他人学习并与他们合作。我们应该优先考虑实现 3P 整合。 当免费的、不受限制的替代品质量相当时,人们不会为受限制的模型付费。我们应该考虑我们的附加值到底在哪里。 巨大的模型拖慢了我们的速度。从长远来看,最好的模型是那些可以快速迭代的模型。既然我们知道 200 亿以下参数的模型能做什么,那我们应该在一开始就把它们做出来。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章