据爆料:国内某知名大模型实为简单修改的LLAMA
点击
上方蓝字关注我们
近期,一则有关中国某知名科技公司的新型语言模型(LLM)的爆料在业界引起了广泛关注。这款模型原本被业界普遍看作是一次重大的技术创新,但随着最新消息的曝光,据称其真实面目却是对开源LLaMA模型的直接复制和重命名,这一事实令人震惊。
LLaMA是 Meta 开发并开源的大型语言模型,它专注于自然语言处理任务,如文本生成和问答。LLaMA 在开源社区中备受关注,因为它提供了一个先进的模型框架,可供研究者和开发者使用和改进。
这个事件的起源可以追溯到上周,一家规模较小的公司接到了海外客户的请求,希望帮助他们适配这款由中国一家大型科技公司新推出的语言模型。然而,由于业务繁忙,该公司尚未开始进行适配工作。
令人意想不到的是,就在今日,一位业内人士向他们透露,这款被大力宣传的新模型实际上是基于LLaMA架构的。这家中国公司为了掩盖其模型的来源,仅仅在代码中将LLaMA的名称更改为自己的品牌名,并对一些变量名称进行了轻微的调整。
从社交媒体曝光的信息来看,此次爆料者备注信息为前阿里首席AI科学家贾扬清,之前资料显示,贾已从阿里离职并投身大模型创业。对于曝光者身份的真伪,有待进一步确认。
这一发现迅速引起了海外工程师的注意,并在Hugging Face这一平台上迅速传播。这些工程师公开发布了一个checkpoint,将模型的名称改回了LLaMA,清楚地表明这款模型与开源的LLaMA实质上并无差别。这意味着,任何用户都可以直接使用LLaMA的代码来加载这个checkpoint,无需针对这款所谓的“新模型”进行任何特殊的适配。
面对这样的情况,这家小公司选择避免直接与行业巨头对抗,决定不公开涉事公司的名称。但作为开源社区的一员,他们认为有必要对这种行为发出警告。开源社区的成果是基于全球工程师的共同努力和无私奉献,任何企业或个人不应轻易地将这些成果据为己有,更不能通过简单的重命名手段来误导公众。
截至目前,被爆料的企业尚未就此事件发表正式声明。关于该事件的真实性难以完全评估,需要指出的是,目前的信息主要来源于网络上少数用户的评论和爆料,这并不能充分证实事件的全部真相。因此,在缺乏官方声明和更多确凿证据的情况下,对此事件的真实性应保持谨慎态度。
业界人士纷纷呼吁,所有利用开源模型的企业应该尊重原创者的劳动成果,保持透明和诚信。如果某个产品确实是基于开源模型开发的,那么它的来源应该被明确标示。这不仅有利于维护开源社区的健康发展,也有助于保障整个技术领域的诚信和创新氛围。只有在相互尊重和合作的基础上,整个行业才能实现真正的可持续发展,推动技术进步。
已有超过1000名
读者加入交流群
我们还在等你
点个在看你最好看
CLICK TO SEE YOU LOOK THE BEST
微信扫码关注该文公众号作者