Redian新闻
>
又一大模型惨遭泄漏,Meta版ChatGPT被迫开源!

又一大模型惨遭泄漏,Meta版ChatGPT被迫开源!

公众号新闻

转自:新智元

模型开源,但不够体面?现在,网友会帮你体面……

ChatGPT角逐之战愈演愈烈。
前几周,Meta发布了自家的大型语言模型LLaMA,参数量从70亿到650亿不等。
论文中,仅用1/10参数的LLaMA(130亿)在大多数基准测试下超越了GPT-3。
对于650亿参数的LLaMA,则与DeepMind的Chinchilla(700亿参数)和谷歌的PaLM(5400亿参数)旗鼓相当。
虽然Meta声称LLaMA是开源的,但还需要研究人员申请并进行审核。
然而万万没想到的是,刚发布没几天,LLaMA的模型文件就提前泄露了。

那么,问题来了,这究竟是故意的还是不小心的

LLaMA惨遭「开源」?


近日,国外论坛4chan上泄露了LLaMA的成品库。
上周四,用户llamanon在4chan的技术板上发帖,通过种子文件(torrent)发布7B和65B的LLaMA模型。

这个种子链接目前被合并到了LLaMA的GitHub页面

他还向项目提交了第二个拉请求,该请求提供了一个种子链接,链接到模型的另一组权重。 

目前该项目在GitHub已收获8k星。

然而,泄密者最大的错误之一就是在泄密的模型中包含了他们的唯一标识符代码。
这个代码是专门用来追踪泄密者的,使用户llamanon的个人信息处于危险之中。
正所谓,LLaMA开源的不太体面,网友帮它体面了。
此外,4chan上的用户还为那些希望在自己的工作站上部署该模型的人创建了一个方便的资源。

并提供了一个分布教程的指南,说明如何获得模型,并将修改后的权重添加到其中,以便进行更有效的推理。

更重要的是,这个资源甚至提供了一种将LLaMA集成到 在线写作平台KoboldAI的方法。

对于这件事究竟是Meta有意为之,还是无意泄漏。网友们纷纷发表了自己的看法。
一位网友分析地头头是道,「也许这是Meta故意泄露的,以对抗 OpenAI。」

一些客户认为这是一个更好的模型,它恰好击中了他们以每年25万美元的价格出售访问权的商业计划的核心。访问他们的服务一个月可以购买一台能够运行这种泄露模型的机器。Meta削弱了一个潜在的新贵竞争对手,以保持当前的大型科技卡特尔稳定。也许这有点阴谋论,但我们生活在大科技和大阴谋的时代。
周一,Meta称,尽管LLaMA已经泄露给未经授权的用户,仍将继续向认可的研究人员发布其人工智能工具。
有网友直接称,自己下载了70亿参数的LLaMA,尽管不知道如何运行,万一以后用上就能拿来了。
LLaMA的泄露和开源是一个大事件:
Stable Diffusion开源了。8个月后,我们现在就可以读懂别人的思想,解码他们看到的一切。
随着LLMs的开放,我们将得到一些真正的疯狂的东西。

模型初步评测


LLaMA发布不久后,网友发现这个最小参数的模型也需要近30GB的GPU才能运行。
然而,通过比特和字节库进行浮点优化,他们能够让模型在单个NVIDIA RTX 3060上运行。
此外,GitHub 上的一名研究人员甚至能够在Ryzen 7900X CPU上运行LLM的7B 版本,每秒能推断出几个单词。
那么LLaMA模型究竟怎样?国外小哥便对它进行了评测。
LLaMA在很多测试中表现出色。
在大规模多任务语言理解方面,即使相对较小的13B模型也与GPT-3水平相当,而GPT-3的规模是其13倍。
33B版本远远优于GPT-3, 65B则可与现有最强大的LLM模型--谷歌的540B参数的PaLM竞争。
对于需要应用逻辑或计算进行处理的文本方面,LLaMA表现优秀,在定量推理方面可与PaLM相较,甚至比后者的代码生成能力更好。
鉴于这些结果,LLaMA似乎是目前最先进的模型之一,而且,它足够小,不需要多少资源就能运行。这使得LLaMA对于人们来说充满诱惑,想让人和它玩玩,见识一下它的本领。

解释笑话


PaLM原始论文中展示了一个非常酷的用例:给定一个笑话,让模型解释它为什么好笑。这个任务需要把尝试和逻辑结合起来,PaLM之前的所有模型都无法做到这一点。
将其中一些笑话交给LLaMA和ChatGPT来解释,有些笑话语言模型能get到,比如Schimidhuber冗长无聊的发言。
但总体上LLaMA和ChatGPT都没什么幽默感。
不过两者应对听不懂的笑话的策略不同,ChatGPT会产生「一堵文本墙」,希望其中至少有一些语句是正确答案,这种行为就像是不知道答案的学生,希望老师能从他们的一通乱说里找出答案。

零样本归类


这是一种很实用的功能,使得人们可以用LLM代替评分员来生成训练集,然后在这些训练集上训练较小的可服务的模型。
一个更有挑战性的任务是点击广告分类,由于连人类都不能就什么是点击广告达成一致,在提示中会向模型提供一些例子,所以事实上这是一个少样本而非零样本归类。下面是LLaMA的提示。
测试中只有LLaMA-33B会设法遵循所要求格式给出答案,而且其预测是合理的,ChatGPT表现次之,能给出比较合理的答案,但时常不按规定的格式回答,较小的7B、13B模型则不太适合完成这项任务。

代码生成


虽然法LLM在人文方面表现出色,但不擅长STEM科目,那么LLaMA在这方面的表现如何呢?
在提示中,给出搜索表的形式和希望达到的目的,要求模型给提供SQL查询语句。
ChatGPT在这项任务中表现更好一点,但语言模型给出的结果总体都不太靠谱。
在与ChatGPT对比进行的各项测试中,LLaMA并没有如想象中一样大获全胜。当然如果其间差距只是由RLHF(带有人类反馈的强化学习)造成的,那小型模型的未来可能会更光明。
参考资料:
https://www.reddit.com/r/MachineLearning/comments/11h3p2x/d_facebooks_llama_leaks_via_torrent_file_in_p
https://medium.com/@enryu9000/mini-post-first-look-at-llama-4403517d41a1
·················END·················

推荐阅读

•   再教大家几手绝活,杀疯了•   AI又进化了,突破性革命来了•   今天打开个税APP,我直接人麻了

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
2000元训练比肩ChatGPT的开源大模型!GPT-4亲自盖章认证,模型权重均可下载商汤版ChatGPT来袭,中国激战千亿“大模型”商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此叫板ChatGPT?Stability AI 开源语言大模型 StableLM,参数仅为GPT-3百分之四,却能实现超高性能黄贯中:你再打我老婆,我会变成弑父仇人关于中药西药最好的解释ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线网文版ChatGPT来了:大模型辅助写作,澜舟和中文在线联手出品Meta版ChatGPT来了?小扎、LeCun官宣650亿参数SOTA大语言模型LLaMA集成ChatGPT后必应日活量首破亿!微软推出Azure OpenAI ChatGPT 服务,GPT-4下周发布对话元语智能创始团队:做中国版ChatGPT,为什么坚持大模型开源路线?|甲子光年首个中文版ChatGPT来了:大模型的中国元“Yuan”开源版ChatGPT要来了?这个AI做图神器团队,想让人人都能做自己的大模型阿里版ChatGPT已接入钉钉,张勇:未来所有业务都有大模型加持阿里版ChatGPT突然上线邀测!大模型热战正剧开始,这是第一手体验实录Costco 对咱的吐槽部署国产ChatGPT仅需6G显存!ChatYuan模型开放下载:业内首个功能型对话开源中文大模型Google内部文件首次泄漏:ChatGPT 没有护城河,开源才是大模型未来FastTrack Universität 2023莱比锡大学公立语言项目招生简章LLaMA模型惨遭泄漏,Meta版ChatGPT被迫「开源」!GitHub斩获8k星,评测大量出炉美国自驾游—— 回家的路:俄勒冈和北加州海岸线开源版ChatGPT来了?多数任务效果超越GPT3,已开源!Meta版ChatGPT惨遭“开源”?最新大模型LLaMA被泄露,已在GitHub收获7k+星视觉版ChatGPT来了!吸收AI画画全技能,MSRA全华人团队打造,微软16年老将领衔阿里版ChatGPT上线,谁会是大模型生态的下一个卷王?轻量版ChatGPT训练方法开源!仅用3天围绕LLaMA打造,号称训练速度比OpenAI快15倍Meta发布全新大语言模型,号称比ChatGPT更强,单GPU上就能跑,后续或将开源刚来加拿大时的邻居(上)ChatGPT讲座:ChatGPT并不神秘,但ChatGPT很神奇百度版ChatGPT确定为“文心一言”/ 戴尔裁员5%/ 苹果要开会应对ChatGPT…今日更多新鲜事在此刚刚!李开复宣布筹办新公司,进军大模型:不仅是中国版ChatGPT,全球广招顶级人才。。。每周硅闻 | 突发!ChatGPT被禁;又一大厂大规模裁员;Meta小动作不断!这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3开源版ChatGPT,30分钟训完,性能堪比GPT3.5!刚刚!商汤版ChatGPT「商量」来了!开放API,基于千亿参数大模型,体验实录在此
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。