Redian新闻
>
发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试

发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试

公众号新闻



  新智元报道  

编辑:编辑部
【新智元导读】前段时间,微软公布并开源了最新一代大模型WizardLM-2,号称性能堪比GPT-4。不过,还未上线一天,模型权重和公告全被删除了,原因竟是......

上周,微软空降了一个堪称GPT-4级别的开源模型WizardLM-2。

却没想到发布几小时之后,立马被删除了。

有网友突然发现,WizardLM的模型权重、公告帖子全部被删除,并且不再微软集合中,除了提到站点之外,却找不到任何证据证明这个微软的官方项目。

GitHub项目主页已成404。

项目地址:https://wizardlm.github.io/

包括模型在HF上的权重,也全部消失了.....

全网满脸疑惑,WizardLM怎么没了?

然鹅,微软之所以这么做,是因为团队内部忘记对模型做「测试」。

随后,微软团队现身道歉并解释道,自几个月前WizardLM发布以来有一段时间,所以我们对现在新的发布流程不太熟悉。

我们不小心遗漏了模型发布流程中所需的一项内容 :投毒测试

微软WizardLM升级二代


去年6月,基于LlaMA微调而来的初代WizardLM一经发布,吸引了开源社区一大波关注。

论文地址:https://arxiv.org/pdf/2304.12244.pdf

随后,代码版的WizardCoder诞生——一个基于Code Llama,利用Evol-Instruct微调的模型。

测试结果显示,WizardCoder在HumanEval上的pass@1达到了惊人的 73.2%,超越了原始GPT-4。

时间推进到4月15日,微软开发者官宣了新一代WizardLM,这一次是从Mixtral 8x22B微调而来。

它包含了三个参数版本,分别是8x22B、70B和7B。

最值得一提的是,在MT-Bench基准测试中,新模型取得了领先的优势。

具体来说,最大参数版本的WizardLM 8x22B模型性能,几乎接近GPT-4和Claude 3。

在相同参数规模下,70B版本位列第一。

而7B版本是最快的,甚至可以达到与,参数规模10倍大的领先模型相当的性能。

WizardLM 2出色表现的背后的秘诀在于,微软开发的革命性训练方法论Evol-Instruct。

Evol-Instruct利用大型语言模型,迭代地将初始指令集改写成越来越复杂的变体。然后,利用这些演化指令数据对基础模型进行微调,从而显著提高其处理复杂任务的能力。

另一个是强化学习框架RLEIF,也在WizardLM 2开发过程中起到了重要作用。

在WizardLM 2训练中,还采用了AI Align AI(AAA)方法,可以让多个领先的大模型相互指导和改进。

AAA框架由两个主要的组件组成,分别是「共同教学」和「自学」。

共同教学这一阶段,WizardLM和各种获得许可的开源和专有先进模型进行模拟聊天、质量评判、改进建议和缩小技能差距。

通过相互交流和提供反馈,模型可向同行学习并完善自身能力。

对于自学,WizardLM可通过主动自学,为监督学习生成新的进化训练数据,为强化学习生成偏好数据。

这种自学机制允许模型通过学习自身生成的数据和反馈信息来不断提高性能。

另外,WizardLM 2模型的训练使用了生成的合成数据。

在研究人员看来,大模型的训练数据日益枯竭,相信AI精心创建的数据和AI逐步监督的模型将是通往更强大人工智能的唯一途径。

因此,他们创建了一个完全由AI驱动的合成训练系统来改进WizardLM-2。

手快的网友,已经下载了权重


然而,在资料库被删除之前,许多人已经下载了模型权重。

在该模型被删除之前,几个用户还在一些额外的基准上进行了测试。

好在测试的网友对7B模型感到印象深刻,并称这将是自己执行本地助理任务的首选模型。

还有人对其进行了投毒测试,发现WizardLM-8x22B的得分为98.33,而基础Mixtral-8x22B的得分为89.46,Mixtral 8x7B-Indict的得分为92.93。

得分越高越好,也就是说WizardLM-8x22B还是很强的。

如果没有投毒测试,将模型发出来是万万不可的。

大模型容易产生幻觉,人尽皆知。

如果WizardLM 2在回答中输出「有毒、有偏见、不正确」的内容,对大模型来说并不友好。

尤其是,这些错误引来全网关注,对与微软自身来说也会陷入非议之中,甚至会被当局调查。

有网友疑惑道,你可以通过「投毒测试」更新指标。为什么要删除整个版本库和权重?

微软作者表示,根据内部最新的规定,只能这样操作。

还有人表示,我们就想要未经「脑叶切除」的模型。

不过,开发者们还需要耐心等待,微软团队承诺,会在测试完成后重新上线。

参考资料:
https://favtutor.com/articles/wizardlm-2-benchmarks/
https://anakin.ai/blog/wizardlm-2-microsoft/





微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
李彦宏:开源大模型不如闭源,后者会持续领先;周鸿祎:“开源不如闭源” 的言论是胡说八道微软秒删堪比 GPT-4 的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试Meta、微软、Mistral AI、Hugging Face、通义、港中文六路进发开源大模型 | 大模型一周大事微软发布Phi-3 Mini:3.8B参数小到能塞进手机,性能媲美GPT-3.5因为你来了马斯克正式开源 Grok-1,成为全球最大的开源大模型一个悄然崛起的国产开源大模型!开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上最强开源大模型深夜炸场! Llama 3 王者归来,直逼 GPT-4, 马斯克点赞 | 附体验链接AI届的拼多多来了!能力媲美GPT-4,价格为其1%参数量不到10亿的OctopusV3,如何媲美GPT-4V和GPT-4?英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o端侧模型 OctopusV3 发布:手机上的超级助理,性能媲美 GPT-4V 和 GPT-4 的组合?性能强,成本低,运行快!最强开源大模型出现,超越ChatGPT和Llama!Sora不开源,微软给你开源!全球最接近Sora视频模型诞生,12秒生成效果逼真炸裂卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报真假开源:开源大模型的实际开放性探讨阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强俞渝谈平等;夏克立说男生也会被家暴;郝劭文回应帮别人养女儿苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源微软来大招:手机部署堪比GPT3.5高性能大模型!华为 Pura 70 系列上架即售罄/Meta 发布全球最强开源大模型/理想汽车 L6 发布开放开源!蚂蚁集团浙江大学联合发布开源大模型知识抽取框架OneKE《梅》&《忘掉吧昨天》微软秒删堪比GPT-4的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试电影热辣滚烫相聚多伦多(三十七) 咫尺天涯苹果智能背后模型公布:3B模型优于Gemma-7B,服务器模型媲美GPT-3.5-TurboAI早知道|B 站开源轻量级 AI 语言模型;阿里通义Qwen2成最强开源大模型开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4开源大模型火了!(附99个大模型微调模型/数据/工具)!今日arXiv最热CV大模型论文:国产开源视觉大模型InternVL 1.5发布,赶超GPT-4V水准
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。