Redian新闻
>
媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强

媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强

公众号新闻
白交 发自 凹非寺
量子位 | 公众号 QbitAI

Mistral-Medium竟然意外泄露?此前仅能通过API获得,性能直逼GPT-4。

CEO最新发声:确有其事,系早期客户员工泄露。但仍表示敬请期待

换句话说,这个版本尚且还是旧的,实际版本性能还会更好。

这两天,这个名叫“Miqu”的神秘模型在大模型社区里炸了锅,不少人还怀疑这是LIama的微调版本。

对此Mistral CEO也做出了解释, Mistral Medium是在Llama 2基础上重新训练的,因为需尽快向早期客户提供更接近GPT-4性能的API, 预训练在Mistral 7B发布当天完成。

如今真相大白,CEO还卖关子,不少网友在底下戳戳手期待。


Mistral-Medium意外泄露

我们还是重新来回顾一下整个事件。1月28日,一个名叫Miqu Dev的神秘用户在HuggingFace上发布一组文件“miqu-1-70b”。

文件指出新LLM的“提示格式”以及用户交互方式同Mistral相同。

同一天,4chan上一个匿名用户发布了关于miqu-1-70b文件的链接。

于是乎一些网友注意到了这个神秘的模型,并且开始进行一些基准测试。

结果惊人发现,它在EQ-Bench 上获得83.5 分(本地评估),超过世界上除GPT-4之外的所有其他大模型

一时间,网友们强烈呼吁将这个大模型添加到排行榜中,并且找出背后的真实模型。

大致怀疑方向主要有三个:

  • 与Mistral-Medium是同一个模型

有网友晒出了对比效果:它知道标准答案还说得过去,但不可能连俄语措辞也跟Mistral-Medium完全相同吧。

  • Miqu应该是LIama 2的微调版本。

但另外的网友发现,它并不是MoE模型,并且同LIama 2架构相同、参数相同、层数相同,。

不过马上就受到其他网友的质疑,Mistral 7b也具有与 llama 7B 相同的参数和层数。

相反,这更像是Mistral早期非MoE版本模

不过讨论来讨论去,不可否认的是在不少人心中,这已经是最接近GPT-4的模型了。

如今,Mistral 联合创始人兼首席执行官 Arthur Mensch承认泄露,是他们一位早期客户员工过于热情,泄露了他们训练并公开发布的一个旧模型量化版本。

至于Perplexity这边CEO也澄清说,他们从未获得过Mistral Medium的权重。

网友担心是否会撤下这个版本。

有趣的是,Mensch并没有要求删除HuggingFace上的帖子。

而是留下评论说:可能会考虑归属问题。

参考链接:
[1]https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/

[2]https://twitter.com/teortaxesTex/status/1752427812466593975
[3]https://twitter.com/N8Programs/status/1752441060133892503
[4]https://twitter.com/AravSrinivas/status/1752803571035504858

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
日常鲜花与节日装饰(外一篇)家居修理系列:保温篇(2)外墙的保暖充填首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%Stability AI发布全新代码模型Stable Code 3B!媲美70亿Code Llama,没GPU也能跑国产开源模型标杆大升级,重点能力比肩ChatGPT!书生·浦语2.0发布,支持免费商用Mountlake Terrace 小镇过圣诞GPT-4级别模型惨遭泄露!引爆AI社区,“欧洲版OpenAI”下场认领戏说中国人民的老朋友们抱抱脸正面挑战OpenAI,推出开源版GPT商店!完全免费、支持六大开源模型当底座最低时薪$20,加州餐馆l老板笑不出来了....ChatGPT实体化了!手机变身ChatGPT实体机器人,只需一个配件,能说话还会做梦,真的牛!直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?GPT-4V开源平替!清华浙大领衔,LLaVA、CogAgent等开源视觉模型大爆发Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发马斯克发全球最大开源模型!3140亿参数的Grok真打脸OpenAI了?重磅!ChatGPT放大招!GPT Store应用商店今天上线!超300万GPTs,内卷之下的赚钱机会!碾压前辈!Meta发布“最大、性能最好”的开源Code Llama 70B,但开发者纷纷喊穷:玩不起!全球最强开源模型一夜易主,1320亿参数推理飙升2倍!逼近GPT-4的新模型发布!「欧洲版OpenAI 」联手微软,却被质疑违背初心矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见杀疯了的开源专家模型 Mixtral 8x7B 论文公开啦!小学四年级时在食堂吃饭最接近GPT-4的国产大模型诞生了碾压前辈!Meta 发布“最大、性能最好”的开源 Code Llama 70B,但开发者纷纷喊穷:玩不起马斯克正式开源 Grok-1,成为全球最大的开源大模型刚刚!马斯克开源 Grok:参数量近 Llama 四倍,成全球最大开源模型性能逼近GPT-4,开源Mistral-Medium意外泄露?CEO最新回应来了OpenAI“宿敌”:放松不了一点!开源模型一不小心就变安全“卧底”全球最强开源模型一夜易主,1320亿参数推理飙升2倍开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了上市公司大股东补充质押公告增多,刚刚证监会回应!Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量OpenAI有望在今年夏季推出GPT-5;英伟达推出更强GPU芯片;马斯克宣布正式开源Grok-1|AIGC周观察第三十七期
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。