Redian新闻
>
性能逼近GPT-4,开源Mistral-Medium意外泄露?CEO最新回应来了

性能逼近GPT-4,开源Mistral-Medium意外泄露?CEO最新回应来了

公众号新闻

  整理 | 冬梅、核子可乐

接近 GPT-4 性能的开源模型
疑似泄露,开发者纷纷下场测试

近日,一则关于“Mistral-Medium 模型泄露”的消息引起了大家的关注,该消息在 Hacker News 和 X(原 Twitter)上持续发酵。

此消息之所以受到这么多关注,与一款叫做“Miqu”的神秘模型有关。

1 月 28 日左右,一位名为“Miqu Dev”的用户在开源 AI 模型和代码共享平台 HuggingFace 上发布了一组文件,这些文件共同构成了一个看似新的开源大语言模型,名为“miqu-1-70b”。

开源地址https://huggingface.co/miqudev/miqu-1-70b


在 Hugging Face 平台的 miqu-1-70b 项目上,多条内容指出这款新的大语言模型的“提示格式”以及用户与其交互的方式与 Mistral AI 公司正在研发中的 Mistral Medium 模型相同。同一天,4chan 上的一位匿名用户(可能是“Miqu Dev”)在 4chan 上发布了 miqu-1-70b 文件的链接,该项目的受关注程度逐渐升高。

模型放出后,有业内人士猜测,这个神秘泄露的 miqu-1-70b 可能就是 MistralAI 模型的 Medium 或者过往混合专家测试版本。

一些人用户在 X 上分享了该模型的发现,以及该模型在常见 LLM 任务(通过称为基准的测试来衡量)上表现出的异常出色的性能,甚至接近了 OpenAI 的 GPT -4 在 EQ 工作台上的表现。


有用户测试了这款神秘模型和 Medium 模型后表示:“尽管可能有些晚了,但现在我 100% 确信 miqu 与 Perplexity Labs 上可访问的 Mistral-Medium 模型是同一个模型。该用户还称:“它似乎知道标准谜题,但如果是恶作剧者,根本不可能将其调整为同样用俄语回答。”

这款备受瞩目的生成式 AI 新星——miqu-1-70b 自然要被拿来与各位前辈进行一番比较。有测试者用 4 项德国数据保护测试对这款神秘模型做了更深入的测试,方法如下:

  • 这里通过 4 项德国在线数据保护培训 / 考试,对这套新模型的表现加以验证。

  • 测试数据、问题及所有说明均为德语,而答题卡则为英语。这考察了模型的翻译能力和跨语言理解能力。

  • 在提供信息之前,测试者会用德语指示模型:接下来向你提供一些信息,请记住相关内容,并回答“确定”以确认已经理解其内容。这一步是为了测试模型的指令理解与遵循能力。

  • 在提供关于某个主题的全部信息之后,测试者会向模型提出测试问题。这是一套包含三个选项的多选题,但首题采用 A/B/C 选项,末题为 X/Y/Z 选项。每项考试包含 4 至 6 道题,测试流程总计 18 道选择题。

  • 根据模型给出的正确答案数量进行排名,先测试事先提供课程内容后的成绩,再测试没有提供信息下的盲答成绩(作为决胜局)。

  • 所有测试均单独运行,每次测试间会清除上下文,保证会话之间的记忆 / 状态不相互干扰。

还进行了包括 SillyTavern 前端、koboldcpp 后端(对于 GGUF 模型)在内的其他测试,另外还预先设置确定性生成,以尽可能消除随机因素并进行有意义的模型间比较,也包括注明官方提示词格式。

以下为详细注释、排名基础和其他评论与观察发现:

  • miqudev/miqu-1-70b GGUF Q5_K_M, 32K 上下文, Mistral 格式:

❌ 正确回答了 4+4+4+5=17/18 道选择题,而在盲答阶段,正确答案题为: 4+3+1+5=13/18。

❌ 未能按照要求用“确定”来回应数据输入。

经过了多项测试后,结果显示 miqu-1-70b 的效果着实不错,测试者出于个人猜测,miqu-1-70b 可能是一套外泄的 MistralAI 概念验证旧模型,从开发次序来讲应该不会比 Mixtral 更晚。此外,测试者也表示,在测试过程中注意到了几个有趣的点,从这几个方面来看,miqu-1-70b 跟 Mixtral 存在诸多相似:

  • 优秀的德语拼写与语法能力。

  • 支持双语,可在回复中添加翻译。

  • 能够为回复添加注释和评论。

但测试者也表示,在测试中,miqu-1-70b 仍无法与 Mixtral-8x7B-Instruct-v0.1(4-bit)相媲美,不过性能仍比 Mistral Small 和 Medium 更好(亲自测试 Medium 时其表现相当糟糕,可能是 API 的问题)。但与测试者每天都在使用的 Mixtral 8x7B Instruct 相比,miqu 也没有好太多。

在这场 miqu 和 Mistral Medium 模型对比测试中,前阵子号称要干掉谷歌搜索的 Perplexity 印度创始人 Aravind Srinivas 也在 X 上发表了自己的观点:

很多人问我Mistral的所有模型是否都基于Meta的Llama。特别是因为Mistral Medium在Perplexity Labs上的输出与miqu非常相似,而这种相似性是通过测试发现的。Mistral的CEO Arthur已经提供了一个清晰的解释,并确认这是一个来自早期访问客户的泄露。


此外,Perplexity从未获得过Mistral Medium的权重访问权限。所以,当你在Labs上使用Mistral Medium时,我们只是将你的请求路由到Mistral支持的有效端点,而没有访问权重。泄露的权重实际上是量化版本,与NVIDIA TensorRT不兼容。


此外,很多人在看到这个消息是本能地反应会认为Mistral不知道如何进行预训练,只是在LLama 2上构建。这是明显不真实的。Mistral 7b是一个由Mistral团队从头开始训练的模型,而Mistral 8x7b MoE也是通过使用他们自己的7b作为每个专家的初始化来训练的。所以很明显,这个团队知道如何从零开始训练自己的模型。Mistral Medium是从LLama后期训练的,可能是因为迫切需要一个接近GPT-4质量的API,以便早期客户使用。但是一个能够在计算和时间投入远少于Gemini Pro的情况下取得胜利的团队,现在他们有了更多的资金和计算资源,显然能够做到GPT-4级别的质量。


当然,泄露是不好的。Mistral的胜利对社区来说是一件好事:无论是对学术界还是对初创公司。支持他们!

Mistral AI 高层发声:
是泄露了,但只是个旧版本

在 Mistral AI 的新模型遭泄漏这一话题热度不断上涨之时,据外媒最新消息,Mistral AI 联合创始人兼 CEO Arthur Mensch 在 X 上澄清:

“一个我们早期客户的热情员工泄露了一个我们公开训练和发布的老模型的量化(带水印)版本。为了尽快与一些特定的客户开始合作,我们在获得整个集群访问权限后立即从 Llama 2 重新训练了这个模型——预训练在 Mistral 7B 发布的那一天完成。自那时以来,我们取得了很好的进展——敬请期待!”


有趣的是,Mensch 并没有要求删除 HuggingFace 上的帖子,而是留下那些评论说发帖者“可能会遭到模型所属公司追责”的评论。

Mistral AI 创始团队成员
均来自谷歌和 Meta

Mistral AI 是一家总部位于巴黎的欧洲公司,由 Arthur Mensch 和 Guillaume Lample 以及 Timothée Lacroix 于 2023 年 2 月联合创立,并于去年 12 月 10 日宣布筹集了 3.85 亿美元,仅半年多的时间,该公司估值近 20 亿美元。Mistral AI 在刚成立且没有任何产品时就已筹集了 1.05 亿美元。

因此,它也成为继德国 Aleph Alpha 在去年 11 月筹集了 5 亿欧元之后,第二家筹集到如此多资金的欧洲人工智能初创公司。

Mistral AI 一直在研究如何提高模型性能,同时减少为实际用例部署 llm 所需的计算资源。Mistral 7B 是他们创建的最小 LLM,它为传统的 Transformer 架构带来了两个新概念,Group-Query Attention(GQA) 和 Sliding Window Attention(SWA)。这些组件加快了推理速度,减少了解码过程中的内存需求,从而实现了更高的吞吐量和处理更长的令牌序列的能力。

Mistral AI 首席执行官 Arthur Mensch,31 岁,在 Google 人工智能实验室 DeepMind 工作了近三年。Mistral 的科学总监 Guillaume Lample 是 Facebook 母公司 Meta 在 2 月份推出的 LLaMA 语言模型的创建者之一。Timothée Lacroix 是 Mistral AI 的技术总监,也是 Meta 的研究员。

参考链接:

https://twitter.com/Yampeleg/status/1751837962738827378

https://www.euronews.com/next/2023/12/11/french-ai-start-up-mistral-reaches-unicorn-status-marking-its-place-as-europes-rival-to-op

https://analyticsindiamag.com/mistral-ai-challenges-dominance-of-openai-google-meta/

https://news.ycombinator.com/item?id=39175611

 内容推荐

探索 AI 的最前沿,深入大模型时代的核心技术!2023 年 12 月 28 日至 29 日,QCon 全球软件开发大会在上海成功举办,大会聚焦于软件开发的最新趋势和技术,内容涵盖阿里巴巴的 LLM 训练加速实践、字节跳动的高性能向量检索技术,到楷同科技的智能量化交易系统优化,再到英特尔的 CPU 优化策略。经分享嘉宾同意后,「AI 前线」为您奉上精彩演讲 PPT!

关注「AI 前线」回复关键词「性能优化」免费获取。


今日荐文


碾压前辈!Meta发布“最大、性能最好”的开源Code Llama 70B,但开发者纷纷喊穷:玩不起!


OpenAI出手后,GPT-4真的不懒了?网友不买账:只靠打补丁恐怕无济于事!


贾扬清新作被某印度创始人内涵借鉴,懒得纠缠:巧了,正准备开源,GitHub 见


向微软“复仇”!支持OpenAI、Copilot 的Zed编辑器要干掉VS Code:Rust+少插件,速度贼快


代码屎山噩梦加速来袭,都是AI生成代码的锅?


微软战略AI产品发布一周就翻车!网友:跟ChatGPT Plus 比,简直就是垃圾



你也「在看」吗? 👇

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
胡塞武装最新回应来了!日常鲜花与节日装饰(外一篇)Mountlake Terrace 小镇过圣诞奥数逼近金牌水平!谷歌最新AlphaGeometry模型登上Nature!菲尔兹奖得主点赞国产大模型,逼近GPT-4|甲子光年纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023最接近GPT-4的国产大模型诞生了周末刷屏!知名女星"翻车",商家报警!2000亿大白马突然暴跌,最新回应来了外企社招丨Dräger德尔格,行业全球领导者,15薪,六险一金,多样福利,偏爱留学生苹果大模型最大动作:开源M芯专用ML框架,能跑70亿大模型最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?家居修理系列:保温篇(2)外墙的保暖充填Ivy Day 传普林斯顿大学2028届招生名单泄露?结果…逼近GPT-4的新模型发布!「欧洲版OpenAI 」联手微软,却被质疑违背初心开源日报 | 华为腾讯相爱相杀;Redis不再 “开源”;老黄集齐Transformer论文七大作者;“中国大模型第一城”争夺战核心信息又遭泄露?小米SU7配置疑似曝光!新加坡保安对中国游客作羞辱性手势,连日本游客都看不下去!官方最新回应来了讯飞星火V3.5整体接近GPT-4 Turbo!首个13B开源大模型发布,深度适配国产算力GLM-4国产大模型上线 称整体性能逼近GPT-4 降低推理成本为大模型恶补数学,上交开源MathPile语料库,95亿tokens,还可商用斗鱼、虎牙将合并?最新回应来了|大公司动态媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%智谱 AI 推出新一代基座大模型 GLM-4,能力逼近 GPT-4,配备多模态、长文本和智能体【美国联邦医保系列】医疗补助(Medicaid/Medical assistance)遗失通知:及时行动,重获医疗保障国产「GPTs」上线!全面对标 OpenAI 的智谱发布大模型,性能逼近 GPT-480%清华毕业生出国?最新回应来了!戏说中国人民的老朋友们首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%小学四年级时在食堂吃饭混合专家系统里根本没专家?开源MoE模型论文引网友热议华人女星美国豪宅被洗劫一空 损失数千万 几十年奋斗化为乌有! 最新回应来了!重大利好!650亿元“巨无霸”IPO终止!曾拟募资600亿,估值达3250亿!公司最新回应来了...Mistral-Medium意外泄露?冲上榜单的这个神秘模型让AI社区讨论爆了
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。