Redian新闻
>
开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

开源模型新纪录:超越Mixtral 8x7B Instruct的模型来了

公众号新闻

机器之心报道

编辑:张倩

又有新的开源模型可以用了。

从 Llama、Llama 2 到 Mixtral 8x7B,开源模型的性能记录一直在被刷新。由于 Mistral 8x7B 在大多数基准测试中都优于 Llama 2 70B 和 GPT-3.5,因此它也被认为是一种「非常接近 GPT-4」的开源选项。


前段时间的一篇论文中,该模型背后的公司 Mistral AI 公布了 Mixtral 8x7B 的一些技术细节,并推出了 Mixtral 8x7B – Instruct 聊天模型。该模型性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。在 BBQ 和 BOLD 等基准中,Mixtral - Instruct 也显示出更少的偏见。


但最近,Mixtral Instruct 也被超越了。一家名叫 Nous Research 的公司宣布,他们基于 Mixtral 8x7B 训练的新模型 ——Nous-Hermes-2 Mixtral 8x7B 在很多基准上都超过了 Mixtral Instruct,达到了 SOTA 性能。



该公司联合创始人、X 平台用户 @Teknium (e/λ) 表示,「据我所知,这是第一个击败 Mixtral Instruct 的基于 Mixtral 的模型,在我个人的测试中,它可能是最好的开源 LLM 模型!」



模型资料卡显示,该模型在超过 100 万个条目(主要是 GPT-4 生成的数据)以及来自整个 AI 领域开放数据集的其他高质量数据上进行了训练。根据后续微调方法的不同,该模型被分为两个版本:   


  • 仅用 SFT 方法微调的 Nous Hermes 2 Mixtral 8x7B SFT。链接:https://huggingface.co/NousResearch/Nous-Hermes-2-Mixtral-8x7B-SFT

  • 用 SFT+DPO 方法微调的 Nous Hermes 2 Mixtral 8x7B DPO。链接:https://huggingface.co/NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO。Mixtral Nous-Hermes 2 DPO Adapter 链接:https://huggingface.co/NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO-adapter


至于为什么发布两个版本,@Teknium (e/λ) 给出了以下解释:   



以下是模型的输出示例:


1、为数据可视化编写代码



2、写赛博朋克迷幻诗



3、根据输入文本创建提示



以下是一些性能数据:  


1、GPT4All



2、AGI-Eval



3、BigBench 推理测试



在模型发布之后不久,生成式 AI 初创公司 Together AI 就宣布了其 API 对该模型的支持。Together AI 去年 11 月刚完成超一亿美元的 A 论融资。在 Nous Research 训练和微调 Nous Hermes 2 Mixtral 8x7B 模型期间,Together AI 为他们提供了算力支持。


图源:https://twitter.com/togethercompute/status/1746994443482538141


Nous Research 最初是一个志愿者项目。他们最近成功完成了 520 万美元的种子融资轮,此轮融资由 Distributed Global 和 OSS Capital 联合领投,同时吸引了包括 Together AI 创始人兼 CEO Vipul Ved Reddy 在内的多位知名投资者的参与。Nous 计划在 2024 年推出一款名为 Nous-Forge 的 AI 编排工具。


从官网介绍中可以看到,他们的产品定位是:能够连接和运行程序,获取和分析客户文档,并生成合成数据供生产使用。这些专有系统可根据客户的需求进行微调,无论其业务领域如何。通过这些新颖的算法,他们希望聚合并分析数字注意力生态系统中以往非结构化的专题数据,为客户提供隐藏的市场脉搏信息。


参考链接:

https://nousresearch.com/




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
专访开源先锋 Bruce Perens:后开源、许可证、AI | Linux 中国北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源6399元,RX7800XT-16G游戏主机4999元,RX7700XT-12G、小主机开班讲课系列:简单电工(1)Mixtral 8x7B论文终于来了:架构细节、参数量首次曝光2B参数性能超Mistral-7B:面壁智能多模态端侧模型开源打通大模型训练任督二脉!国内首个千亿参数、全面开源大模型来了,还联手开发者共训旧金山拜、习会双方的得失杀疯了的开源专家模型 Mixtral 8x7B 论文公开啦!2B小钢炮碾压Mistral-7B,旗舰级端侧模型炸场开年黑马!1080Ti可训,170万tokens成本仅1元回国的零食,小吃(多图)Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%首个全面开源的千亿模型来了!源2.0全家桶击破算力限制,代码数学强到发指首个国产开源MoE大模型来了!性能媲美Llama 2-7B,计算量降低60%Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办6399元,RX7800XT装机演示7B开源数学模型干翻千亿GPT-4,中国团队出品RX7700XT-12G小主机​EMNLP 2023 | Explore-Instruct: 通过LLM的主动探索提高特定领域指令多样性传字节成立新部门,发力 AI 应用;马斯克穿防弹衣访以色列,洗清反犹嫌疑;16% 的 AI 工作者使用开源模型Ruffle 2023回顾——Rust实现的开源Flash Player模拟器国产720亿参数开源免费模型来了!对标Llama2 70B,一手实测在此媲美GPT-4的开源模型泄露!Mistral老板刚刚证实:正式版本还会更强6051 血壮山河 卢沟桥之变 20那些挑战Transformer的模型架构都在做些什么抱抱脸正面挑战OpenAI,推出开源版GPT商店!完全免费、支持六大开源模型当底座直逼GPT-4开源模型大泄漏,AI社区炸锅!Mistral CEO自曝是旧模型,OpenAI再败一局?4999、6199元,RX7700XT-12G小主机开班讲课系列:引言Meta光速下架的模型Galactica,上交大用它构建地球科学大模型最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发超越同级7B模型! 中国团队开源大规模高质量图文数据集ShareGPT4V,大幅提升多模态性能2023-24年度全球就业能力大学排名发布!超越MIT雇主最爱它?清华系又造大模型标杆!2B规模干翻Mistral-7B,超低成本为AI Agent护航
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。