Redian新闻
>
仅凭 7 页 PPT 拿下 1 亿美元融资、半年后估值超 10 亿!“欧洲 OpenAI”杀疯了

仅凭 7 页 PPT 拿下 1 亿美元融资、半年后估值超 10 亿!“欧洲 OpenAI”杀疯了

公众号新闻

编译 | 凌敏、核子可乐
这家成立 4 周时就能凭借 7 页 PPT 融到超 1 亿美元的 AI 初创公司,究竟是什么来头?
AI 初创公司 Mistral
正寻求 3 亿美元新融资

据外媒报道,生成式 AI 初创公司 Mistral AI(常自称为“欧洲 OpenAI”)目前正寻求 3 亿美元新融资。如果一切顺利,那么新融资将帮助这家年轻企业估值突破 10 亿美元大关。

据了解,Mistral AI 总部位于法国巴黎,由来自 Meta Platforms 和 Alphabet 的几位前研究人员 Arthur Mensch(现任 CEO)、Guillaume Lample 和 Timothee Lacroix 共同创立,公司成立于 2023 年 5 月,专门开发大语言模型及各类 AI 技术。Mistral 这个名号来自北方寒冷的季风,也体现了他们想要在 AI 领域占据一席之地的愿望。

Mistral AI 三位创始人

6 月,Mistral 在拿下 1.13 亿美元巨额种子融资后引发业界轰动,公司估值也瞬间来到 2.6 亿美元。彼时,该公司刚刚成立,员工仅 6 人,还未做出任何产品,仅仅凭借着 7 页 PPT 就斩获了巨额融资。

该轮融资由 Lightspeed Venture Partners 牵头,Redpoint、Index Ventures、Xavier Niel、德高控股以及意大利、德国、比利时和英国的其他知名风险投资公司参与。但该公司很快发现这“区区”1 亿美元根本不够,要推动后续增长和扩张计划还需要更多资金的支持。

据 The Information 近日报道,熟悉谈判内情的消息人士称,Mistral 正计划从投资者处额外筹集 3 亿美元,而此时距离由 Lightspeed Venture Partners 领投的种子轮融资才刚刚过去四个月。

目前还不清楚 Mistral 已经与哪些风险投资商进行过通气,但根据另一位知情人士透露,生成式 AI 投资领域的重要参与者 Andreessen Horowitz 正在积极寻求向开源大语言模型(LLM)开发者注资的机会。如果能够顺利合作,自然不失为一件美事。

Mistral AI 团队成员

Mistral 公司 CEO、前 DeepMind 研究科学家 Mensch 表示,这家企业的使命是“打造出能够解决现实世界问题的下一代 AI 系统”。他同时补充称,新一轮融资将用于扩大团队、加快研发工作,以及在欧洲和美国建立新的办事处。

Mistral 敢于开出如此夸张的融资数额,也体现出投资者对于 AI 初创企业不断增长的关注和信心。近年来,AI 初创公司已经筹得海量资金,其中不少企业正在开发前沿 AI 技术,有望彻底颠覆众多传统行业。

但目前 Mistral 仍在起步阶段,能否成为 AI 领域的主要参与者仍然有待观察。尽管如此,该公司强大的初始团队和雄心勃勃的发展目标,已经使其成为当前乃至未来几年中最值得关注的 AI 初创力量之一。

“最强 7B 开源模型”Mistral 7B

9 月 27 日,Mistral AI 团队发布了自家首个大模型 Mistral 7B,该模型号称是“最强 7B 开源模型”。

据介绍,Mistral 7B 是一套拥有 73 亿参数的大语言模型,采用 Apache 2.0 许可证,以不加限制的方式对外开放以供使用。在所有基准测试中,Mistral 7B 均优于 Llama 2 13B;在多种基准测试中,优于 Llama 1 34B;拥有比肩 CodeLlama 7B 的编码性能,并同时保持着良好的英语能力;使用分组查询注意力(GQA)来加快推理速度;使用滑动窗口注意力(SWA)以较低成本处理更长序列。

  • GitHub 链接:https://github.com/mistralai/mistral-src

  • HuggingFace 链接:https://huggingface.co/mistralai

Mistral 7B 基础设施集群由 CoreWeave 提供 24/7 全天候支持,CINECA/EuroHPC 团队及 Leonardo 运营团队提供资源与帮助,FlashAttention、vLLM、xFormers、Skypilot 维护团队提供新功能以及方案集成指导。HuggingFace、AWS、GCP、Azure ML 团队协助实现了 Mistral 7B 的全平台兼容。

Mistral 7B 还能针对任意任务进行轻松微调。Mistral AI 团队将 Mistral 7B 与 Llama 2 系列模型进行了比较,并重新运行了这些模型以验证评估结论是否准确。

Mistral 7B 及各 Llama 模型在不同基准测试中的性能。这里列出的所有指标,均从 Mistral AI 团队评估管道中的实际运行中采集而来,从而保证比较的真实性。Mistral 7B 在所有指标上均显著优于 Llama 2 13B,而且与 Llama 34B 基本相当(由于 Llama 2 34B 模型尚未发布,因此这里暂时与 Llama 34B 比较)。Mistral 7B 在编码与推理方面同样性能出众。

本轮基准测试按主题可分为以下几类:

  • 常识推理: Hellaswag、Winogrande、PIQA、SIQA、OpenbookQA、ARC-Easy、ARCChallenge 和 CommonsenseQA 的 0-shot 平均值 ;

  • 世界知识: NaturalQuestions 和 TriviaQA 的 5-shot 平均值 ;

  • 阅读理解: BoolQ 和 QuAC 的 0-shot 平均值 ;

  • 数学: mai@8 的 8-shot GSM8K 和 ma@4 的 4-shot MATH 的平均值 ;

  • 编码: 0-shot Humaneval 和 3-shot MBPP 的平均值 ;

  • 热门聚合结果: 5-shot MMLU、3-shot BBH 和 3-5-shot AGI Eval (仅限英文多项选择题)。

在对模型的成本 / 性能进行比较中,Mistral AI 团队提出了一个有趣的指标,即计算“等效模型大小”。在推理、理解与 STEM 推理(MMLU)方面,Mistral 7B 的性能与体量达到其 3 倍以上的 Llama 2 模型相当,意味着它能显著节约内存容量和数据吞吐量。

Mistral 7B 和 Llama 2(7B/13B/70B)的 MMLU 常识推理、世界知识与阅读理解比较结果。Mistral 7B 在绝大多数评估中均显著优于 Llama 2 13B,仅在知识基准测试中与后者处于同一水平(这可能是由于参数规模有限,因此掌握的知识量不足)。

注意:此次评估与 Llama 2 论文之间存在以下区别:

  • 在 MBPP 测试中,这里使用了手工验证的子集。

  • 在 TriviaQA 测试中,这里未提供维基百科上下文。

此外,Mistral 7B 使用滑动窗口注意力(SWA)机制,即每个层都关注之前的 4096 个隐藏状态。这里做出的主要改进以及尝试改进的原因,来自 O(sliding_window.seq_len) 的线性计算成本。具体来讲,在对 FlashAttention 和 xFormers 做出改进之后,成功在 16k 序列长度和 4k 上下文窗口下实现了速度倍增。Tri Dao 和 Daniel Haziza 为相关调整做出了贡献。

滑动窗口注意力的原理,是利用 Transformer 的堆叠层来关注此前超出窗口大小的情形:第 k 层的 token i 关注第 k-1 层的 token [i-sliding_window, i],后者又关注 [i-2*sliding_window, i]。如此一来,较高层就能访问到距离更“久远”的过往信息。

总之,采取固定注意力范围的最大意义,就是使用轮换缓冲区将缓存限制为 sliding_window token 的大小(更多细节请查看参考实现 https://github.com/mistralai/mistral-src)。如此一来,同样在执行 8192 序列长度的推理时,可以节约下 50% 的高速缓存容量且不会影响模型质量。

为了展示 Mistral 7B 模型的泛化能力,研究团队使用 HuggingFace 上的公开指令数据集对其进行了微调。不用问题集“作弊”、也不涉及专有数据,由此产生的 Mistral 7B Instruct 模型在 MT-Bench 测试中获得了优于一切同体量 7B 模型的性能,表现可与 13B 聊天模型相比肩。

快速演示的 Mistral 7B Instruct 模型能够轻松微调,进而带来引人注目的卓越性能。其中不涉及任何协调机制。

参考链接:

https://www.theinformation.com/articles/mistral-a-wannabe-openai-of-europe-seeks-300-million

https://techstartups.com/2023/10/31/mistral-a-generative-ai-startup-aiming-to-be-europes-openai-seeks-300-million-in-new-funding/

https://mistral.ai/news/announcing-mistral-7b/

声明:本文为 InfoQ 翻译,未经许可禁止转载。

今日好文推荐
易鲸捷否认贴牌 Oracle;鸿蒙进教材:“纯血”版不再兼容安卓应用;大叔们遭AI女友“断崖式分手” | Q 资讯
向量数据库失宠了?OpenAI 力捧检索增强生成(RAG)技术,对行业来说意味着什么?
被时代选中的智谱 AI:成为 OpenAI,超越 OpenAI
OpenAI 用45分钟重塑游戏规则!干掉 MJ、LangChain,创造“不会编程的应用开发者”新职业
活动推荐

FCon 全球金融科技大会——建设金融科技人才高地专场论坛将于 11 月 20 日 9:30 举行。

届时将有交通银行、国泰君安证券、平安科技团队领袖,分享搭建金融科技团队、推动业务转型升级的心得与智慧。

现场参会还可以领取 InfoQ 重磅发布的《2023 银行数字化转型报告》纸质版。

前 30 位报名可享免费参与专场权益,马上扫描下方二维码报名 👇


读者福利

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
年度最热AI工具TOP 50出炉;传OpenAI年化收入超16亿美元;黄仁勋身价一年暴涨302亿美元丨AIGC大事日报曾估值超10亿美元,全力转型减肥药的制药「老兵」即将IPO,相关产品已进入2期临床OpenAI估值860亿美元股票出售重启;ChatGPT科研造假引Nature关注;英伟达用AIGC加速药研丨AIGC大事日报智能周报|Windows Copilot终于上线;OpenAI或将发布GPT-Vision;智谱AI新融资后估值达约10亿美元…又一独角兽诞生!三位校友打造“欧洲版OpenAI”,曾仅靠7页PPT创下种子轮融资纪录最好的7B模型易主,笔记本轻松跑,免费开源可商用,来自“欧洲的OpenAI”半年翻3倍,OpenAI最新估值超800亿美元7年前上头条的哈佛女孩,退学创业估值超2亿美元OpenAI CEO称没兴趣参与智能手机竞争;杨立昆反对过早监管AI;百川智能完成A轮3亿美元融资|AIGC周观察第二十一期名场面集合!狂上热搜300次,上海万圣节杀疯了!杀疯了!!文生视频PIKA1.0爆火,斯坦福华人学生退学创业,估值超2亿美元智能电动汽车初创品牌宾理BeyonCa获数亿美元投资;极兔速递港交所上市,市值超千亿港元丨10.21-10.27投融资周报浙江天才美女学霸,退学硅谷创业:估值超2亿美元!几近完美,人生开挂.......太刺激了!505 of 700 employees @OpenAI to resign,几个老中在内!8年前获哈佛早申录取的杭州才女,如今退学创业估值超2亿美元斯坦福华人女博士退学创业,6个月打造爆火文生视频Pika1.0,4人团队估值超2亿美元估值超10亿美元,阿里巴巴参与投资李开复新公司华为客服回应充电器不支持iPhone15; 蔚来否认30亿美元融资传言;OpenAI将在ChatGPT推出新语音图像功能丨邦早报《流浪地球 2》将角逐奥斯卡最佳国际影片;Anthropic 再获 20 亿美元融资;蔚来推出婚庆用车定制服务 | 极客早知道生成式AI全球投融资220亿美元,美国占比89%!OpenAI贡献超60%,中国AI芯片投融资世界第一,超美国两倍斯坦福华裔女博士休学创业,4人AI公司估值超两亿美元!MIT博士母亲谈及教育:放养 ,看重能力不在意成绩史上最大,曼哈顿仓库查获估值超10亿美元假奢侈品OpenAI CEO被曝拟成立AI芯片公司,秘密推进数十亿美元融资谈判《树梢上的芭蕾》&《爱情花园》斯坦福华人女博士退学创业,6个月打造爆火文生视频Pika 1.0,4人团队估值超2亿美元6006 血壮山河之随枣会战 “和平运动 ” 6美国预计将无限期延长豁免韩在华芯片工厂;OpenAI最新估值超800亿美元;Meta发布最新头显Quest 3|AIoT情报笑不出来塔塔科技在印度上市:募资3.65亿美元 市值超60亿美元OpenAI高圆圆“入秋穿搭”杀疯了!4套全种草!小香风+马蹄裤,时髦到飞起!!直接封神!这件内裤界的“作弊大师”杀疯了,谁穿谁瘦!习近平莫名其妙视察东北,普京与金正恩会面海参崴,中俄朝可能结盟吗?Databricks完成5亿美元融资:估值430亿美元 英伟达参与投资晚讯 |靖因药业成功完成近亿美元融资、诺和诺德13亿美元收购高血压药物“丑鞋”Birkenstock要上市:估值超80亿美元 乔布斯曾是用户听小孩弹女人弹朗朗弹王羽佳弹钢琴
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。