Redian新闻
>
微软发布Phi-3,性能超Llama-3,可手机端运行

微软发布Phi-3,性能超Llama-3,可手机端运行

公众号新闻

机器之心报道

编辑:小舟、泽南
数据已成为提升大模型能力的重点。

Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。

本周二,微软发布了自研小尺寸模型 Phi-3。

新模型有三个版本,其中 Phi-3 mini 是一个拥有 38 亿参数的语言模型,经过 3.3 万亿 token 的训练,其整体性能在学术基准和内部测试上成绩优异。

尽管 Phi-3 mini 被优化至可部署在手机上,但它的性能可以与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美。微软表示,创新主要在于用于训练的数据集。


与此同时,Phi-3 与 Llama-2 使用相同的架构,方便开源社区在其基础上开发。


此前,微软的 Phi 系列模型曾经引发了人们的热议,去年 6 月,微软发布了《Textbooks Are All You Need》论文,用规模仅为 7B token 的「教科书质量」数据训练 1.3B 参数的模型 phi-1,实现了良好的性能。

去年 9 月,微软进一步探索这条道路,让 1.3B 参数的 Transformer 架构语言模型 Phi-1.5 显示出强大的编码能力。

去年底,微软提出的 Phi-2 具备了一定的常识能力,在 2.7B 的量级上多个基准测试成绩超过 Llama2 7B、Llama2 13B、Mistral 7B 等一众先进模型。


Phi-3 技术报告:https://arxiv.org/abs/2404.14219

刚刚提出的 phi-3-mini 是一个在 3.3 万亿个 token 上训练的 38 亿参数语言模型。实验测试表明,phi-3-mini 的整体性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美,例如 phi -3-mini 在 MMLU 上达到了 69%,在 MT-bench 上达到了 8.38。

微软之前对 phi 系列模型的研究表明,高质量的「小数据」能够让较小的模型具备良好的性能。phi-3-mini 在经过严格过滤的网络数据和合成数据(类似于 phi-2)上进行训练,并进一步调整了稳健性、安全性和聊天格式。

此外,研究团队还提供了针对 4.8T token 训练的 7B 和 14B 模型的初始参数扩展结果,称为 phi-3-small 和 phi-3-medium,两者都比 phi-3-mini 能力更强。


学术基准

在标准开源基准测试中,phi-3-mini 与 phi-2 、Mistral-7b-v0.1、Mixtral-8x7B、Gemma 7B 、Llama-3-instruct8B 和 GPT-3.5 的比较结果如下表所示,为了确保具有可比性,所有结果都是通过完全相同的 pipeline 得到的。


安全性

Phi-3-mini 是根据微软负责任人工智能原则开发的。保证大模型安全的总体方法包括训练后的安全调整、红队(red-teaming)测试、自动化测试和数十个 RAI 危害类别的评估。微软利用受 [BSA+ 24] 启发修改的有用和无害偏好数据集 [BJN+ 22、JLD+ 23] 和多个内部生成的数据集来解决安全性后训练(post-training)的 RAI 危害类别。微软一个独立的 red team 反复检查了 phi-3-mini,以进一步确定后训练过程中需要改进的领域。 

根据 red team 的反馈,研究团队整理了额外的数据集从而完善后训练数据集。这一过程导致有害响应率显著降低,如图 3 所示。


下表显示了 phi-3-mini-4k 和 phi-3-mini-128k 与 phi-2、Mistral-7B-v0.1、Gemma 7B 的内部多轮对话 RAI 基准测试结果。该基准测试利用 GPT-4 模拟五个不同类别的多轮对话并评估模型响应。


缺陷

微软表示,就 LLM 能力而言,虽然 phi-3-mini 模型达到了与大型模型相似的语言理解和推理能力水平,但它在某些任务上仍然受到其规模的根本限制。例如,该模型根本没有能力存储太多「事实知识」,这可以从 TriviaQA 上的低评分中看出。不过,研究人员相信这些问题可以通过搜索引擎增强的方式来解决。


参考内容:https://news.ycombinator.com/item?id=40127806



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
宾州詹金斯植物园(Jenkins Arboretum),幽幽小景面壁智能低调开源大模型“理科状元”!LeetCode 周赛超越80%人类选手,推理性能超 Llama3-70B微软发现严重漏洞,涉超 40 亿下载安卓应用;iPhone 16 电池壳改用不锈钢;苹果「AI iPad」或明日曝光|极客早知道New Era 收购高端运动生活方式品牌 ’47,合并后年营收可达20亿美元微软发布!提示工程进化为位置工程,有效提升RAG与上下文学习AI预测极端天气提速5000倍!微软发布Aurora,借AI之眼预测全球风暴现场直击GTC|最科幻发布会,性能翻30倍的恐怖Blackwell芯片,黄仁勋宣告“新工业革命”来了ChatGPT 语音酷似「寡姐」,本人回应/微软发布「Copilot + PC」/理想今年不再发布新纯电车型苹果AI战略曝光:简单指令iPhone搞定,复杂任务云端运行脚踝的灵活性手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据小模型时代来了?微软推出其最小参数 AI 模型,性能逼近 GPT-3.5高通 X Plus 芯片发布,性能超越 M3,AI 能力是亮点时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3阿里云重磅发布开源模型Qwen2,性能超Llama3-70及国内众多闭源模型苹果开源了!首次公开手机端侧大模型,AI iPhone 的细节就藏在里面国产多模态大模型开源!无条件免费商用,性能超Claude 3 Sonnet向Redis宣战?微软开源Garnet,性能提升几十倍!Mac不香啦?微软发布第一款GPT-4o加持的Windows我们就是黑手党,怎么着​踏青必带可手持1000倍显微镜,还能当儿童相机用(明10点开团)AI早知道|工信部发首个国内个人信息保护AI大模型;魅族发布首款开放式AI终端;微软发布金融版Copilot马斯克:聪明的人要多生育微软发布首份AI透明度报告 展示其人工智能工作发展开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4今日arXiv最热NLP大模型论文:微软发布可视思维链VoT,提高大模型空间想象力微软发布Phi-3 Mini:3.8B参数小到能塞进手机,性能媲美GPT-3.5端侧模型 OctopusV3 发布:手机上的超级助理,性能媲美 GPT-4V 和 GPT-4 的组合?Higress 全新 Wasm 运行时,性能大幅提升阿里云突然发布全球最强开源模型 Qwen2,性能超越美国最强开源模型华为余承东称传统车企流量根本干不过小米/阿里打骨折,百度免费,大模型掀降价潮/微软发布 50+ 重磅更新微软发布新AI PC全家桶,支持GPT-4o/苹果发布更新修复照片复现问题/ChatGPT 语音酷似「寡姐」,本人回应小模型时代来了?微软最小参数AI模型发布,性能逼近 GPT-3.5iPhone就能跑!微软推出轻量级模型Phi-3,性能堪比GPT-3.5 Turbo,AI的未来在手机端?《东风第一枝 - 元夕》
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。