Redian新闻
>
苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源

苹果一次性开源了8个大模型! 包含模型权重、训练日志和设置,OpenELM全面开源

科技
 夕小瑶科技说 原创
 作者 | 任同学

不以开放性著称的苹果居然同时开源了大模型的权重、训练和评估框架,涵盖训练日志、多个保存点和预训练设置。同时升级计算机视觉工具包 CVNets 为 CoreNet!支持 OpenELM!

▲图1.由Stable Diffusion3生成。

OpenELM是Apple苹果公司最新推出的语言模型系列,这次一共开源了8个模型,包括OpenELM-270M、OpenELM450M、OpenELM-1_1B和OpenELM-3B的预训练版和指令微调版。

▲图2.

OpenELM 采用了decoder-only的架构,并遵循最新的大语言模型(LLM)的设计,包括:

  1. 在任何全连接层中不使用可学习的偏置参数,
  2. 使用RMSNorm进行预归一化,同时使用旋转位置嵌入(ROPE)来编码位置信息,
  3. 使用分组查询注意力(GQA)代替多头注意力(MHA),
  4. 将前馈网络(FFN)替换为SwiGLU FFN,
  5. 使用Flash Attention来计算缩放点积注意力,
  6. 使用与LLama相同的分词器。
▲图3.OpenELM与开源LLM。OpenELM比最近的开放LLM OLMo的性能高出2.36%,同时需要的预训练令牌减少了2倍。

研究人员提到,现有的大型语言模型在模型的每个Transformer层中使用相同的配置,导致参数在各层之间均匀分布。

而OpenELM中的每个Transformer层具有不同的配置(例如,注意力头数量和前馈网络维度),导致模型的每个层中参数数量不同。这使得OpenELM能够更好地利用可用的参数以实现更高的准确性。

OpenELM采用按层分配参数的策略,有效提升了Transformer模型各层的参数配置效率,显著提高模型精度。例如,在大约十亿参数的预算下,OpenELM的准确率较OLMo提升了2.36%,且预训练所需的Token数量减少了一半。

为了实现Transformer层中参数的非均匀分配,研究人员调整了每个Transformer层中注意力头的数量和FFN维度调整系数。

假设具有均匀参数分配的标准Transformer模型有个Transformer层,每层输入的维度为。MHA有个头,每个头的维度为。另外,FFN的隐藏维度为,其中是FFN隐藏层维度的调整系数。

假设具有均匀参数分配的标准Transformer模型有个Transformer层,每层输入的维度为。MHA有个头,每个头的维度为。另外,FFN的隐藏维度为,其中是FFN隐藏层维度的调整系数。

引入参数来缩放。对于第层,计算如下:

在这里,是超参数,用于调整注意力头的数量。类似地,被用于改变FFN层的宽度。因此,使用来改变标准Transformer层的配置会导致模型中参数的非均匀分配。需要注意的是,设置时则对应了标准均匀的Transformer模型。

可靠但保守的OpenELM?

对于预训练,苹果使用的是公开数据集,如RefinedWeb、PILE、RedPajama和Dolma v1.6,总共大约包含1.8万亿个token。

从数据上看,确实没有什么惊喜的感觉,因为既没有新的数据集发布,在规模上也没有创新,中规中矩

对于模型的指令调优,指令调优(Instruction Tuning)和参数高效微调(Parameter-efficient Fine-tuning,PEFT)。

对于指令调优,使用了经过清理的 UltraFeedback 数据集的变种,该数据集包含了60,000个用于指令调优的提示。作者使用 Alignment Handbook 库进行指令调优。在优化过程中,他们使用了统计拒绝抽样方法或直接偏好优化方法。结果显示,指令调优能够在不同的评估框架中将 OpenELM 的平均准确率提高1-2%。

▲图5.指令调优提高了OpenELM不同规模上的准确性。

同时,在 CommonSense 推理训练和评估设置中使用了包含8个多项选择数据集、共计170,000的训练样本,用于进行参数高效微调研究。研究中使用了LoRA和DoRA等方法,将它们与OpenELM集成,并使用8个NVIDIA H100 GPU进行三轮微调。但是从结果上看,LoRA和DoRA都表现出相当的性能。

▲图6.当OpenELM在常识推理基准上进行微调时,LoRA和DoRA表现出相当的性能。

研究人员将OpenELM与PyThia、Cerebras-GPT、TinyLlama、OpenLM、MobiLlama和OLMo等模型进行了比较。在相似的模型大小下,OpenELM在ARC、BoolQ、HellaSwag、PIQA、SciQ和WinoGrande等主流的任务测试中的多数任务上展现出了更高的准确度。尤其是,与OLMo模型相比,OpenELM在参数数量和预训练数据更少的情况下,准确率依然更高。

▲图7.OpenELM与各种评估框架中公开可用的LLM的比较。

值的注意的是,研究人员还发现尽管OpenELM的准确性比OLMo更高,但它却比OLMo更慢。同时,OpenELM的处理时间中有相当大一部分是由于未经优化的RMSNorm所导致的。

因此研究人员通过用Apex的RMSNorm替换未经优化的RMSNorm,观察到OpenELM的吞吐量明显增加。

然而,与使用优化的LayerNorm的模型相比,OpenELM仍存在相当大的性能差距,部分原因是OpenELM有113个RMSNorm层,而OLMo只有33个LayerNorm层。并且Apex的RMSNorm并不针对小输入进行优化。

当将OLMo中的LayerNorm替换为RMSNorm后,生成吞吐量则出现了显著下降。

不管怎么说,通篇看下来,OpenELM的实验也并不是那么有诚意,毕竟Phi-3系列作为小规模LLM中的出色工作,苹果不拿来对比一下确实不够意思!

而且,OpenELM并未在论文中提到相关的部署测试,相比之下, Phi-3-mini 已经在 iPhone 14 上实现本地运行并完全离线,实现每秒超过 12 token的生成效率。这波啊,属实是倒反天罡了~

升级的 CVNets:支持更广泛的AI任务

此次随 OpenELM 开源的还有深度神经网络工具包 CoreNet。

CoreNet 基于苹果公司在去年开源的一个计算机视觉工具包 CVNets 拓展,涵盖计算机视觉之外更广泛的应用,允许研究人员和工程师为各种任务训练标准和新颖的小型和大型模型,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割

目前 CoreNet 已经支持了下面的工作:

  • OpenELM:具有开源训练和推理框架的高效语言模型系列
  • CatLIP:在 Web-scale Image-Text DataCLIP 上以 2.7 倍的预训练速度实现 CLIP 级视觉识别准确率
  • Reinforce Data, Multiply Impact:通过数据集强化提高模型准确性和稳健性
  • CLIP meets Model Zoo Experts:视觉增强的伪监督
  • FastVit:使用结构重参数化的快速混合视觉Transformer
  • Bytes Are All You Need: Transformers 直接操作的文件字节
  • MobileOne:改进的 One millisecond Mobile Backbone
  • RangeAugment:Efficient Online Augmentation with Range Learning
  • MobileViTv2:Separable Self-attention for Mobile Vision Transformers
  • CVNets:高性能计算机视觉库,ACM MM'22
  • MobileViT:轻量级、通用且适合移动设备的 Vision Transformer,ICLR'22

网友表示:

似乎可以将CoreNet中的模型导出为MLX可以运行的格式。与PyTorch相比,CLIP等模型实现了60%的加速(小型号的优势最大)。这可能表明他们消除了PyTorch MPS所遭受的一些驱动延迟。
我不禁觉得这次发布的时机与即将到来的苹果发布会有关。

参考资料

[1]https://arxiv.org/pdf/2404.14619.pdf
[2]https://github.com/apple/corenet
[3]https://huggingface.co/apple/OpenELM 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
首个基于Mamba的MLLM来了!模型权重、训练代码等已全部开源微软秒删堪比GPT-4的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试开源大模型火了!(附99个大模型微调模型/数据/工具)!苹果开源了!首次公开手机端侧大模型,AI iPhone 的细节就藏在里面苹果加入开源大战,官宣端侧小模型OpenELM!参数2.7亿到30亿一台M2 Mac可跑宗庆后他是好人;离婚了,就别再来找我;情感躺平,情感摆烂。微软秒删堪比 GPT-4 的开源大模型!研发总部还被爆在北京?官方:我们只是忘了测试发布几小时,微软秒删媲美GPT-4开源大模型!竟因忘记投毒测试CVPR最佳论文颁给自动驾驶大模型!LLM能突破行业技术“天花板”吗?只要千元级,人人可用百亿级多模态大模型!国产「AI模盒」秒级训练推理AI早知道|支付宝灰度测试智能助理;苹果开源推出高效语言模型系列 OpenELM浓人,nèng死淡人马斯克发全球最大开源模型!3140亿参数的Grok真打脸OpenAI了?"蝙蝠侠"空中加油 - 美军力倍增开源日报 | 微软AI程序员登场,马斯克开源Grok;Open-Sora全面开源有多少学子遭到中共的残酷迫害?苹果开源大模型OpenELM来了,或将用在下一代iPhone上;红杉入局,传马斯克AI公司将获60亿美元投资丨AI周报Open-Sora 全面开源升级:支持 16s 视频生成和 720p 分辨率元宵节古都西安叹别等OpenAI了,全球首个类Sora抢先开源!所有训练细节/模型权重全公开,成本仅1万美元苹果发高效语言模型 OpenELM;小米策划 15 万元新车;AI 成功改写人类 DNA | 极客早知道别再说国产大模型技术突破要靠 Llama 3 开源了AI鲜测 | Claude 3全面升级:多模态+100万Token上下文长度,OpenAI也拦不住了不用再等 OpenAI ,全球首个 Open-Sora 全面开源!AI早知道|商汤发布日日新5.0大模型;微软推出小语言模型Phi-3;腾讯旗下协作SaaS产品全面接入混元大模型两轮游中国 - 我的所见,所闻和所想 阳光明媚的贵阳AI早知道|Figure发布第一个OpenAI大模型加持的机器人demo;零一万物全面开放笛卡尔向量数据库搜索内核AI成功改写人类DNA,全球首个基因编辑器震撼开源!近5倍蛋白质宇宙LLM全生成Open-Sora全面开源升级:支持16s视频生成和720p分辨率全球顶尖AI研究者中国贡献26%;1320亿参数大模型开源;Anthropic大模型测评首超GPT-4丨AIGC大事日报AI早知道|马斯克Grok大模型开源;荣耀正式发布首款AI PC;苹果谷歌和OpenAI商谈iPhone大模型使用Open-Sora 全面开源升级:支持单镜头16s视频生成和720p分辨率红杉资本入局,马斯克的AI公司接近达成60亿美元融资;苹果发布基于开源训练和推理框架的语言模型OpenELM丨AIGC日报大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事Stable Video 3D震撼登场:单图生成无死角3D视频、模型权重开放
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。