为何连iPhone 15都不能用“苹果智能”?问题在内存,而不在算力!
“因此,目前的 Apple Intelligence 端侧AI LLM对DRAM 的需求约为2GB或更低。”
“Apple Intelligence采用端侧3B LLM(应为 FP16,M1的NPU/ANE对FP16有很好的支持),经过压缩后(采用2-bit与 4-bit的混合配置),随时需要预留约0.7-1.5GB DRAM来运作Apple Intelligence的端侧LLM。”
“未来 Apple Intelligence 的端侧AI肯定也会升级(最有可能升级到7B LLM),届时需要更大DRAM才能运作。 值得观察Apple是否会以此作为高低阶机种的产品区隔策略。”
觉得好看,请点“在看”
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章