Redian新闻
>
ICML 2024 | 南开大学提出反向传播全新改进策略,不降速、大幅提升显存效率

ICML 2024 | 南开大学提出反向传播全新改进策略,不降速、大幅提升显存效率

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICML2024高分论文!大模型计算效率暴涨至200%,来自中国AI公司2024 意大利南部行清华光学AI登Nature!物理神经网络,反向传播不需要了复旦大学:没钱标数据的有福了!利用合成数据就能大幅提升大模型归纳推理能力ICML 2024 | 脱离LoRA架构,训练参数大幅减少,新型傅立叶微调来了2024 意大利南部行ICML 2024 | 北大、字节提出新型双层位置编码方案,有效改善长度外推效果U-Net杀回来了!华为新作U-DiT:让DiT拥抱U-Net!性能提升显著!ICML 2024 | 新型傅立叶微调来了!脱离LoRA架构,训练参数大幅减少GPT-4预测股票涨跌更更更准了!东京大学新框架LLMFactor提升显著 | ACL 2024Befor and AfterICML 2024 | 面向第三代推荐系统:Meta提出首个生成式推荐系统模型ICML 2024 | 无需LayerNorm简化Attention,精度无损推理效率大幅提升ICML 2024 | 川大提出外部引导的深度聚类新范式,大幅提升CLIP图像聚类性能2024 意大利南部行全面超越Transformer!清华蚂蚁推出纯MLP架构,长短程时序预测大幅提升CMU&清华新作让LLM自己合成数据来学习,特定任务性能同样大幅提升AAAI 2024 | 广西师范大学提出ODTrack:目标跟踪新框架ICML 2024 | 自动化所提出SpikeLM,首个完全脉冲驱动的通用语言建模方案ICML 2024 | 提升收敛速度!人大提出基于镜像下降的贝叶斯小样本分类ACL2024:浙江大学提出大小模型协同的跨文档理解,低成本高表现再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升GitHub 改进代码推送逻辑,可靠性得到大幅提升ICML 2024 | 超越LoRA!港科大提出FourierFT:新型傅立叶微调!训练参数大幅减少换掉ES? Redis官方搜索引擎,效率大幅提升ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer华中科大今日Nature: 自组装单分子杂化策略大幅提高钙钛矿太阳能电池认证效率ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能“5·17”楼市新政落地满月,再贷款推动去库存效果如何?清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 Spotlight性能对标Llama 3,算力消耗仅1/19!源2.0-M32大幅提升模算效率清华大学联合斯坦福大学提出混合注意力机制MoA,大模型解码速率提高6倍微软联合清华提出多头混合专家机制,大幅提升专家激活率2024 “毕业即失业”的专业排名
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。