Redian新闻
>
ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进Transformer

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
解决Transformer根本缺陷,CoPE论文爆火:所有大模型都能获得巨大改进中科大/华为诺亚出手!芯片性能≠布局评分,EDA物理设计框架全面开源ICML 2024 | 过犹不及:揭示Graph Transformers中的过全局化问题华为诺亚发布无限上下文大模型,超越SoTA 4.3%Transformer要变Kansformer?用了几十年的MLP迎来挑战者KANCVPR‘24:与任务无关的多模态数据也能提升Transformer性能|港中文&腾讯中科大联合华为诺亚提出Entropy Law,揭秘大模型性能、数据压缩率以及训练损失关系ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则ICLR 2024 | 微软提出视觉新主干EfficientMod:融合卷积和注意力机制2024 意大利南部行ICML 2024|Transformer究竟如何推理?基于样例还是基于规则YOCO:打破传统Decoder-only架构,内存消耗仅为Transformer的六分之一音乐门外汉來谈音乐妹妹2020年教堂线上圣诞节晚会的”脱口秀“CoPE论文爆火!解决Transformer根本缺陷,所有大模型都能获得巨大改进CHANEL的审美又回来了!2024/25 秋冬系列成衣很出彩图灵奖得主Bengio团队新作:注意力可视为RNN!新模型媲美TransformerBengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存等不来OpenAI的Q*,华为诺亚探索LLM推理的秘密武器MindStar先来了ICML 2024 | 自动化所提出SpikeLM,首个完全脉冲驱动的通用语言建模方案Transformer作者回流谷歌,Character.AI创始团队被「收购」,只要人不要公司祭王院长SP文豪赌!哈佛辍学华人竟然发布了只支持Transformer一种算法的AI芯片,一张顶20张H100 ,比GB200快【星空月夜花前授诗百首】:《红尘》(2017.2.21)非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1为什么Transformer一般使用LayerNorm?斯坦福提出大模型最强架构TTT,超越TransformersTravelling to the West in 2024 ( 2 )CVPR 2024 | 与任务无关的多模态数据也能提升Transformer性能!港中文&腾讯新作ICML 2024 | 南开大学提出反向传播全新改进策略,不降速、大幅提升显存效率Falcon Mamba来了!首个无注意力大模型!再次挑战Transformer!新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024超越 Transformer 与 Mamba,Meta 联合斯坦福等高校推出最强架构 TTT2024《歌手》登场 那英 杨丞琳 汪苏泷 梁龙 海来阿木 Chanté Moore FaouziaTransformer解码真实场景!Meta推出70M参数SceneScript模型CARMEL, INDIANA 整体收入全国排名都很靠前,这个地方确实越来越漂亮。第二次抗过敏战役打响 2024.05.05将注意力视为RNN!Bengio等人新作媲美Transformer,但超级省内存全面超越Transformer!清华蚂蚁推出纯MLP架构,长短程时序预测大幅提升
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。