Redian新闻
>
清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024

清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
扩散模型和Transformer引爆时序方向!2024 “毕业即失业”的专业排名AAAI 2024 | 清华提出DRM:无偏差的新类发现与定位新方法SSM 能取代 Transformer 搞出更「牛」的大模型吗?超越 Transformer 与 Mamba,Meta 联合斯坦福等高校推出最强架构 TTT张亚勤:Transformer五年内会被逐步重构,15-20年内实现AGI | 清华AIR无锡创新中心成立牛津大学等提出:时间序列和时空数据的扩散模型最新综述新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型如何定量分析 Llama 3,大模型系统工程师视角的 Transformer 架构图灵奖得主Bengio团队新作:注意力可视为RNN!新模型媲美Transformer30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点ICML 2024 | 上海交大发布UP2ME,首个多用途通用时间序列分析框架PointMamba迎来更新!​Mamba在点云分析中是否能替代Transformer?CoPE论文爆火!解决Transformer根本缺陷,所有大模型都能获得巨大改进斯坦福提出大模型最强架构TTT,超越Transformers全面超越Transformer!清华蚂蚁推出纯MLP架构,长短程时序预测大幅提升ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则Transformer+时间序列登上Nature子刊!2024 意大利南部行Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1清华联合蚂蚁提出TimeMixer,可分解多尺度融合的时序预测模型 | ICLR 2024解决Transformer根本缺陷,CoPE论文爆火:所有大模型都能获得巨大改进Befor and AfterICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进TransformerICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻TransformerFalcon Mamba来了!首个无注意力大模型!再次挑战Transformer!大模型架构TTT问世,也能推翻Transformer?2024 意大利南部行Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存ICML 2024|Transformer究竟如何推理?基于样例还是基于规则2024 意大利南部行ICML 2024 | 过犹不及:揭示Graph Transformers中的过全局化问题
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。