Redian新闻
>
准确率达60.8%,浙大基于Transformer的化学逆合成预测模型,登Nature子刊

准确率达60.8%,浙大基于Transformer的化学逆合成预测模型,登Nature子刊

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
全面超越Transformer!清华蚂蚁推出纯MLP架构,长短程时序预测大幅提升Transformer升级之路:RoPE的底数设计原则大模型最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer豪赌!哈佛辍学华人竟然发布了只支持Transformer一种算法的AI芯片,一张顶20张H100 ,比GB200快从头设计抗体,腾讯、北大团队预训练大语言模型登Nature子刊新架构RNN反超Transformer:每个隐藏状态都是一个模型,一作:从根本上改变语言模型Mamba再次挑战霸主Transformer!首个通用Mamba开源大模型一鸣惊人30倍于传统方法,中国科学院团队Transformer深度学习模型预测糖-蛋白质作用位点大模型架构TTT问世,也能推翻Transformer?ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则如何定量分析 Llama 3,大模型系统工程师视角的 Transformer 架构Nature的编辑们将大规模罢工!或将导致Nature在155年间首次发生缺刊!并且除了Nature,还有超60本期刊将联合罢工斯坦福提出大模型最强架构TTT,超越Transformers张亚勤:Transformer五年内会被逐步重构,15-20年内实现AGIPointMamba迎来更新!​Mamba在点云分析中是否能替代Transformer?清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024超越 Transformer 与 Mamba,Meta 联合斯坦福等高校推出最强架构 TTTNature子刊 | 基于内生复杂性,自动化所新类脑网络构筑人工智能与神经科科学的桥梁LSTM又火了!再次杀入视觉!xLSTM一举超越Mamba、Transformer!高于临床测试3倍准确率!剑桥大学开发AI模型,提前6年预测阿尔茨海默症Transformer作者回流谷歌,Character.AI创始团队被「收购」,只要人不要公司小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++SSM 能取代 Transformer 搞出更「牛」的大模型吗?AI小分子药物发现的「百科全书」,康奈尔、剑桥、EPFL等研究者综述登Nature子刊Nature:人工智能出病理报告,准确率高达89.5%!产氨法拉第效率达61%,科学家开发氢气氧化催化剂,常温常压下实现连续电化学合成氨ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进TransformerICML 2024|Transformer究竟如何推理?基于样例还是基于规则Falcon Mamba来了!首个无注意力大模型!再次挑战Transformer!非Transformer架构站起来了!首个纯无注意力大模型,超越开源巨头Llama 3.1
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。