Redian新闻
>
MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质
相关阅读
影响分泌机制靶向消除蛋白,「分子门」获6000万美元A轮融资,或涉及炎症、蛋白质聚集和中枢神经系统疾病起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响最新NaViT模型炸场!适用任何长宽比+分辨率,性能能打的TransformerICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出现代来袭之后,淳朴荡然无存!仅根据蛋白质序列便可预测相互作用界面,一种基于Transformer的蛋白预测模型基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法TransformerNeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型乱世爱情让注意力提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升!ACL 2023 Findings | 概率句法角度的Transformer诠释图神经网络的底层数学原理总结于向真:我眼中的新加坡Attention机制竟有bug,Softmax是罪魁祸首,影响所有Transformer恍如隔世​Transformer升级之路:RoPE是一种β进制编码图神经网络还有搞头?书识(九)ChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!​ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性TPAMI 2023 | 图神经网络在分布外图上的泛化卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞用 Transformer 评估蛋白质结合界面,区分天然蛋白复合物和不正确构象Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手20年、60亿人民币、7000种蛋白质,SomaLogic蛋白质组数据库的构建之途让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。