相关阅读
恍如隔世12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统TPAMI 2023 | 图神经网络在分布外图上的泛化ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响图神经网络还有搞头?NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器Transformer升级之路:RoPE是一种β进制编码让注意力提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升!乱世爱情ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出用 Transformer 评估蛋白质结合界面,区分天然蛋白复合物和不正确构象ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!ICLR 2023 高分论文 | 基于子图草图的图神经网络用于链路预测书识(九)NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer20年、60亿人民币、7000种蛋白质,SomaLogic蛋白质组数据库的构建之途Attention机制竟有bug,Softmax是罪魁祸首,影响所有TransformerChatGPT危了!「注意力公式」8年神秘bug首曝光,Transformer模型恐大受冲击云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理最新NaViT模型炸场!适用任何长宽比+分辨率,性能能打的Transformer于向真:我眼中的新加坡用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型影响分泌机制靶向消除蛋白,「分子门」获6000万美元A轮融资,或涉及炎症、蛋白质聚集和中枢神经系统疾病ACL 2023 Findings | 概率句法角度的Transformer诠释图神经网络的底层数学原理总结基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计Transformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手现代来袭之后,淳朴荡然无存!ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7卷积网络又行了?DeepMind推翻Transformer最强传说,LeCun怒赞让Attention提速9倍!FlashAttention燃爆显存,Transformer上下文长度史诗级提升仅根据蛋白质序列便可预测相互作用界面,一种基于Transformer的蛋白预测模型