Redian新闻
>
ICML 2024 | 最高提速1440倍!15秒用GCN搞定随机规划!

ICML 2024 | 最高提速1440倍!15秒用GCN搞定随机规划!

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
三支国内团队获荣誉提名,英伟达CMU各占40%!ACM顶会SIGGRAPH 2024最佳论文揭晓ICML 2024十篇最佳论文开奖!贾扬清十年经典之作获时间检验奖中國海軍下水餃 一廠抵一國 無人地獄?戰略忽悠局該成立了!【一週軍事雜談】2024.06.18ICML 2024|复杂组合3D场景生成,LLMs对话式3D可控生成编辑框架来了《我的未来不是梦》by 小赛ICML 2024 | 图上的泛化挑战:从不变性到因果性比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 | CVPR 2024 HighlightICML 2024 | 量化大模型退化严重?ETH北航字节推出LoRA新范式小米大模型提效新框架:训练最高提速34%,推理最高提速52%!Kaldi之父合作出品ICML 2024 | DMS:直接可微的网络搜索方法,最快仅需单卡10分钟!ICML2024: 华中科大发现大模型具有自我认知2024ICML 2024 | 南开大学提出反向传播全新改进策略,不降速、大幅提升显存效率ICML 2024 | 川大发布用于开集图像复原的测试时退化适应框架ACM顶会SIGGRAPH 2024最佳论文揭晓,英伟达CMU各占40%!三支国内团队获荣誉提名AI也会「刷抖音」!清华领衔发布短视频全模态理解新模型 | ICML 2024大模型端侧 CPU 部署最高提效 6 倍!微软亚研院新开源项目 T-MAC 技术解析来了ICML 2024 | 大模型Checkpoint极致压缩,精度无损存储降低70倍ICML 2024 | Transformer究竟如何推理?基于样例还是基于规则ICML 2024 | 无需LayerNorm简化Attention,精度无损推理效率大幅提升AMC10 2024年冲奖攻略,附考前6个月备考规划!字节豆包全新图像Tokenizer:生成图像最低只需32个token,最高提速410倍ICML 2024 Spotlight | 在解码中重新对齐,让语言模型更少幻觉、更符合人类偏好共产风刮过我的家 (2024最高提速1440倍!15秒用GCN搞定随机规划,中科院自动化所新成果入选ICML 24ICML 2024|华为诺亚提出SLAB:从BN和注意力角度改进TransformerICML 2024 Oral | DPO是否比PPO更适合LLM,清华吴翼团队最新揭秘ICML 2024 | 探究知识编辑对大语言模型的近邻扰动清华提出时间序列大模型:面向通用时序分析的生成式Transformer | ICML 2024神经网络架构「殊途同归」?ICML 2024论文:模型不同,但学习内容相同追花的吉卜赛人10min搞定一人食,全靠这几样丨厨房好物清单ICML 2024 | 神经网络可能不再需要激活函数?LayerNorm也具有非线性表达!ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能ICML 2024|Transformer究竟如何推理?基于样例还是基于规则
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。