Redian新闻
>
哈工深聂礼强:多模态大模型是具身智能发展的关键动力丨具身智能十人谈

哈工深聂礼强:多模态大模型是具身智能发展的关键动力丨具身智能十人谈

公众号新闻

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相多模态大模型+自动驾驶=?ECCV'24这场Workshop开启招募啦核心代码仅三行!即插即用的视觉语言连接器,一键提升多模态大模型上交、斯坦福等联合推出SpatialBot,大模型走向空间智能、具身智能之路戴盟机器人王煜:「具身技能」才能发挥人形机器人的作用 | 具身智能十人谈零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR无需人工/GPT-4V排序,针对多模态大模型的全自动多级偏好学习上海内推 | ​上海人工智能实验室招聘多模态与具身智能方向算法实习生张建伟院士将出席GOTC 2024,分享多模态具身智能与机器人系统创新成果字节、华科发布多语种视觉文本理解新基准,多模态大模型还有很长的路要走中国移动千亿多模态大模型发布,「九天-九九」风趣畅聊堪比GPT-4o联汇科技OmChat:突破长视频理解极限的多模态大模型剑桥大学:基于语音的大模型攻击,轻松“操纵”多模态大模型为什么最近多模态大模型工作中用Q-Former结构的变少了?GPT-4o仅排第二!北大港大等6所高校联手,发布权威多模态大模型榜单!多模态大模型,爆了!网友:YYDS!上交&阿里:掀开多模态大模型的头盖骨,解密黑盒模型推理过程港大和字节提出Groma:多模态大模型新范式!模拟人类先感知后认知,精确定位图中物体!具身智能体三维感知新链条,TeleAI &上海AI Lab提出多视角融合具身模型「SAM-E」多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再「压缩」抛弃视觉编码器,这个「原生版」多模态大模型也能媲美主流方法AI早知道|百度即将发布全新App腾讯元宝;行业首发多模态大模型辅助视障人士ACL 2024最佳论文开奖,多模态大模型爆火出圈!浙江大学发布全能多模态大模型OmniBind,刷榜13大benchmark「懂物理」是具身智能核心!北大高逼真物理仿真,加持磁性微米级机器人登Nature子刊赋予机器人思考能力!北大提出自纠正多模态大模型,赋能端到端机器人操作ECCV 2024|是真看到了,还是以为自己看到了?多模态大模型对文本预训练知识的过度依赖该解决了ICML 2024 | 清华提出DecisionNCE,用多模态表征预训练加速具身智能ACL 2024 | 多模态大模型能揭示图像背后的深意吗?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。