Redian新闻
>
LLM-as-Agent、VLAM的机会、「算力困境」和对Transformer的质疑

LLM-as-Agent、VLAM的机会、「算力困境」和对Transformer的质疑

公众号新闻
毋庸置疑,人工智能领域正在经历一场将关系到每位从业者的变革。

在最近一个季度的机器之心Pro会员通讯中,我们探讨了一系列与人工智能发展趋势相关的话题,例如VLAM是否是自动驾驶的黑盒解药?机器人和大规模语言模型结合的具身智能是否将成为未来主流?谷歌如何通过算力猛增超越GPT-4?...

同时,我们也尝试从技术视角出发对 OpenAI与微软的战略联盟、AI巨头的大一统多模态大模型竞赛及 Meta 所推行的Llama2的开源生态等对商业格局的潜在变化进行剖析探讨...

9月23日 Week 38 专题解读 >> 点击查看

 1. 自动驾驶的水要被VLAM搅浑了?   

VLAM 是什么?VLAM 是谁开发的?VLAM 和 LLM、VLM 有什么关系?VLAM 有什么技术特点?VLAM 跟自动驾驶有什么关系?VLAM 和数据问题有什么关系?...

 2.「大一统」的多模态大模型赛道有何变数?   
OpenAI 又被曝在训模型了?通用多模态大模型又是谁在做?谷歌 Gemini 有新消息吗?此前还有谁发了多模态大模型?多模态大模型有哪些特点?...

9月16日 Week 37 专题解读 >> 点击查看

 1.「Robotics 跑酷」的成本快被 RL 打下来了?   

Atlas 之后又有机器人跑酷视频?RL 如何压低机器人跑酷成本?成本能有多低?以前做机器人跑酷有多贵?波士顿动力用没用 RL?...

 2. Dojo 超级计算机能让特斯拉摆脱英伟达 GPU?   

Dojo 超算要如何为特斯拉增加 5000 亿美元市值?Dojo 超算将解决特斯拉哪些困境?Dojo 的 D1 芯片架构了解一下?特斯拉的 Dojo 超级计算有哪些独特需求?今年还有哪些 HPC、超级计算机等产品发布?...

9月9日 Week 36 专题解读 >> 点击查看 
 1 ·  机器人 + LLM ≠ 具身智能?   

稚晖君下一步要做什么?国内具身智能赛道玩家都有谁?具身智能还差点什么?通往具身智能有哪些潜在技术路径?...

 2. Llama 2 的开源生态,是馅饼还是陷阱?   

Llama 2 带来的开源生态可靠吗?Baichuan-2 有望成为 Llama 2 的国产平替?Baichuan-2 vs. Llama 2,谁更强?百川开源LLM训练切片的意义何在?开源与闭源,国内大模型领域竞争格局是什么样的?...

9月2日 Week 35 专题解读 >> 点击查看

 1. 谷歌超车 GPT-4 之路:用算力猛怼?   

Gemini 模型算力达 GPT-4 五倍,关于 Gemini 模型有哪些传闻?SemiAnalysis 的爆料,放出哪些重要信息?谷歌的算力储备历程回顾?新定义之 GPU 富人与 GPU 贫困者,“GPU 贫困者”应该关注哪些方向?...

 2. 对齐数据的 Less is More   

MLLM 对齐又有新进展?MLLM 的对齐与实现 AGI 有何联系?Less is More 有和对齐工作有和联系?RLHF 怎么办?...

8月26日 Week 34 专题解读 >> 点击查看

 1.  LLM-as-Agent 技术谁家强?   

AI Agent 是什么?LLM-as-Agent 是什么?为什么要用 LLM 做 Agent?开源和闭源模型谁更擅长做 Agent?LLM-as-Agent 当前的局限有什么?...

 2. 图灵奖得主 Yoshua Bengio 的 AI 意识可能性研究报告探讨了什么?   

什么样的 AI 才算有意识?对 AI 意识的研究都有哪些理论支撑?现在已经有 AI 模型具备意识了吗?...

8月19日 Week 33 专题解读 >> 点击查看

 1. OpenAI 是缺钱还是缺后劲?   OpenAI 或将在 2024 年底被迫申请破产?是媒体在哗众取宠吗?OpenAI 真的缺钱吗?OpenAI 大量投资新公司,是在烧钱还是在攒后劲?...

 2. 两人一狗,站在机器人的十字路口   小米的 CyberDog 2 机器狗、稚晖君的机器人「远征 A1」及宇树的通用人形机器人「Unitree H1」分别有哪些亮点?为什么要设计成「人」或「狗」形状?机器人电机有哪些难点?...

8月12日 Week 32 专题解读 >> 点击查看

 1. Meta 的商业宏图,从放弃蛋白质开始?   Meta 为何解散蛋白质折叠团队?Meta 今年都作了哪些 AI 储备?Meta 舞 LLM,意在元宇宙?...

 2. 英伟达 GPU 的供与需   英伟达本周发布了什么新品?都是谁在屯英伟达的 GPU?GPU 为何产能收到限制?...

8月5日 Week 31 专题解读 >> 点击查看

 1. 用 Transformer 和 RLHF「炼」大模型,危?   Transformer 刚修了 softmax,RLHF 怎么又出问题?当前这波「炼丹」方案还不够成熟吗?当前的投入会白费吗?…

7月29日 Week 30 专题解读 >> 点击查看

 1. 硅谷大户:听说你在做 AI,那你卖广告吗? 硅谷 AI 大户们赚到钱了吗?谷歌、Meta、微软、Snap 和 Netfilx 分别都在搞哪些 AI 赛道?谁在闷声发大财?...

 2. 谷歌公开大模型技术路线实体机器人

RT-2 使用的 LLM 技术路线是如何实现的,有哪些优势?该技术路线为何值得关注?还有哪些互联网大户在布局用大模型搞机器人?今年还有哪些值得了解下的 AI 智能体项目?...

7月22日 Week 29 专题解读 >> 点击查看

 1. Meta:一个「搅浑」大模型市场的选手   Meta 本次开源了什么?LlaMa 2、PaLM 2、GPT-4 等模型对比,谁赢了?「牵手」微软 Azure、亚马逊云科技、高通,Llama2 正在进行哪些 「合纵连横」?Llama 2 模型的推出,会对大模型市场格局产生哪些影响?深挖「技术论文」,透视 Llama 2 模型技术、从 LLama 到 Llama 2,LLama 模型的开源生态盘点…

 2. 前阿里巴巴 VP 贾扬清解密新公司业务   新公司 Lepton AI 是做什么的?Lepton AI 所在赛道目前情况如何?赛道主要选手背后的资方实力如何?分别都在做什么?贾扬清什么来头?Lepton 项目的合作者都是谁?背景如何?...

7月15日 Week 28 专题解读 >> 点击查看

 1. 李飞飞的最亮「北极星」:搞机器人!  李飞飞划重点的具身人工智能是什么?实现具身智能有哪些具体要攻克的点?李飞飞还有哪些重要研究?有哪些大牛也在关注这个方向的研究?...

在下个季度,机器之心PRO会员通讯将继续关注人工智能、机器人等正处于变革中的技术趋势、产业风向及商业格局,为置身这场技术变革中心的人工智能从业者把握时代机遇提供独到视角及决策支持。


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Meta对Transformer架构下手了:新注意力机制更懂推理Buyer agent 都是坏的冒油的?Transformer论文「重磅更新」!八子全部离职,谷歌删除Attention Is All You Need所有作者邮箱什么时候可以fire agent百度谷歌成为AI黄埔军校,Transformer八子融资超8.7亿刀!「AI行业全景报告」总结GenAI大爆发Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性idea5127 血壮山河之武汉会战 富金山战役 15中年男人的生活,一地鸡毛。老金的故事Transformer的上下文学习能力是哪来的?第八章 现代社会的诞生 (2)起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7Transformer速查宝典:模型、架构、训练方法的论文都在这里了Transformer出逃八子最后一人正式创业!坐标日本搞AI“群”模型,本人:在谷歌有被困住的感觉DeepMind指出「Transformer无法超出预训练数据实现泛化」,但有人投来质疑ControlNet、「分割一切」等热门论文获奖,ICCV 2023论文奖项公布仅根据蛋白质序列便可预测相互作用界面,一种基于Transformer的蛋白预测模型智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!ICCV 2023 | 浙大&阿里提出:基于Transformer的可泛化人体表征来了!20230802龚俊新浪扫楼链接+总结彻底抛弃Transformer,八金刚之一再创业!联手前谷歌Brain大佬创建自然启发智能模型工农兵学微积分VQ一下Key,Transformer的复杂度就变成线性了用 Transformer 和 RLHF「炼」大模型,危?Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理ICML 2023 | UPop: 使用统一渐进剪枝压缩视觉-语言TransformersTransformer是唯一选择吗?无Attention和MLP的语言模型反而更强了NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer算力困境:谁能成为高性能计算的助推器?云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!LLM里的Transformer还可以这么用?谷歌最后一位Transformer论文作者离职创业,野心不小,要颠覆当前生成AI范式NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构NeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型​下一代Transformer:RetNet结构可视化及Vision RetNet展望
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。