Redian新闻
>
张鹏对谈安克阳萌:GPU 和 Transformer 可能是中间态,机器人+大模型会诞生超级品类

张鹏对谈安克阳萌:GPU 和 Transformer 可能是中间态,机器人+大模型会诞生超级品类

公众号新闻

做机器人的安克,如何看大模型和通用机器人的未来?

安克经常被国人认为是一家充电宝公司,但其实充电宝收入只占他们收入的 10% 不到。2022 年,安克营收 20 亿美元,在充电和储能、影音设备、智能家居三个领域里,不少细分品类都做到了全球第一梯队。

作为前谷歌员工,安克创始人&CEO 阳萌 其实是机器学习专业,在谷歌开发过搜索算法,对于当下大模型所依赖的英伟达 GPU+Transformer 架构,有着不一样的理解:「(大模型的未来应该是存算一体),更适合存算一体架构的很可能不是 Transformer 这个范式,而是更新、更适合存算一体架构的新范式。」
而本身就有机器人业务的安克,对于未来的机器人+大模型也有着自己的规划,在阳萌看来,「通用机器人将来肯定会是超级品类,不管是不是人形的,这是毫无疑问的」。
对于安克的未来,阳萌有自己的规划,「我们的目标是成为消费电子领域的宝洁、或者说德州仪器。」
3 月 26 日,在极客公园创始人&总裁 张鹏和安克创始人&CEO 阳萌的对话直播里,关于大模型的 Transformer 架构,英伟达的 GTC 大会,以及端侧模型,机器人+大模型的未来等都进行了探讨,提出了一些非共识的观点。
本文基于直播整理,略有删减。

01

分治法有天花板,

端到端才是未来


张鹏:前两天英伟达刚刚开完科技界的春晚 GTC 2024,股价从去年以来也一直飙升,前途不可限量。之前跟阳萌聊的时候,发现他有一些非共识的观点。你怎么理解英伟达未来的价值天花板,以及在硬件和大模型结合领域,未来有什么值得期待的东西?
阳萌:我们的工作习惯是对问题做抽象,透过现象看本质,因为往往东西越碰到本质的层面,越能够经得起长时间考验,所以英伟达这事我还是想先从抽象角度解释。
首先先讲观点,让英伟达声名鹊起的产品主要是 GPU,我觉得 GPU 的成功是算法范式交替过程的中间态。GPU 帮助开启了新算法范式的时代,但是当这个新时代真正降临的时候,它作为中间产物又很可能被新的时代所吞噬
张鹏:这个时代是指计算吗?
阳萌:对,从图灵和冯诺依曼算起,过去几十年的计算机科学其实是一个分治法(divide and conquer)的科学。
分治法,字面上的解释是「分而治之」,就是把一个复杂的问题分成两个或更多的相同或相似的子问题,直到最后子问题可以简单的直接求解,原问题的解即子问题的解的合并。这个方法是绝大部分算法的基础,如排序算法(归并排序)、自然语言处理(分成分词、单词信息统计、以及翻译、搜索等子任务)、自动驾驶(分成感知、决策、控制等子任务)。
分治法有很多好处,它非常符合人的逻辑,容易操作,容易理解,也很容易通过团队分工去实现。
冯诺依曼架构的核心是区分了 CPU 和存储器,把分治法产生的代码存在存储器里,问题解决到哪一步时就把哪部分的代码从存储器加载到 CPU 里运行,所以说是最适合分治法的计算机系统架构。
张鹏:稍微总结一下,有了分治法之后,我们才能够去把复杂的问题拆到可解决的步骤,人们才可以在小问题上投入更大的工程力量,推动它往前去走。如果不拆解一个宏大问题,我们都是靠直觉,这样一个再强的人也解决不了。通过分治,我们可以让一堆人用工程的方式去攻关,然后串起来解决这事。
阳萌 :总结得很好。分治法虽然能很快到 70、80 分,但它的天花板也比较低,大概率到 85 分就上不去了
张鹏:为什么到 85 分就上不去了?
阳萌:先讲个事实,以前我在 Google 做搜索工程师,2008 年我们内部的评价标准下,Google 搜索就已经能到 62、63 分了,但十几年过去了,这个分数也没有提高特别多。
这个背后有一些底层逻辑。首先,分治法因为要避免累积误差,所以要把每个步骤都尽可能做好。然后就发现很多步骤越往细做,其实都是在越钻牛角尖,没有意义。例如机器人要讲重定位精度,而人的重定位精度很差,也能做很复杂的操作,我相信未来像人的机器人很可能不需要这么高的重定位精度。
其次,分治法在不断细分问题时会消耗大量人力。搜索要一千人打底,自动驾驶也要一千人。到后面更糟的情况是,分得越精细,代码越复杂,所需要的理解和迭代成本指数上升。最终它的天花板就到了,这个时候再加更多的人,或者拆得再细,都弊大于利了。
张鹏:那怎么办?
阳萌:我 03 年在美国读博士,学 Machine Learning,很快就感觉在 AI 领域,每 5-10 年都会有一代新的范式。范式就是流行的算法框架,比如 80 年代大家做决策树,90 年代做 Support Vector Machine,00 年代做 Random Forest,10 年做深度学习,17 年开始 Transformer,你可以看到基本上是每隔 5-10 年就会出来一个新的范式。
我当时的直觉是决策树、SVM 这种范式没前途,神经网络这种仿生的范式才有未来。但我数学不好,搞不了范式,就转工程和商业了。
范式迭代到第四次、第五次的时候,出来了端到端的神经网络,它打破了之前的分治法。或者说,从深度学习开始,分治法被端到端的算法打破了。我们不再通过细分来解决问题,而是用类似人脑的仿生算法,端到端的解决问题,这也打破了之前分治法的性能天花板。
用端到端算法,OpenAI 30 个人的 GPT 团队(22 年底规模)就能做出碾压几百个上千个人大团队的 NLP 算法,特斯拉不到一百人的算法团队也会能做出 L4 级别的自动驾驶。
以自然语言处理为例,过去用分治法解决问题的时代,培养了至少 3 万个博士,发了几十上百万篇论文,花了很多人的毕生心血,但是到了今天端到端大模型的时代,这些东西都没有意义了。换句话说,当你拥有一个大的仿生模型的时候,只要有足够多的数据,足够多的算力,再复杂的问题也是几十个人就解决了。以前一千人团队里各个成员拥有的、解决细分后牛角尖问题的知识,例如日语的片假名怎么分词,都没有公司再需要了。
我在谷歌还经历过一个事。2008 年 Google 就有人做了通过机器学习对搜索结果排序,而且效果更好。但这个算法拖了五六年也没上线,因为我们负责搜索的老大觉得这个东西不能解释和调试。今天也有很多走传统分治法路线的人会说,端到端的算法不可解释、不可调试,我们要谨慎之类的。但我觉得这是借口,在绝对的能力面前,阻挠新时代降临的力量肯定会被碾压掉。

02

英伟达 GPU 催生了 

Transformer 范式,

但可能不是长期最优


张鹏:如果我们看不懂结果是怎么出来的就认为这是错的,但其实可能是对的,只是今天我们不能去理解为什么对。刚才说冯诺依曼架构跟分治法好像是天作之合,甚至神经网络,端到端的大模型,都是在冯诺依曼架构下去诞生的,这怎么理解?
阳萌:很多事情都是要做类比,或把相似的两个事物放在一起对比,我们才会发现其中不对劲的地方,再进一步思考背后的原因。
我先说一个事实:人脑有 860 亿个神经元,但人脑的计算功耗也就是 15W。而为什么现在一个 800 亿参数的 Transformer 模型跑在英伟达的架构里,要几千瓦的功耗?
人脑本质上是存算一体的,神经元既存储信息,也做计算。而英伟达依然是冯诺依曼架构,所有的模型参数存在高带宽的 HBM3 内存里,每一次运算的时候搬到矩阵乘法器这个计算器里边去做计算,算完之后再搬回来,所以大部分的功耗浪费在搬运的过程中。如果我们大脑是根据冯诺依曼架构搭建的,存储一块、计算在另一块,比如存储在左脑,计算在右脑,每次思考都要把所有知识和记忆从左脑搬到右脑,这样反复来回倒腾,大脑一定会烧掉的。
所以说,仿生的神经网络算法,最理想的架构一定是仿生的架构,存储跟计算在同一个单元里面发生。中文叫存算一体,英语叫做 in-Memory Computation(IMC)。在内存里做计算,数据就不搬运。我相信存算一体的架构一定会替代冯诺依曼架构
前一段跟 IDEA 的张老师聊起来,Transformer 本质上是一种建立在大规模并行矩阵计算上的神经网络算法。为什么会产生 Transformer?其实就是因为有英伟达的 GPU 这样一种特别适合做大规模矩阵计算的硬件。
这话说起来可能有点绕口,Transformer 是建立在当前最适合仿生算法的并行矩阵乘法硬件上的仿生算法范式。换句话,如果没有英伟达的 GPU,没有矩阵乘法,那我们今天也不可能有 Transformer,所以说英伟达催生了 Transformer
张鹏:GTC 大会上老黄明确表示,芯片算力还在放大。大模型无限 scaling law,英伟达算力兜着,他的这个表态,看起来算力提升今天还是适配的,还可以往前走。但是你认为这件事不会长久,最终会被颠覆?
阳萌:拿 GPU 配仿生算法,这不叫适配,叫凑合。
按照刚才推导的逻辑,大模型将来一定要摆脱冯诺依曼架构,换到存算一体架构的。而更适合存算一体架构的很可能不是 Transformer 这个范式,而是更新、更适合存算一体架构的新范式。
换句话说,现在的第六代范式跑在英伟达的 GPU 上面,也许到了第七代,在我们说的这个存算一体的架构上面,会跑出一个全新范式出来。
张鹏:所以,虽然是在冯诺依曼架构下的异类英伟达孕育了 Transformer,孕育了今天神经网络这样的异类算法,但最终仿生神经网络的演进会落到一个新的计算架构上,也就是说异类孕育异类,但只有超人才能生出超人。在超人型的新计算架构上才能通向终极的 AGI,带来最牛的仿生算法,是这个逻辑吗?
阳萌:是,现在的架构就像你把所有的知识和记忆存在左脑,每次推理都要全搬到右脑去。这事我觉得长期看,肯定会被改变。
张鹏:是不是主要是能耗和效率的问题?
阳萌:不仅是能耗,还有 CPU Cycle 的效率,现在每 100 个 Cycle 里边其实有 90 多个是浪费在搬运上的。还有就是,人脑本质上不仅是存算一体,而且是存算训一体

03

存算训一体的新范式

可能是未来,但也很危险


张鹏 :关于存算一体,现在全世界有些什么样的公司这方面做得比较前沿?或者说在这条线上今天我们能看到比较有确定性的东西?
阳萌:国内其实已经有几十家做存算一体的公司了,海外也有相当数量的公司。
但其实存算很难做,远比 CPU 难做。CPU 听起来复杂,其实有很好的生态和产业链分工。大家可以拿 ARM 或 RISCV 的授权,用台积电流片,所以哪怕几十个人的小公司也能做 CPU。
但你会发现存储跟 CPU 完全不一样。全球做存储的公司现在一共不到 10 家,都是寡头,都形成了非常厚的专利保护,以及在自己的 IDM 生产。在这样高的门槛下,做存算的创业公司其实蛮难的,存储本来就是壁垒很高的事情。
张鹏:也就是说,要在存储基础上讨论计算问题,但是存储这一块没什么产业生态,非常不利于创新,是这意思吗?
阳萌:对,存储这边没什么产业生态,很难真正切进去,创新非常不容易。
张鹏:那我不禁要问了,如果你都能看到这个点,英伟达会看不到吗?英伟达搞了这么多年的计算,今天有这么高的市值,那我觉得在英伟达面前存储壁垒都不算壁垒,大不了直接把存储公司买了,有没有这样的可能?
阳萌:有可能,我觉得什么时候英伟达买了一家做存储的公司,美光或西部数据,他们可能就真的在做存算一体了。要是还没有买,这事儿最多是内部试一试,很难说真正在做。
张鹏:如果按照这个逻辑,英伟达一定会看得到,但目前英伟达还在冯诺伊曼架构下,还在用工程的方式做进一步的加速,看起来也能匹配市场需求。而且现在的关键还是把产能提上去,更不用说结构性的创新。
所以今天英伟达在这个阶段没有那么大的同行竞争压力,没有必要赶紧换到所谓的超人架构上。
阳萌:我还是想聊聊存算训,因为我觉得「训」是个很好玩的话题。人从小长到大,每经历一次事情,脑子在算的过程中,也在训练、在进化。
所以未来从仿生的角度讲,可能真的会有一个存算训在一起的范式。端到端的大模型在计算的时候,不一定是同时,但至少是比今天这个频率要高得多的,根据算的结果去训练自己。当然反过来讲,这个方向也很恐怖。AI 要是真的存算训一体了,我们就管不住 AI 了。
今天的大模型预训练好了之后,我们还会花时间去对齐,把那些对人不好的因素消除掉。如果大模型不停地自我训练,你很难同步对齐,模型就会逐步开始不受控制。
前一段跟李志飞聊天,志飞觉得可以外面加一个模型,把存算训一体的模型给管起来,阻断这个存算训模型跟外界的交互,审查它的交互。
但我觉得这个方法不太可行。抽象看这个问题:一个不断进化的存算训模型被一个看守模型管着,类似于一个越来越聪明的犯人关在监狱、被一个狱警看守。请问,不进步的狱警怎么能关得住越来越聪明的犯人?那如果狱警也开始进步,情况可能更糟糕,两个都进步了,是不是狱警干脆跟这个犯人共谋反叛人类了?
张鹏:进步到把咱们都关进去了,似乎也不是没可能。
阳萌:所以一方面我很期待下一个范式,但是另一方面,我赞成立法禁止存算训一体模型,它太危险了。
张鹏:按照你的意思,现在大模型都是所谓的预训练,它没有办法在上面真正成长,要成长就要回炉再训,重新炼丹。所以存算训一体本质上就是说这个模型具备一定自成长、自适应的能力,它在跟用户的交流过程中,不是只在微调,而是回到了原始的神经网络里进行了各种转化。如果是这样的话,微不微调就没有必要了,这个东西拿过来的时候就是万能的,所有的人都是自适应的,那这不就是一个真正的智能体了嘛?
另外就存算训而言,存算一体我理解的是它在计算的效率和适配神经网络这个层面是有天然优势的。所以是不是说存算训一体的前提是存算一体,这是必然的吗?
阳萌:我相信这是必然的,因为今天在推理侧你把参数倒来倒去的过程里,还去改变参数,这种模型天然就是不存在的。但如果今天推理时你的模型参数放在那里不动了,你就可以把训练做成一个回路加上去。
所以说,架构变化了才有可能诞生下一代的算法和范式。
张鹏:理解了,所以结论就是英伟达今天站在冯诺依曼架构上把这个异类修到极致,它也不是真正适配通向未来 AGI 的那个最核心、最适配的架构,而看起来今天英伟达又没有在这方面有所决心和行动通向 AGI 目标,这就是你不看好英伟达的核心原因。

04

Long Context +端侧

模型可能是对个体的最优解


张鹏:我记得你们之前在 AI 上面做了一些根据落地适配的东西,这个效果怎么样?在今年的技术条件下,如果用那种方式能解决问题吗?
阳萌:大模型我们用得很多。比如说我们的客服系统就是 GPT 基于知识库和 agent,自动回复 40% 以上客户邮件,每天几万封。这是我们跟 Shulex 公司共创的,他们也对外提供服务。我们有快 1000 个软件工程师,100 个算法工程师、200 个 app 和服务器、300 个嵌入式、100 个 IT 和 200 个软测。通过基于 GPT 的内部开发工具,今天大家提交的代码里 20% 已经是 AI 生成的了,我们希望今年下半年能把这个比例提高到 50%。
这些东西我们在用,但是还没那么好用,因为模型不了解企业相关先验知识的时候,它给你的不一定是最好的结果。换句话说,今天大模型掌握通识,但它对你的知识和记忆一无所知,完全不了解你。当缺少了这些知识记忆的时候,肯定没办法最高效地帮你解决问题。企业的问题也是一样的,当大模型不了解企业内部信息的时候,出来的结果始终就差一层意思。
所以怎么把企业的知识跟大模型结合到一起?我们公司的工作习惯是把所有选项拉出来之后,从极左到极右排列。极左的话是重新训练,左中叫 fine tuning,极右叫 prompt engineering,就是把提示词写好一点,右中叫 embedding,也叫 rag(retrieval-augmented generation),就是把企业的知识切成一小段一小段的,然后向量化,把跟这个问题相关的向量找出来之后翻译回文字段,把这些文字段送到大模型一起去生成结果。
上一次我们跟字节讨论的时候,张一鸣提到还有一个在中间的方案叫做 long context。当你的 context 真的长到了 10 兆 token 的时候,这个 context 可能了解你的全部。
张鹏:这不就存算一体了嘛,context 实际上就是一个 memory。
阳萌:对,某种程度上就是把 context 做成 memory 了,但是今天要实现很长的 context,算法成本还是比较高。
还有个问题,如果今天真的有一个 context 记录了你过去十年二十年的所有看过的、听过的、做过的历史,你会放心这个 context 存在云端吗?
张鹏:那肯定不能在云端,一定得在我的端侧,最多云端有个加密备份。
阳萌:所以为什么说未来推理一定在端侧,因为你要用那么长的 context 装你所有知识和记忆的时候,这个东西只能在端侧,不能跑到云端去,那太危险了,没有一点隐私。
我觉得大概率未来长 context 应该是跟端侧模型结合起来的,甚至说 context 长了之后端侧模型都不用特别大的参数,因为现在训练数据越来越精炼之后,模型的参数就已经可以越来越小。所以未来可能就是一个 7B、 10B 的模型跑在端侧,结合你的超长 context,这个情况下还会不会多一颗英伟达的芯片在端侧,就得打个问号了。
长期来看可能是存算一体芯片的事,短期来看今天一个 7B 模型加一个特别大的 context 的话,可能高通就把这个事儿干了,没有英伟达什么事儿。我们今天这个时代看起来特别变幻莫测、纷繁复杂。但你回到底层去看的话,底层原理还是蛮稳定的,一直都是在朝着仿生的方向走,算法范式和系统架构都是在朝着仿生的方向走。

05

消费硬件有新机会,

安克想找价值观一样

的创造者一起做


张鹏:未来大模型跟消费硬件结合有什么想象空间?包括具身智能机器人这些。
阳萌:这里面有几层,最底层是大模型和计算芯片平台,我们在看怎么能尽快推动存算一体的芯片落地。在机器人大模型算法上,我们也在判断是不是要自己去做一个机器人大模型。其实人脑分两层,大脑一层,小脑一层。大脑负责知识存储和决策,小脑负责运动,所以我们在想,哪个模型是要我们自己做的。
再往上的话,做算法可以是个小团队,但一旦碰到任何硬件,就不是一个十几个人的小团队能玩得转的,因为硬件的价值流特别长。一个做硬件的公司,如果没有 1000 人,基本上很难在国际市场上有大的气候。
张鹏:所以在这条线上分治法还得继续,还是得拆到对应的问题上,有足够多的力量通过工程把它做到更好,对吧?
阳萌:对,我们自己观察,几乎所有几十个亿甚至上百亿规模的硬件公司都是有业务没能力。什么意思呢?靠一批人搞了几个产品卖到全球去,有了几十亿收入,但其实你没有能力系统化地把这个事情在很多个细分品类都干起来。
这两年底层技术变革了之后,我觉得第一是很多现有的硬件形态可以重新做,第二大模型一定能催生一些全新的硬件形态。
张鹏:你平时也很低调,只在小范围交流,这次怎么突然跑出来开炮?不是要出来招人的吧?
阳萌:被你看出来了…
我们的确觉得这个阶段可做的机会很多,公司最大的矛盾是人比机会少。靠一对一沟通肯定找不来很多人。所以想借着一些热点和知名媒体,把我们的思维方式和做事方式讲出来,吸引一些志同道合的人,来创造一些新的东西。
张鹏:所以安克是一家什么样的公司?你们需要什么样的人?
阳萌:安克是一家消费电子公司。很多人知道安克是买过我们的充电宝,但今天充电宝只占我们收入的 10% 不到了。我们在充电和储能、影音设备、智能家居这三个领域有十几个产品线,两千人的产研队伍,2022 年营收 20 多亿美元。在一些领域我们已经站到了全球第一梯队。例如家庭安防,我们的 Eufy 品牌在 400 美元以上已经做到了第一,占到了 30% 以上的市场份额。
安克是个做细分品类的公司,我们不做手机、电脑这种超级品类,专注把很多个细分品类做好。我们的目标是成为消费电子领域的宝洁、或者说德州仪器。我们打造的平台上有成熟的流程工具、底层技术、销售渠道、品牌效应等助力,要让做细分领域或细分市场的团队更高效的做出卓越的产品、产生商业成功,比自己独立创业有更大的成功概率,赚到更多的期望收入。
说到找人,我们最近都在说找价值观一样的人,也就是创造者。从上面的讨论你能感觉到,我们是个喜欢深度思考的公司。我想说,安克价值观的第一条就叫第一性(原理),也就是抛开别人跟你讲的东西,自己从最基础的原理出发,去推导这个事情的不变的框架,并且找到里面可以产生变化的因素。
你会发现,第一性推导出的方向经常是一条没有人走过的路。
张鹏:第一性原理都通向非共识。
阳萌:对,所以光有第一性是不够的,你还得敢脱离大部队,沿着这条没人走的路路往前走。所以我们的第二个价值观是求极致,我们叫敢于顶着风险,想尽办法,追求非共识背后的长期全局最优。
其实求极致是跟求胜相对的概念。以篮球为例,两个队打篮球,我的队努力赢你 1 分这个叫求胜,求极致就是我每一个球、每一个动作,都要做到尽可能的好。这种情况出来的结果,就可能不只胜你几分了。
张鹏:就是要有吊打的效果嘛。
阳萌:打击别人不是最终目的,你会发现瞄着别人竞争的公司最后都没有好下场。只有真正的从第一性原理找到那条正确的路,自己一个人默默走,把每一步做到极致的时候,才能做出来一家真正卓越的公司,我们也是去年下半年才把这个道理想清楚的。
我们以前对应的价值观叫求卓越,总结成三个超越。第一步超越昨天的自己,第二步超越最好的同行,第三步超越消费者最本质的需求。听起来好像是一步、两步、三步这样顺序往上走。但我们经过四五年的时间的实践,发现这不是一条顺序台阶,它其实是往左走、往右走的两种选择。
往右是超越自己和同行的平坦大路,往左是一座没有路的大山。你但凡想超越消费者最本质的需求,就要忘掉前面那两个超越,不走右边的大路。你要愿意从第一性的角度去找出左边山上那条隐秘的上山小道,然后一个人默默地走那条小路。
举个例子,音频的前端算法,降噪、3A 这些,以前都是用不同的信号处理算法或小深度学习模型,各自解决。统一到大模型是第一性的,但没人做过。我们的音频算法团队看准这条第一性道路,顶着风险,想尽办法,花了两年时间实现了一个大语音模型,达到了全世界最好的语音前端效果,今年开始会全面部署到安克的会议电话、耳机等产品上。这种不跟同行卷短期,自己默默卷突破,就是我们内部鼓励的价值观案例。

06

把剩余价值分配

给创造价值的人


张鹏:你觉得你们公司有哪些特质能支撑你们不断创新,数十年如一日地做好每一件事情,达到今天的规模?
阳萌:首先我们是一个长期主义的公司。
长期主义可以拆成两个特质,第一个特质叫做终局思维。定义是看准未来的局面,指引当下的选择。举个例子:有人会问,安克最早是做电商卖东西的,为啥非要变成产品公司?因为我们发现任何一个成熟的渠道平台,一定会把有品牌的货品摆在最前面,也就是说有品牌的才能活得好。所以当看清这个终局的时候,我们就一定会选择去做品牌。
第二个特质叫延迟满足,愿意为了一个更大的长期利益放弃当下的短期利益,比如说我们现在投很多钱去做机器人大模型、做新硬件、甚至做存算芯片,短期肯定很难有收益,但我们公司的的价值观里有一个非常坚定的要素,就是延迟满足,我们相信这些投入能让我们长期过得更好。只要短期饿不死,我们就要长期过得好。
其次,是把钱分对。
引用一句任正非讲的话,他说价值分配一定要匹配创造,否则价值创造就不可持续。换句话说,公司的钱是谁赚的,这个钱就应该要分给谁,否则这个公司就开不久。
我们也是一样的观点。我们公司有个指标叫做剩余价值,如果把一个公司的财报打开,找到两行,一行叫做向劳动者支付的薪酬和福利,还有一行叫留给母公司股东的扣非净利润,这两行加起来本质上就是公司就是能够用来分的钱。简单来说就是所有给劳动者支付的钱,以及所有留给股东的钱合在一起叫剩余价值。我们观察,一流的公司基本上都有三十个点以上的剩余价值,例如苹果有 29 个点,华为有 33 个点。
但公司怎么分配剩余价值差异很大,苹果把大多数分给了股东,劳动者只分了几个点,而华为把大部分分给了劳动者,股东只拿了几个点。我们自己相信消费电子公司的价值主要是劳动者创造的,所以会跟华为一样,把 75% 的剩余价值分配给劳动者,股东只拿小头。
张鹏:你们现在能有多少个点的剩余价值?
阳萌:我们大概二十个点出头,所以说安克还是一家致力于成为一流公司的二流公司(笑)。
但我们说今年的结果来自往年的努力。去年下半年之前的安克还是一家求胜的公司,去年下半年升级价值观到求极致之后,我们的思维和行为都在变化,相信大家会看到我们结果的变化。

07

通用机器人会

成为超级品类


张鹏:最后想问,你认为未来五年内,真正结构性的机会,让你为之兴奋的,愿意下注的的未来可能是什么样的?
阳萌:第一,肯定要做的是把我们现有的硬件产品嫁接上大模型的能力,在这个基础上也会诞生很多新的硬件品类,我相信这当中肯定有很多细分品类的机会。
从硬件产品角度来讲,到最后机会最大的可能还是机器人。今天机器人品类里,有比如扫地机器人,自动驾驶,送餐机器人,各种各样的专用机器人,也有通用的机器人,例如人形机器人。
还是回到第一性,抽象的看规律。在智能手机时代的规律是要先在专用细分品类打磨好产品、突破用户体验阈值,例如做好功能手机、MP3 播放器、数码相机、GPS 导航仪等,然后才能汇聚成智能手机这样的通用超级品类。如果这个规则到机器人领域还成立的话,我觉得未来 5-10 年还有很多细分品类的专用机器人的机会。
张鹏:那你怎么看通用机器人?
阳萌:我觉得通用机器人将来肯定会是超级品类,不管是不是人形的,这是毫无疑问的。
至于通用机器人出现了之后,扫地机器人这样的细分品类会不会还存在,我觉得还会有。因为一个家里面不可能买三个五个通用机器人,如果你买一个通用机器人,它要帮你做饭、帮你洗衣服,估计最后用来扫地的时间可能也不多,这种情况下,如果一个扫地机器人价格不太贵,我觉得它还是会存在。
对于通用机器人,我们喜欢用三个问题来对齐认知:
  1. 在第 100 万台通用机器人下线时,出厂成本是多少钱?

  2. 这 100 万台机器人被用到了哪些场景?

  3. 这一天哪一年会来?

如果大家对这几个问题有自己的想法,欢迎来公司找我对暗号。

安克作为一家专注在细分品类的公司,未来如果我们做得好的细分品类有机会汇聚到通用机器人这个超级品类里,我们会把他们变成独立的公司去挑战这个机会。人生能有几回搏嘛。

*头图来源:安克


极客一问
文末提出的三个问题,
你的答案是什么
欢迎在评论区发表看法


 

更多阅读




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023一文理解透TransformerCNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术高效涨点!用Transformer模型发Nature子刊(文末送书)中文实录!黄仁勋集齐Transformer论文七大作者,对话一小时,干货满满Mamba架构第一次做大!混合Transformer,打败Transformer老黄最近攻势很猛啊!英伟达宣布推出新款 GPU“黑好”!7人创业、1人投敌!Transformer 八子谷歌坐冷板凳5年再成老黄座上宾对话安克阳萌:痛苦关掉10个品类后,我学会了找对人和分好钱开源日报 | 华为腾讯相爱相杀;Redis不再 “开源”;老黄集齐Transformer论文七大作者;“中国大模型第一城”争夺战OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱Robot Transformers 是什么 Transformer?Transformer升级之路:多模态编码位置的简单思考Transformer仍是2024发论文神器为什么Transformer一般使用LayerNorm?CVPR 2024 | 让视频姿态Transformer变得飞速,北大提出高效三维人体姿态估计框架HoTTransformer升级之路:“复盘”长度外推技术Meta革命新架构掀翻Transformer!无限上下文处理!黄仁勋集齐Transformer论文七大作者,对话一小时,干货满满《黄石归来》性能突破Transformer!Mamba引爆AI圈开源日报 | 清明节前AI复活亲人成热门生意;中国没有“百模大战”,未来也不会有“十模大战”;谁将替代Transformer?Mamba和Transformer合体!Jamba来了:超越Transformer!现场围观 | 黄仁勋对话Transformer论文作者:世界该给Tranformer翻篇了Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量川普和拜登代表的国际政策谁将替代 Transformer?面试被问到了:手撕Transformer《我是强弩之末》原创Transformer解码真实场景!Meta推出70M参数SceneScript模型《L的农庄》人人都能当周杰伦!Suno作曲,ChatGPT写词,网友用Transformer造出神曲!《父亲的表》(原创)AI 大神首次承认参与神秘模型 Q* 研发,把 OpenAI 吓坏了 | Transformer 作者专访OpenAI公关跳起来捂他嘴!Transformer作者公开承认参与Q*!Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。