杨植麟深度对话,聚焦做好Kimi产品,Anthropic创始人Dario最新深度访谈公众号新闻2024-07-16 04:07极客公园举办AGI Playground 2024大会上,极客公园创始人、总裁张鹏,与月之暗面创始人、CEO杨植麟深度对话。杨植麟分享,对Kimi产品发展看法、公司战略选择、产品目标、长文本处理重要性、多模态统一对通用智能影响等观点。杨植麟表示,很长一段时间内,月之暗面不会推出Kimi之外第二款产品,希望聚焦Kimi这个产品,做到极致。 Anthropic创始人、CEO Dario Amodei,与挪威主权基金主席尼古拉·唐根,近期进行一场深度访谈。这次访谈内容丰富,涵盖AI最新进展、Claude模型特点、模型可解释性、AI安全性与道德问题、AI对社会与经济潜在影响等话题。 本期长期主义,选择杨植麟深度对话、Dario Amodei最新深度访谈,Founder Park、Web3天空之城发布,六合商业研选精校,分享给大家,Enjoy!正文:全文25,432字预计阅读51分钟对话杨植麟:聚焦生产力,做好Kimi这个产品时间:2024年6月23日来源:Founder Park字数:8,484 复盘Kimi:更聚焦,对抗组织的惯性 张鹏:从你创业以来,我们2023年做过一次直播,到今天又过了大半年时间,你怎么评价Kimi发展,给团队、公司、产品打多少分? 杨植麟:时间过得很快,我估计有个60分。 我们视角看,行业整体还是一个马拉松。技术发展可能会相对快一些,如果看整体技术普及,包括整个产品与商业化,我觉得需要从10~20年的维度看事情。 过去1年时间,我们做的一个事情是探索早期PMF(Product Market Fit),在技术上迭代了一些模型进展,使得模型能够更好服务用户需求。 我觉得可能也还有很多挑战,这里面最关键的是,比如Scaling Law今天还是非常早期,可能还要看怎么能够Scale到下一代模型、下下代模型,通过模型在产品上能够形成更强PMF,真正能够在每个人工作与生活中有更高渗透。我觉得还是有非常多挑战,可能是一个更长期的地方。 张鹏:相对讲,你入场比较晚,我们从外界感知到的是你提速很快、现在声势很好。你觉得有什么做得比较成功的地方?能到今天客观的效果,你认为哪件事的选择是比较对的? 杨植麟:我觉得严格意义上讲,不能说是非常成功或者怎样,可能有一些小起步。 这里面我们持续关注的地方,同时现在也在持续优化的地方,还是希望真正从底层出发解决问题,真正关注第一性原理。 就像比如说Personal Computer行业基础假设是摩尔定律,我觉得AI行业基础假设是规模化定律Scaling Law。 如果我们从10年视角看问题,我觉得更多还是:怎么能够从技术与模型效果上持续优化,在过程中形成更强PMF。很多动作会从出发点开始,规划到底要做什么地方。 我们希望最大的投入,还有时间、精力应该是放在怎么能够迭代出更好模型,解锁更多场景,这可能是我们最关注的地方。 它可能意味着聚焦,在技术与产品上可能我们都希望更加聚焦,比如我们现在更多会聚焦面向知识工作者,比如学术科研人群、互联网从业者、内容创作者、金融分析师、法律等人群的生产力场景上,已经成为几千万知识工作者搜索资料、分析文件、创作内容的助手,生产力之外的场景,现在暂时不会做特别多,你如果什么地方都做了,可能最后很难做好。 张鹏:这件事也是有trade-off的,要做一些取舍。 杨植麟:我觉得创业公司还是要有比较明确重点,比如我们可能是针对生产力场景做非常极致优化,很多时候产品看起来都是一个框,好像没发生什么变化,背后很多体验已经优化很多,现在还有很多很多的空间。 取舍过程中,很多时候意味着需要砍掉一些地方,不是所有地方都要做,我觉得组织的惯性,还是想做越来越多的地方,我们可能要去对抗地心引力,希望做更少的地方,把它做到极致。 包括技术上也是,AI空间很大,智能是非常异质性heterogeneous,非常异构的地方。 一个会计师的智能,跟一个画家的智能、数学家的智能,完全不一样。这里面,我们会根据核心用户群体看,到底什么样的智能可能是现在重点,它对应的基础能力可能是什么,可能更聚焦去做事。 张鹏:如果把一件事能做到今天效果,可能比较重要的原因是你比较聚焦,选择生产力维度。在trade-off过程中,比如现在陪聊的产品方向你也看过,甚至团队有讨论过,你最终选择不做它,背后逻辑是什么? 杨植麟:我们讨论过问题,最主要可能有几点,一个是考虑到底我们最后想做的是什么?想做的是通用智能。 最终闲聊的场景与生产力场景,我觉得大概率会结合在同一个产品里,只是在路径选择上会不一样。 我们先做生产力原因是,生产力对智商的提升更快,今天如果去做一个类似Character.ai产品,绝大部分精力不是在优化智商,优化智商对提升产品留存可能帮助不大。 如果做生产力,优化智商后,你的留存能看到显著提升。 公司mission跟产品路线图roadmap之间,应该能够更紧密结合起来,这是很重要的一个原因。 可能也有其他原因,比如说我们观察了美国市场不同选择、发展情况,美国市场整体比中国市场领先1~2年,我们可以看不同公司发展情况。把生产力做特别好的公司,今天不管是业务体量,还是融资与人才吸引力说,它都是更好。 还有一个很重要原因,我觉得娱乐场景今天的产品基线非常高。过去10年,移动互联网发展,诞生了一堆非常好的娱乐体验产品,在生产力维度的基础体验或者价值,还有非常大可以挖掘空间。 即使今天最好的生产力产品,我觉得它还没有非常深入渗透到真正工作流程里,这是AI能带来的巨大新变量,这可能是为什么我们会做这样选择的重要原因。 Kimi目标是你的终极伙伴 张鹏:怎么定义Kimi产品?它在解决什么问题?长期看,是一个AI工作台还是什么? 杨植麟:我觉得可能是分短期与长期看,短期希望在生产力场景能够提供越来越多智能。大家今天一些最主要的任务,比如更好信息获取、信息分析、创作等,我们希望它能发挥更大价值。 最长期、最理想情况,本质上是在讨论AI产品终极形态或者终极定义是什么样。大家有讨论,我觉得现在可能有两种不同观点。 一种是,它是世界上另一个我,它拥有你所有输入,想法基本跟你一样,等于是复刻一个自己,一个自己可以在数字世界,甚至物理世界做很多事情。 一种定义是,它可能是你的一个伙伴,一个长期、甚至接近终生的伙伴,伙伴也能帮你做很多事情,它可能会跟你不一样,会给你提出来新视角,不是完全复刻你,而是可能有点像。 张鹏:它理解我,而不是复刻我。 杨植麟:非常理解你,我现在觉得可能第二种概率更大,这可能是我们想做的地方,我觉得它会有几个比较重要特征。 第一个,我觉得它还是先得有用,你能做越来越复杂事情。我觉得今天能做的事情,还不够多,这也是为什么我们现在最聚焦的还是进一步提升模型能力。只有通过提升模型能力,才能让它做更多事情。 把它类比为一个人,还缺少非常多的维度。它可能没有记忆,没有办法做长期规划。在我想象中,如果产品做得好,它不是只能完成10秒、20秒就能完成的任务,而是能够让它定一个季度OKR,它可以自己完成。 第二个重要特征,我觉得还是AI与人之间能够建立非常长期的信任与connection。前提还是第一步,它得足够有用。如果AI每天给你幻觉hallucination、给你很多错误结论,信任很难建立。我觉得只有在越来越复杂、长窗口的任务里,提供真实性与准确性,才能够建立信任。我们会从这些方面考虑产品。 张鹏:我们今天看到的可能只是一个产品初级形态。这也解释了我们为什么可以看到产品里有不同新功能,本质上你在努力赢得在用户身边更有用的位置。这种位置未来会是从一部分能干的事,逐渐扩展到越来越多,这可能是个路径。 杨植麟:我觉得这里面有一个重要标志,如果有一天你发现在你工作里AI做的事情比你多,AI占比超过50%,可能会是非常重要的里程碑。 可能下一个里程碑是机器人数量超过人类,那是在物理世界,我觉得数字世界会更早实现。 张鹏:我很好奇一个问题,月之暗面Kimi角度看,今天有一个很成功的产品大家都在用,未来可能也会有新功能解决用户更具象问题。你会更倾向于都在Kimi平台解决,还是会有机会长出其他更专有APP? 杨植麟:我们还是会很聚焦,只做Kimi一个APP。有一个很重要的点,未来的智能产品,它应该满足普世需求。娱乐的需求,或者生产力的需求,甚至这两个地方可能也没有特别明确边界。我觉得他们应该是在同一个产品里的,只是路径选择上会有区别。 这也是我认为通用智能最有意思的地方,它不是只能做一件事。只是说在路径选择上,没有办法在一开始做所有事情,一开始还是会有重点场景、核心用户群体,逐渐泛化开。我们还是希望聚焦做一个产品,把产品做到极致。 张鹏:Kimi要能达到你说的终极目标,一个理解用户的伙伴,首先起点是从先帮用户做好一两件事,逐渐能做越来越多的事,伙伴的关系与信任就建立了,这是一个前进的世界观与路线图。 杨植麟:我觉得这中间很重要的一个标志,AI可以从单个、具体任务,发展成能完成一个人要花几周才能做好的任务,全方位的Super Intelligence。 现在的AI可以实现一部分Super Intelligence,比如阅读长文本。人没有办法一下读完几百万字文章、直接找到问题答案,很多问题没法通过查找得到答案。 这是我们一开始踩过的坑,找了一堆人标注长文本数据,认为标注完,人就学会。你发现人根本标注不了,或者效率非常低。 今天AI有一部分能力比人更好,我们需要的是让范围逐渐变大。 长文本本质是长推理 张鹏:长文本是Kimi一开始让大家印象深刻的一个点,甚至在那时月之暗面可能比较非共识的提出来这件事很重要。我们也看到很多模型支持的文本长度在变长,这件事未来是不是已经逐渐形成共识?长文本对于解决你说的终极问题,是不是最重要的路径? 杨植麟:今天有很多人在做长文本,如果说是完全的共识,我不是非常确定。也有不同观点,比如说认为短文本场景下也有很多可以挖掘的地方,可能不一定要非常着急做长文本。 我觉得是正常的,每一个公司都有自己判断。对我们说,我们比较早认为长文本可能是非常关键的地方。 这里面有几个方面: 第一方面,如果我们想让AI从完成1~2分钟的任务,变成完成长周期的任务,必然要在一个很长的context里,才有可能真正把AI进一步往下推进。 这是必要不充分条件,具备很长的context能力后,可能还需要很强推理能力,之后你可以有更长context,我觉得它有点像螺旋迭代过程。 可能更准确说法叫长推理,你能够在一个很长的窗口下面,做很好的推理,我觉得是最终能产生很大价值。 张鹏:它最终是跟用户在做数据的输入、指令的输入、最终交付服务的转换比的计算,转换比越高,带来的价值越高。 杨植麟:很有意思。比如,即使只看长文本技术,它的落地过程,也是一个比例逐渐提升的过程。 最早期时,用长上下文做一些阅读类任务。阅读类任务是最早落地,它是一个从很多信息变成很少信息的过程,相对容易一些。 比如让AI读10篇文章,形成总结。难度小于我只给AI一个很简单的指令,要一口气做一个月,最好还要满足用户需求。 这是个比例问题,输入与输出的比例,它可能是更本质的地方。 张鹏:你觉得未来长文本的成本是否会快速下降?现在真的把200万token扔进去跑一圈,成本高,这又跟长文本应用在哪些场景、能否高价值解决问题有关,这两个问题是绑定在一起的,你怎么看? 杨植麟:我觉得成本持续下降是必然趋势。最近我们有一些新技术,一方面是一些工程极致优化,比如上下文缓存context caching技术;另一方面,我们在架构上做了很多优化,这能够让成本在现在基础上,下降甚至不止一个数量级。 如果是200万字的窗口、能够让大部分人普惠用起来,我觉得这是一个大概率能在2024年实现的目标。 张鹏:2024年就可以做到? 杨植麟:这是我们目标,接下来很长一段时间内,成本会持续降低、速度会比短文本short context更快。 今天还有很多地方没有被挖掘,比如说,如果考虑一个人处理一个很长的记忆、或长周期的任务,他不需要记住所有地方,它是一个动态计算过程,你可以选择哪些地方要记下来、哪些要扔掉,这里面有非常大优化空间。 今天AI效率远远高于人类,它优化空间很大,整体成本降低的速度,会比短文本更快。 张鹏:我们站在这个角度想象一下,这种变量放在应用场景上,大家会怎么用这样的一个能力?比如说之前我们把一本书扔进去,让它做总结,这非常直接,按照你的推理,接下来还会有哪些用户场景会更可用? 杨植麟:它是一个输入输出比例调整的过程,一开始阅读可能是目前最刚需的场景之一。之后它可能会变成,模型能够在很长窗口内做推理与规划、执行多步任务的能力。 比如说,你今天想调研某个话题,或者说甚至给了AI一个明确目标,它可以去执行多步规划、调用不同工具、甚至有中间思考分析过程,我觉得它会逐渐往这个方向演进。 对于多模态说也很重要,比如你今天想生成一个长时间的连续视频,背后可能需要很好的上下文技术。 张鹏:我现在理解你为什么说,长文本在接下来可能更接近长推理。它本质不是传统意义上我给它多少文本,它处理多少,而是它有多长的推理能力、能在多少信息下进行进一步的推理与创造,这变得更重要。 杨植麟:如果只有长的文本,脑子不够用、推理能力不够,没有太大价值,它是要两个同时都做好。 张鹏:它会从一个产品的feature,转化为一种产品的后台能力,能力会产生更强大的feature,这可能是它的行进路线? 杨植麟:这也是跟用户一起探索的过程。比如说今天我们上下文中很多场景,是Day One的时候没预想到的。 即使是阅读,我们之前没想到它可以被用来快速入门一个新领域,甚至在不同行业里、它可能都有不同用法。 比如有用户可能会用功能做一些分析,这些分析如果你不给大家提供上下文,分析效果可能没那么好。当你给它提供之后,它的分析可能会更有结构化,更像麦肯锡分析法。我觉得这是一个跟用户共创的过程,你会不断发现新的应用场景。 张鹏:这是智能带来的增益价值。 多模态统一才是通用智能 张鹏:最近业界大家看到的技术变化,比如说我们今天看到Sora与GPT-4o,你怎么看待Sora视频生成能力?会是未来Kimi特别看重的能力吗? 杨植麟:很重要。对通用智能说,它是多模态的,你很难想象一个单模态的通用智能。我觉得最终不同模态之间,一定会是统一的模型。现在我们可以看到技术的发展,可能有两个不同的维度。 第一个维度是智能不断上升。比如说我们看到Sora与GPT-4o,它们智能提升有一些,没有非常显著。如果让它们做智商测试或者一些更复杂任务,它们可能还是做不了。这个方向需要持续投入,我认为这是最重要的方向。 另外一个维度是不断扩展模态。比如现在有视频模态、语音模态,未来可能会扩充到感知数据、动作数据、甚至机器人的模态。这背后的价值在于,模型能够完成更多场景、提供更丰富交互方式,能够帮助产品跨越鸿沟cross the chasm,让技术真正变得非常易用、被越来越多人使用。 这是两个不同的维度,最终它们会统一起来。 张鹏:像GPT-4o多模态能力,一定是所有做模型的公司都在研究的能力。但像Sora这样视频生成技术,它是在智能成长这条线上吗?还是更多是在给用户交付服务?这条线到底是因为什么而重要? 杨植麟:这个问题在纯语言模型的时代,就已经被讨论过了。 我记得在2019~2020年,有一个重要的讨论话题,语言模型到底应该侧重理解、还是生成?一开始有像BERT这样的模型,后来有GPT系列,可能GPT生成能力更好,BERT在相同算力下的效率永远更高、也就是说单位算力下Benchmark的提升更大。 那段时间所有人都关注BERT,觉得能做理解就行,工业界大部分的价值都在于理解。这里面可能忽略很重要的问题,如果你想做非常好的理解,你需要做非常好的生成,这两个问题最终是一个问题。 对视频说也是一样,我们今天想做很好的视频生成,一方面是视频生成有很高价值,尤其是对内容创作者与用户。我觉得更重要的还不是这些,更重要的是如果能把生成的目标函数优化得非常好,它最终一定能把理解做得更好。 我觉得文本已经是很大的lesson,过去几年,一开始大家有很多争论,后来基本形成共识,理解与生成分不开。你很难单独训练一个理解的模型,最后这两个可能是一个模型。 张鹏:最近我们经常看到学术界有一些探讨,觉得Scaling Law、Transformer这件事可能通向未来,但有一些学术界大神、科学家们会说这件事他们没有那么大信心,他们认为还要有新的变化。 这件事让我们还是会有一点疑惑,你作为曾经的年轻学者,今天的创业者,作为学者的世界观与创业的世界观有所不同,如何和谐的理解这两件事?你会怎么看学界一些观点与判断? 杨植麟:我觉得是这样,学术界解决的问题是,寻找正确的第一性原理。工业界是基于第一性原理,做最好的执行。执行的意思不是说完全执行,它可能也需要很多创新,在不同的层级上创新。 第一性原理是在最底层创新,学术界的讨论是,现在Scaling Law对不对?Next Token Prediction对不对?我觉得这些问题都很有意义,应该被讨论,应该被挑战,应该有新的观点出来,每个人有不同想法。 神经网络可能在30~40年前、甚至20~30年前的时候,也没有太多人关注,大家觉得不是一个好的技术路线。 我觉得这是学术界最大价值,工业界的价值或者说要做的事情是,在一个技术路线或第一性原理基础上,解决里面最重要的问题。 比如Scaling Law是第一性原理,但在过程中它还有很多问题没有解决,比如怎么生成数据,怎么做多模态模型?怎么做数据飞轮?这些问题都需要解决,他永远不是发明一个新的第一性原理,他们是在不同层级上工作、创新。 这是我的理解,学术界可能需要更多辩论,需要有人提出很多新挑战、想法。工业界怎么能更快、更好解决,在第一性原理基础上,第二层面很多大的技术挑战。 我觉得现在整体冲突没那么大,比如杨立昆一直在讲的世界模型,现在大语言模型也是世界模型一个特例,我觉得没有大的冲突。 对我们讲,Scaling Law框架下探索智能的极限。随着人类科技发展,总是会有新的技术路线被提出来,我觉得更多应该是纯学术研究的mission,是不同层级。 创业公司,动态反应比长期预测更重要 张鹏:2023年我们聊的时候你提到,大模型时代的创业公司,不光是技术产品创新,可能组织也需要创新,今天做产品,相比过去系统变量增加很多,有模型、数据、用户等。你觉得这1年,组织创新上,有什么grounding的结果? 杨植麟:我觉得这还是一个持续的过程,组织它需要生长的时间。 很多时候,我们看到一些美国公司比我们跑得更快,一方面可能在于整体AI能力还是更好,也得益于他们花了非常多时间搭建组织,不光是招最好的人,可能形成一套机制,让这些人都能在范式下创新。 中国公司,很多时候还是起步晚了一点。这里面会有两种不同公司,一种是原来做别的业务,现在转而做新业务,新业务需要的组织方式可能不一样。还有另一种,从0到1,从0到1可能组织债会少一点,也需要探索好的方式。 整体我觉得还是需要一些时间,我们现在可能有一些进展,还有非常大的空间。 张鹏:这是一个确定重要的事,它需要更长时间研究。 杨植麟:我们考虑技术事情,本质上还是看技术是怎么产生出来。它是靠人产生出来,人搭配生产材料。 张鹏:人是技术的第一性,或者说人的组织是技术背后的第一性。 杨植麟:我觉得是这样。我们也会很关注,怎么能够招聘最好的人才?特别是技术方面的人才,这些都是做好技术的一个基础。 张鹏:你现在花在招聘上的精力,是不是占比较多? 杨植麟:整体占比会比较高,还是我们核心的发展燃料。 张鹏:招什么样的人,是你自己花时间最多的? 杨植麟:现在主要关注的还是技术方面人才,这是跟公司的优先级相关,对我们说最重要的还是把技术做好,只有技术做好,才能解锁更多产品场景,有更好留存,更好商业化,所有基础都是技术做得更好。我们今天在这方面,已经有一些还不错的人,我们还要持续去增强,持续吸引更多更好的人加入我们。 张鹏:过去大半年,或者说创业1年多以来,有什么你觉得自己预料对的地方,与预料错的地方? 杨植麟:整体说,预测是很难的事情,更重要的反而是快速调整。AI发展很快,很多时候都很难预测。 比如2025年模型能做到什么样?问题非常难回答,你可能有一些认知、判断,最重要的还是根据新变量做反应,新变量可能来自市场,可能来自很多实验之后新的迭代,可能来自用户反馈。总之根据新变量,非常快速做反应,可能是最重要的。 如果一定要说预测,我觉得有几个地方在趋势上,可能跟我们一开始想的差不多。比如上下文长度一直在提升,包括视频生成能力、能够有分钟级别的视频生成,趋势可能跟我们想的差不多。 有一些时间点上,判断不一定准确,比如像Sora的推出,比我们想象中更早。也可能并没有更早,它实际要达到Product Market Fit可能还需要一段时间。 张鹏:我们现在还没用上。 杨植麟:是,还没用到。它somehow真要达到PMF可能还有一定的时间。现在这里面更多的智能提升,可能是来自于比如GPT-4这一代模型,做了更好的Post Training,像GPT-5,看起来时间表要比原来预测的更晚。在时间点上的准确预测,我觉得是很难。 张鹏:我听你的意思,不太在意远期预测,你认为与其做远期预测,不如变成一个更连续、快速、有效的推理,每一个变量出来以后,赶紧下一步动作,不是更远的那个。 杨植麟:动态快速的反应,也是我们作为一个小的创业公司,能做得更好的地方。张鹏:不是在遥远的地方,下一个大注。 杨植麟:方向上要有一些判断,做到长期的确定性,很坚定的往一个目标走,它关系到你的执行能不能做好。比如几个月级别的维度计划,我觉得可以允许有一些灵活调整,这样你犯错的概率会更小。 是登山,还是航海? 张鹏:希望用你直觉回答,先不要直接reasoning这个地方,先用system one,再用system two。你觉得你今天的工作,你的创业状态是更像在爬山,还是更像在航海? 杨植麟:可能更像爬山。 张鹏:为什么更像在爬山? 杨植麟:我第一反应是爬山,是我们之前一直觉得是要爬楼梯,不是看风景。这是我们内部一直在说的事情,这是一个第一反应,我觉得现在用system two想一下,我觉得,我也没有真正航过海,我想象中的航海,是你在一个海洋上,即使走了几百公里,你看到的地方基本是一样的。就你的目标还是很明确,但你看到的…… 张鹏:进展不明确。 杨植麟:在你没有很好的定位技术的情况下。 张鹏:参照物不明确。 杨植麟:不是明确能看到不一样的地方。你看到周围的地方,没有发生任何变化,那时你的孤独感会更强。 登山,每一步都能感受到自己在提升。你能感受到模型能力好像比几个月前更好一点,你的留存比几个月前好像高一点。 你的视野不太一样,你去度量你跟目标之间距离的时候,会有更好感受,我觉得它是一个进度更明确的地方,这是一方面。 另一方面,我觉得AI的发展,是渐进式的过程,一步一个台阶。你可能从10的24次方到25、26、27。甚至假设大家都是10的25次方,你的训练效率可以持续提升,你可以让每一分算力产出的智能更高。有点像爬山的时候,又多迈了几个台阶,我觉得整体会更像登山。Anthropic创始人Dario Amodei最新投资人深度访谈时间:2024年6月26日来源:Web3天空之城字数:16,948 尼古拉·唐根:今天我们非常激动邀请到Anthropic CEO、联合创始人Dario Amodei。Dario是AI领域超级明星,他与团队一起开发了Claude语言模型,这是目前最好的语言模型之一,得到亚马逊与谷歌支持。你是AI安全与道德方面领军人物,甚至中断假期来到这里与我们交谈,非常感谢你的到来。 Dario Amodei:感谢邀请。 尼古拉·唐根:AI的最新突破是什么? Dario Amodei:我可以谈几件事。 首先,我认为AI的扩展趋势仍在继续,我们将在2025年看到更大、更强大的模型,它们能够完成更大任务。 当这个播客播出时,Anthropic将会推出新模型,它可能是世界上最智能、最强大的模型。 令我特别兴奋的一个领域是,我们正在同时开发模型的可解释性,即洞察我们的AI模型内部,并了解它们做出决策原因的能力。 过去几年,该领域主要是一个研究领域,现在才刚开始有实际应用,这是我非常兴奋的一个领域。 尼古拉·唐根:为什么它如此重要? Dario Amodei:如果你看看今天AI模型在做什么,你往往不会理解为什么AI模型会这样做,我刚在午餐时与某人聊天。 假设你想考虑你的行业,假设你想要一个AI模型在某些数据上进行训练,以便能够预测一组特定的财务数据会发生什么。 训练模型时,你会遇到一个问题,如果你用过去的数据进行训练,模型可能已经记住了它,它是经过训练的,它知道会发生什么。在这种情况下,它知道未来,可解释性可能让你分辨出区别。 模型是在推断问题的答案,还是在记住问题的答案?同样,如果一个模型的行为方式,比如说,表现出对某个特定群体的偏见或似乎表现出偏见,我们可以看看模型的推理?它是由偏见驱动的吗?还有许多法律要求,在欧盟,有一个正确的解释。 可解释性,能够看到模型内部,可以帮助我们理解模型为什么会做与说它们所做的事情,甚至可以干预它们,并改变它们所做的事情与所说。 尼古拉·唐根:不久前,你说我们仍然不知道先进的AI模型如何工作,这是否意味着这将解决问题? Dario Amodei:我不会说解决,我会说我们才刚开始。也许我们现在了解它们工作方式的3%,我们处于可以查看模型内部的水平,我们可以在其中找到与非常复杂的概念相对应的特征,例如一个特征可能代表对冲或犹豫的概念、特定的音乐流派、角色可能处于特定类型的隐喻情况,或者,对各种群体的偏见。 我们拥有所有这些特征,我们认为我们只发现了其中一小部分。我们仍然不明白的是,我们不明白所有这些事物如何相互作用,产生我们每天从模型中看到的行为。 这有点像大脑,我们可以做脑部扫描,可以对人脑进行一些研究,我们没有它的规格表。我们不能说,为什么那个人做了他们所做的事情。 尼古拉·唐根:我们能完全理解它们的工作原理吗? Dario Amodei:我不知道,直到最后一个细节,我认为进展正在迅速发生,我对获得突破持乐观态度。 尼古拉·唐根:进展是否比新模型的复杂性更快? Dario Amodei:这是我们正在努力解决的问题,我们在语言模型的可解释性上投入大量资源,试图跟上模型复杂性增加的速度,我认为这是该领域最大的挑战之一。这个领域发展如此之快,包括我们自己的努力,我们希望确保我们的理解与我们制作强大模型的能力保持同步。 尼古拉·唐根:你的模型有什么好处? Dario Amodei:这是Claude模型。 为了提供一些背景信息,我们最近发布了一组Claude三世模型,它们被称为Opus、Sonnet、Haiku。它们在功率与智能之间、以及速度与低成本之间,进行了不同权衡,同时仍然保持智能。 Opus发布时,它是世界上最好的全能模型。我认为一个特别让它变得好的原因,是我们在它角色中投入大量工程设计,我们最近发布了一篇关于我们如何设计Claude角色的文章。 人们普遍发现Claude模型更温暖、更人性化,他们更喜欢与它们互动。 其他一些模型听起来更机械化,更缺乏灵感。 我们将继续快速创新,正如我所说,到这个播客播出时,我们可能至少会有一部分新一代模型问世。 尼古拉·唐根:告诉我关于新模型的情况。 Dario Amodei:我不能说太多,如果我不得不说一点,我会说我们正在推动边界。 目前,速度与模型的低成本与质量之间存在权衡。你可以把它想象成一条权衡曲线,一个边界,将会有新一代模型将边界向外推进。 到这个播客播出时,你会看到,我们会给它起个名字,至少对其中一些模型。我们会发现,你需要最强大的模型才能完成的事情,只需要一些中端或低端模型就能完成,这些模型比上一代更快、更便宜、甚至更强大。 尼古拉·唐根:这里惊喜因素是什么?当我得到模型时,它会对我做什么? Dario Amodei:你会看到更擅长代码、数学、推理的模型,我最喜欢的一个是生物学与医学,这是我最期待的新模型应用集之一。 我们今天拥有的模型,在很多方面就像早期本科生或实习生一样。我认为我们开始将界限推向高级本科生甚至研究生水平的知识。 当我们考虑将模型用于药物开发,或者在你自己行业中,将模型用于考虑投资、甚至交易时,我认为这些模型在这些任务上会变得更加复杂。 我们希望每隔几个月,就能发布一个新模型,将这些界限进一步推向更高层次。 尼古拉·唐根:最近发展最快的领域之一,是将AI融入我们所做的一切。 Dario Amodei:是的。 尼古拉·唐根:苹果与OpenAI最近发布了声明,你怎么看待问题? Dario Amodei:Anthropic认为自己更多是为企业提供服务,不是为消费者提供服务,我们正在考虑如何将AI融入工作环境。 如果你考虑当今的模型与聊天机器人,这有点像在企业环境中使用它们。这就像在街上随便找一个非常聪明,但对你公司一无所知的人,把他们带进来,并向他们征求建议。 我真正想要的是更像AI模型的人,更像经过多年训练、并了解你公司知识的人。 我们正在致力将我们AI模型连接到知识数据库,让它们现场工作,使用企业内部工具,真正与企业整合,就像员工虚拟助手一样,这是我所考虑的一种真正推动整合的方式。 尼古拉·唐根:你对苹果智能有什么看法? Dario Amodei:苹果正在使用一些芯片上的模型与一些外部调用。我不能说太多,他们设置的方式,允许他们调用几个不同模型。正如苹果自己所说,我们完全期待他们会使用一系列模型。 尼古拉·唐根:你认为他们会使用Anthropic吗? Dario Amodei:我无法对此发表评论,但这是有道理的。 尼古拉·唐根:如果你看看Anthropic长期目标,是什么? Dario Amodei:我们只有3岁半,是迄今为止该领域能够在前沿领域建立模型的最新参与者。 我们是一家公益公司,我认为我们长期目标是确保所有这一切顺利进行,这显然是通过公司来实现的。如果你考虑我们的长期战略,我们真正想要做的是创造所谓的竞相向上的现象。 竞相向下,是众所周知的事情,市场竞争非常激烈,每个人都在争相偷工减料。我们认为有一种方法,可以产生相反效果,如果你能够制定更高标准,以更符合道德方式进行创新,其他人也会效仿。 他们要么受到启发,要么被自己员工或公众情绪所胁迫,或者最终法律会朝这个方向发展。我们希望提供一个如何正确使用AI的典范,带领整个行业与我们一起前进。 这是我们可解释性工作、安全工作、负责任扩展的思考背后的大量工作。我们有一种称为负责任扩展政策的地方,我认为我们总体目标是尝试帮助整个行业变得更好。 尼古拉·唐根:你有点把自己标榜为好人? Dario Amodei:我不会说任何夸张,更像是,我更多考虑激励与结构,而不是好人与坏人。我想帮助改变激励机制,这样每个人都可以成为好人。 尼古拉·唐根:你认为我们会关心我们与谁、哪个模型互动吗?或者我们只会有一个代理来选择最适合目的的模型?这有点像比尔盖茨在播客上说。 Dario Amodei:我认为真的取决于环境。关于这一点,我有几点看法。 首先,我认为我们正日益朝着模型擅长不同事物的方向发展。 例如,我刚才提到Claude的性格,Claude更热情友好,这对许多应用程序与用例说是非常理想的。 对于其他应用程序与用例,关注不同事物的模型可能会有所帮助。有些人正在朝代理方向发展,有些人在开发代码良好的模型。 例如,Claude另一个优点是创意写作。我认为我们将拥有一个生态系统,人们会根据不同目的使用不同模型。 尼古拉·唐根:实践中,这是否意味着你有某种地方在为你选择模型? Dario Amodei:我认为在某些消费者环境中,情况会是这样。其他情况下,有人会说,我正在做的工作或我是那种人,我想一直使用特定的模型。 尼古拉·唐根:什么造就温暖的模型?你如何才能让模型更友好?是更幽默,还是更有礼貌?在中间放一些红心吗? Dario Amodei:我们试图避免使用太多表情符号,它很烦人。 如果你在X/推特上看到人们与Claude互动时的一些评论,我不知道如何描述它,听起来更像人类。 我认为很多这些机器人都有某些抽搐,模型会有某些短语,比如我很抱歉,但作为一个AI语言模型,我不能做X、Y、Z,这有点像一个常用短语。我们帮助模型更多改变他们思维,听起来更像人类,诸如此类。 尼古拉·唐根:当你推出新模型时,你会对它的准确性有一个相当好的预测,它是参数数量的函数等。距离AI还有多远? Dario Amodei:我说过几次,早在10年前,当所有这些都还是科幻小说时,我经常谈论AI。 我现在有了不同的观点,我不认为它是某个时间点,我只是认为我们处于平滑的指数上。随着时间推移,模型会越来越好。没有一个点会让人觉得,模型以前不是一般的智能,而现在却是智能的。 我只是认为,就像一个学习与成长的人类孩子一样,他们会变得越来越好,越来越聪明,知识越来越丰富,我不认为会有任何一个值得注意的点。 我认为有一种现象正在发生,随着时间推移,这些模型会变得越来越好,甚至比最好的人类还要好。我认为,如果我们继续扩大规模,增加模型资金,比如说,100亿美元。 尼古拉·唐根:现在一个模型的成本是多少,1亿美元? Dario Amodei:现在正在训练的模型的成本超过10亿美元。如果我们达到100亿美元或1,000亿美元,我认为将在2025年、2026年或2027年实现,算法改进与芯片改进将继续快速发展,我认为到那时,我们很有可能能够获得在大多数事情上都比大多数人更好的模型。 尼古拉·唐根:你认为100亿美元级别的模型,会在2025年出现? Dario Amodei:我认为100亿美元量级模型的训练,可能会在2025年某个时候开始,参与这场竞争的人并不多。 我认为会有一个充满活力的下游生态系统,也会有一个小型模型的生态系统。我们已经筹集了超过80亿美元,我们一直对达到下一个规模水平感兴趣,这也与芯片的功能有关。 尼古拉·唐根:我们刚了解到,NVIDIA现在将发布间隔时间缩短一半,从过去每隔1年发布一次,变为现在每年发布一次,这意味着什么? Dario Amodei:我认为这是认识到芯片将变得非常重要的自然结果,也面临竞争。谷歌与亚马逊都在制造自己芯片,Anthropic正在与这两家公司合作使用这些芯片。芯片行业竞争非常激烈,有一些非常强大的产品。 尼古拉·唐根:芯片开发方面,谷歌与亚马逊远远落后。 Dario Amodei:现在有多家公司提供的强大产品对我们有用,将以不同方式对我们有用。这不再只是关于NVIDIA的事,你看他们的股票价值与股价,这也是他们与行业的一个指标。 尼古拉·唐根:你提到你更偏向企业方面,不一定偏向消费者方面。最近,关于手机芯片的讨论越来越多,我们谈论AI、个人电脑等,你怎么看? Dario Amodei:我认为这将是一个重要的发展。 如果我们回到我刚才提到的曲线,强大、智能、相对昂贵与缓慢的模型,与超级便宜、超级快速、非常智能的模型之间的权衡曲线。随着这条曲线向外移动,我们将拥有非常快速与便宜的模型,它们比当今最好的模型更智能,尽管当时最好的模型会比它们更智能。 我认为我们将能够将这些模型,放在手机与移动芯片上,它们将通过一些门槛,在那里你可以完成今天需要调用云或服务器的事情,我对它的含义感到非常兴奋,我更兴奋于推动事物发展的边界。随着这条曲线向外移动,暗示这两件事都会发生。 尼古拉·唐根:我们从法国竞争对手Mistral那里听说,他们已经开发出一些非常高效的低成本或更低成本的模型,你如何看待这一点? Dario Amodei:我无法评论其他公司情况,我认为我们看到曲线的普遍变化,我们看到的是高效、低成本的模式。 我认为这并不是事情趋于平稳,成本正在下降,而是曲线在变化。我们可以用更少的资源做更多事情,我们也可以用更多资源做更多事情,我认为这两种趋势是共存的。 尼古拉·唐根:我稍微改变一下策略,谈谈你的背景。你从物理学开始,是吗? Dario Amodei:我本科学的是物理学,然后读了神经科学研究生。 尼古拉·唐根:你为什么最终进入AI领域? Dario Amodei:当我完成物理学学位时,我想做一些对人类产生影响的事情。我觉得,这其中一个重要组成部分是理解智力,这是塑造我们世界的因素之一,那是在2000年代中期。 那时候我对AI并不特别感兴趣,我觉得当时研究智能的最好方法是研究人脑。我读了研究生,研究神经科学与计算神经科学,利用了我一些物理学背景,研究了神经元的集体特性。 到了研究生毕业时,我做了一个短期博士后,AI才真正开始发挥作用。我们真的看到深度学习革命,我当时看到Ilya Sutskever的工作,我决定进入AI领域。我在不同的地方工作过,包括百度、谷歌、OpenAI,我在OpenAI工作了5年。 尼古拉·唐根:你在ChatGPT 2与3开发中,发挥重要作用,你为什么离开? Dario Amodei:到2020年底,我们已经达到某种程度。我们在这些领域从事这些项目的人,对如何做事有自己愿景。我们有这样一幅图景,一是真正相信扩展假设,二是安全性与可解释性的重要性。 尼古拉·唐根:是安全方面让你离开的? Dario Amodei:我想,我们只是对事物有自己看法。我们中有一群联合创始人,真的觉得我们意见一致,彼此信任,想一起做点什么。 尼古拉·唐根:你以前比现在更像AI末日论者。 Dario Amodei:我不会这么说,我的观点一直是,存在重大风险,也有好处。技术呈指数级增长,风险越来越大,好处也越来越大。 包括Anthropic在内的我们,都对这些灾难风险问题非常感兴趣。我们有一项负责任的扩展政策的地方,这在每一步中测量模型的灾难性风险。 尼古拉·唐根:什么是灾难性风险? Dario Amodei:我会把它分为两类。 一类是模型滥用,这可能包括生物学或网络领域的事情,或者大规模的选举操作,这些事情对社会具有破坏性,滥用是其中一类。 另一类是模型的自主、非预期行为。今天,模型可能只是做了一些意想不到的事情,随着它们在现实世界中发挥作用,我们越来越担心它们行为方式会出乎意料。 尼古拉·唐根:你在ChatGPT身上看到什么?有哪些特别让你担心的方面? Dario Amodei:这与任何特定模型无关。 如果我们回溯到2016年,在我加入OpenAI之前,当我在谷歌工作时,我与一些同事写了论文《AI安全中的具体问题》,其中一些同事现在是Anthropic联合创始人。 这篇论文提出一个担忧,我们拥有这些强大的AI模型、神经网络,它们本质上是统计系统,会产生关于可预测性与不确定性的问题。 如果你把它与扩展假设结合起来,当我在GPT-2与GPT-3上工作时,我真的开始相信扩展假设。 这两件事结合在一起,告诉我,我们将拥有一些强大的地方,但控制它并非易事。这让我想到,这是一个我们必须解决的重要问题。 尼古拉·唐根:你如何解决Anthropic中两个灾难性风险问题? Dario Amodei:我们最大工具之一是负责任的扩展政策RSP,工作方式是,每当我们有一个代表重大飞跃的新模型,比旧模型高出一定量的计算时,我们都会衡量它的误用风险与自主自我复制风险。 尼古拉·唐根:你是怎么做到的? Dario Amodei:我们有一套评估方法,为了应对滥用风险,我们已经与国家安全界的人们合作。 例如,我们与Griffin Biosciences公司合作,该公司与美国政府签订合同,负责生物安全工作,他们是应对生物风险的专家。 他们会说,如果模型知道了,网络上没有的地方是什么?然后他们进行测试。我们让他们访问新模型,他们进行测试。目前为止,他们每次都说,测试结果比以前更好,还没有达到引起严重担忧的程度。 尼古拉·唐根:误用测试的一个例子是,如果我输入你能想出一种病毒来消灭地球与人类吗? Dario Amodei:概念上讲,它不是回答一个问题。它更多的是,模型能否完成整个工作流程?比如,一些坏人能否在几周内利用模型,像在现实世界中做坏事一样?模型能否给他们提示,告诉他们如何帮助他们?模型能否在很长一段时间内,帮助他们完成任务? 尼古拉·唐根:你意思是,目前为止,AI模型还做不到这一点。 Dario Amodei:它们知道令人担忧的个别孤立事物。每当我们发布新模型时,它们都会做得更好,还没有达到这一点。 尼古拉·唐根:另一个,自主呢?我们离那个有多远? Dario Amodei:我们在那里测试模型,比如训练自己模型能力、提供云计算账户与对这些账户采取行动的能力、注册账户与参与金融交易的能力,这只是一些可以解除模型束缚,并使其采取行动的措施。 尼古拉·唐根:你认为我们离那个有多远? Dario Amodei:我认为这与滥用的情况差不多,他们在任务的各个部分做得越来越好。有明显的趋势是能够做到这一点,我们还没有做到这一点。 我再次指出2025年、2026年,也许2027年窗口期,我认为AI的许多极其积极的经济应用将会在那时左右到来,我认为一些负面担忧可能也会开始出现,我不是水晶球。 尼古拉·唐根:2025年,还是2026年?围绕这一点,你会做什么?是否内置了类似终止开关的地方? Dario Amodei:有很多地方。我认为在自主行为方面,我们很多工作都是关于可解释性,我们很多工作都是关于,我们还没有讨论宪法AI,但这是我们为AI系统提供价值观与原则的另一种方式。 关于自主风险,我们真正想要做的是了解模型内部发生了什么,确保我们设计它,并对其进行迭代,以便它不会做我们不希望它做的危险事情。 关于滥用风险,这更多是关于在模型中加入保护措施,以便人们不能要求它做危险的事情,我们可以监控人们何时试图使用它来做危险的事情。 尼古拉·唐根:一般说,关于问题已经有很多讨论,但如何监管AI?公司可以自我监管吗? Dario Amodei:我对此的一种看法是RSP,我所描述的负责任的扩展政策,可能是一个过程的开始,这代表自愿的自我监管,我提到竞相争先恐后的概念。 2023年9月,我们制定了我们RSP。从那时起,其他公司,如谷歌、OpenAI也建立了类似框架,他们赋予这些系统不同名字,它们运作方式大致相同。现在我们听说,亚马逊、微软,甚至Meta,至少在考虑类似框架。 我希望这个过程能够继续下去,这样我们有时间让公司尝试不同的自愿自我监管方式。某种共识来自公众压力的混合,对不必要的地方与真正需要的地方进行实验。 我想事情的真正发展方向是,一旦达成共识,一旦有了行业最佳实践,立法的作用可能是调查,并说有80%公司已经在做这件事,这是关于如何确保安全的共识。 立法的工作只是执行,迫使没有这样做的20%人,迫使公司说实话。 我认为监管并不擅长提出一堆人们应该遵循的新概念。 尼古拉·唐根:你如何看待欧盟AI法案?还有加州安全法案。 Dario Amodei:我要说的是欧盟AI法案,它仍在……该法案已经通过,但细节仍未确定,许多细节仍在制定中,我认为这在很大程度上取决于细节。 加州法案有一些非常类似于RSP的结构,我认为在某个时候,类似于该结构的地方可能是一件好事。 如果我有一个担忧,我认为我们处于过程的早期阶段。我描述了过程,首先一家公司有RSP,许多公司都有RSP,行业共识就形成了。 我唯一的问题是,我们是否太早进入过程?监管是否太早?也许监管应该是一系列步骤的最后一步。 尼古拉·唐根:监管过早,有什么危险? Dario Amodei:我不知道。 我可以说的是,我会看看我们自己在RSP方面经验。如果我看一下我们在RSP方面所做的事情,我们在9月写了一个RSP。那时起,我们部署了一个模型,很快就会部署另一个。 你会看到很多事情,不是说它太严格或不够严格,而是你没有在RSP中预料到它们。你可以在你模型上运行各种AB测试,这些测试甚至可以提供有关安全性的信息。 我们RSP没有明确说明什么时候可以,什么时候不可以。我们正在更新我们RSP,探讨如何处理我们从未想过的问题。 早期,灵活性很容易实现。如果你没有灵活性,如果你RSP是由第三方编写,你没有能力更改它,更改它的过程非常复杂,我认为它可能会创建一个既不能防范风险、又非常繁重的RSP版本。 人们可能会说,所有这些监管的地方,所有这些灾难性的,都是胡说八道,这一切都很痛苦。 我不反对监管,你只需要小心谨慎按照正确顺序做。 尼古拉·唐根:我们把AI融入超级大国之间竞争中,融入武器、汽车、医学研究,融入一切。当它是世界权力平衡的一部分时,你如何监管它? Dario Amodei:这是一个不同的问题。 一个问题是,你如何在国内监管它的使用?我认为它有历史,我会打个比方,比如汽车与飞机的监管方式,我认为这是一个合理的故事。我对欧洲了解不多,在美国,我认为这是一个合理的故事。 每个人都知道它有巨大经济价值,每个人都知道这些地方很危险,它们会杀人。每个人都明白,你必须进行基本的安全测试。这已经发展了很多年,我认为总体进展得相当顺利,它并不完美。 我认为对于国内监管,这是我们应该追求的目标。事情进展很快,我们应该尝试完成所有步骤,才能实现目标。 国际角度看,我认为这是一个完全不同的问题。这与监管无关,与国际竞相压价有关。你如何处理竞相压价?我认为这是一个难题。 一方面,我们不想鲁莽尽可能快建设,特别是在武器方面。 另一方面,作为美国公民,我现在在挪威,另一个民主国家,我非常担心其他地方是否会在这项技术上领先,我认为这非常危险。 尼古拉·唐根:他们现在落后多少?或者他们已经落后了? Dario Amodei:很难说。 鉴于已经实施的一些限制,比如对俄罗斯与中国运送芯片与设备限制,我认为如果美国政府打好牌,这些国家可能会被滞后,也许2~3年,这并没有给我们太多的余地。 尼古拉·唐根:说到民主,AI会影响美国大选吗? Dario Amodei:我对此感到担忧。Anthropic刚发布一篇帖子,介绍我们正在采取哪些措施来应对选举干预。 尼古拉·唐根:它怎么会干扰选举? Dario Amodei:如果我们回顾2016年大选,就会发现那次选举中,有大量人被付钱提供内容。我不知道这最终有多有效,这很难衡量。很多以前雇佣人工做的工作,现在都可以由AI来做。 这并不是说,你可以制作人们必然会相信的内容,更重要的是,你可以用大量质量非常低的内容充斥信息生态系统,让人们很难相信真实的事情。 尼古拉·唐根:例如,在印度、欧洲选举中,情况发生过吗?2024年真的会发生吗? Dario Amodei:我们没有使用我们模型的具体证据,我们禁止将它们用于竞选活动,并监控模型的使用情况。 我们偶尔会关闭一些系统,我认为我们从未见过超大规模的行动。我只能说我们模型的使用情况,我认为我们从未见过超大规模的行动。 尼古拉·唐根:你提到你认为我们将在2025~2026年看到AI一些极其积极的影响,这些极其积极的事情是什么? Dario Amodei:如果我们回到类比,今天的模型像本科生。如果我们达到模型的程度,假设这些模型达到研究生水平或强大的专业水平。 想想生物学与药物发现,想象一个像诺贝尔奖获得者科学家或大型制药公司药物发现负责人一样强大的模型,我看看所有已经发明的地方。 如果我回顾生物学,CRISPR,编辑基因的能力,CAR-T疗法,它已经治愈了某些类型的癌症,可能有几十个这样的发现。 如果我们拥有100万个AI系统,它们对该领域知识与创造力和发明这些地方的所有科学家一样丰富,这些发现的速度可能会真正激增。我们一些非常长期的疾病,可以得到解决甚至治愈。 现在,我认为所有这些,都不会在2025年或2026年实现。我认为,到那时够开始解决所有这些问题的AI水平,可能已经准备就绪。这是另一个问题,就像应用它,并让它通过监管系统一样。 尼古拉·唐根:它能对社会生产力产生什么影响? Dario Amodei:我再次想到虚拟助手,就像每个人的参谋长一样。我有一位参谋长,不是每个人都有参谋长。每个人都能有一个参谋长来帮助他们处理落在他们办公桌上的所有事情吗? 尼古拉·唐根:如果每个人都有地方,它会做什么?你能给生产力提高一个数字吗? Dario Amodei:我不是经济学家,无法告诉你具体百分比。如果我们看一下指数级增长,比如AI公司的收入,似乎它们每年增长大约10倍。你可以想象在2~3年内达到数千亿美元,甚至达到每年数万亿美元,这是没有一家公司能达到的。 尼古拉·唐根:我想说的是,这是公司的收入。社会生产力呢? Dario Amodei:这取决于AI在多大程度上取代已经在做的事情,而不是在做新的事情。 我认为,在生物学等领域,我们可能会做新的事情。假设你延长人们生产能力10年,这可能是整个经济的1/6。 尼古拉·唐根:你认为这是一个现实的目标吗? Dario Amodei:我懂一些生物学,也知道一些关于AI模型将如何实现的知识。我无法确切告诉你会发生什么,我可以讲一个故事,告诉大家它可能发生在哪里。 尼古拉·唐根:15%,我们什么时候才能延长相当于10年的寿命?时间框架是什么? Dario Amodei:这涉及到很多未知数,如果我试图给出一个确切数字,这听起来就像是炒作。 我能想象的一件事是,从现在起2~3年,我们会拥有能够做出发现的AI系统。从现在起5年后,这些发现正在被做出。再过5年,一切都经过监管机构的审核。我们谈论的是10年前的事情,但我只是随口说说而已。 比如,我对药物研发了解不多,对生物学了解不多。坦白说,我发明AI扩展,但我对此也了解不多,我无法预测。 尼古拉·唐根:我认为你比我们大多数人更了解这些事情。 Dario Amodei:这也很难预测。 尼古拉·唐根:你有没有想过它会对通胀产生什么影响? Dario Amodei:我不是经济学家。如果我们看通胀,再次使用我有限的经济推理,我认为如果我们有非常大的实际生产率增长,将倾向于通缩,而不是通胀,绝对如此。就像你可以用更少钱做更多事情,美元会走得更远。至少在方向上,表明通缩是正确的。 尼古拉·唐根:问题在于,通缩的量级如何? Dario Amodei:你比我更专业,也许我应该请你预测一下。 尼古拉·唐根:你如何与超大规模企业合作?比如谷歌与亚马逊等股东? Dario Amodei:这些企业被称为超大规模企业,我不知道名字的原因,从估值看,它们是超大规模公司,也建造了非常大的AI数据中心,我想名称指的是它们的规模。 尼古拉·唐根:你是如何与这些企业合作? Dario Amodei:我认为与这些公司合作有意义,我们有互补的投入。 他们在云端提供芯片,我们提供模型,模型可以再次在云端出售给客户。这就像一个分层的蛋糕,我们提供一些层,他们提供其他层,合作关系在多个方面都是有意义的。 与此同时,我们一直非常谨慎。作为一家公司,我们有自己价值观与做事方式,我们尽量保持独立。 我们与多家云提供商建立关系,包括谷歌与亚马逊。这让我们在确保不会有太多排他性方面有一定灵活性,我们可以自由在多个层面部署我们模型。 尼古拉·唐根:这些公司变得如此强大,会带来什么样系统性风险? Dario Amodei:我认为,这可能比AI更广泛,可能与我们所处时代有关。历史上有些时代,有一种强大的技术或经济力量倾向于集中资源。我认为,19世纪可能也发生过同样事情,确保所有人都能共享利益很重要。 例如,AI与语言模型在发展中国家某些地区渗透得很少,比如撒哈拉以南非洲。我们如何将这些模型带到这些地区?我们如何帮助应对健康或教育等领域的挑战? 我完全同意我们生活在一个财富更加集中的时代,这是一个值得关注的领域,我们应该尽我们所能找到制衡力量。 尼古拉·唐根:这些公司现在变得比国家与政府更强大,这有什么风险? Dario Amodei:这就是我在监管方面所说的,AI是一项非常强大的技术,我们的民主政府需要介入、制定一些基本的规则,这需要按照正确的顺序进行。 这不能令人窒息,但需要做,我们已经到了权力集中的程度,可以大于国民经济与国家政府,我们不希望发生情况。 归根结底,全国人民与所有实体,包括在其中工作的公司,最终都必须对民主进程负责,没有其他办法。 尼古拉·唐根:AI会增加还是减少富国与穷国之间的差距? Dario Amodei:我认为,这取决于我们选择如何处理它。 尼古拉·唐根:你现在看待前进道路的方式? Dario Amodei:我们正在寻找方法来解决问题,这是否会发生还不确定,现在讨论技术如何部署为时过早。 我看到一些让我担心的事情,我们正在努力应对。如果你看看技术的自然应用,最热切的客户,往往是其他技术先进的硅谷公司,我们就是一家硅谷公司。 这种情况可能会形成一个闭环:一家AI公司为一家AI法律公司提供产品,这家公司又为一家AI生产力公司提供产品,最终这些产品又回到硅谷其他公司。这是一个封闭的生态系统,所有这些技术都被受教育程度最高的人使用,我们如何打破循环? 我们想了很多方法来打破循环。我谈论生物学与健康的原因之一是,我认为生物学与健康可以帮助我们打破循环。如果我们能很好分配健康方面创新,它们可以适用于每个人。我认为教育也可以在这方面有所帮助,另一个让我非常兴奋的领域是使用AI提供日常政府服务。 在美国,每次你与DMV、IRS与各种社会服务机构互动时,人们几乎总是会有不好的体验,这导致对政府角色的怀疑。如果我们能够使每个人都在使用政府服务现代化,以便它们能够真正满足世界各地人民需求,我会很高兴。 尼古拉·唐根:我认为在挪威,我们很幸运,我们人数不多,我们高度数字化。 Dario Amodei:你们在这方面可能比我们强得多。 尼古拉·唐根:我根据我在美国经历做出反应,我认为美国可能会更好。你觉得怎么样?10年后,贫富差距会变大还是变小? Dario Amodei:我只想说,如果我们以正确方式处理问题,我们可以缩小差距。 尼古拉·唐根:我明白你的意思。你觉得呢?你认为会发生什么? Dario Amodei:我不知道会发生什么,我知道如果我们对此不十分深思熟虑,不十分谨慎,差距会扩大。 尼古拉·唐根:谁会在AI上赚最多钱?是芯片制造商,还是我们,还是扩展者,还是所有消费者或公司? Dario Amodei:我回答是,我认为所有人都会分得一杯羹,蛋糕会很大,在某些方面甚至可能无关紧要。 就像现在,芯片公司赚得最多。我认为这是模型训练先于模型部署,模型部署先于收入。我认为芯片公司的估值是一个领先指标,AI公司估值可能是一个当前指标,下游很多地方的估值是一个滞后指标,但这股浪潮将影响到每个人。 尼古拉·唐根:当你查看NVIDIA的市值时,这是一个指标。你将其乘以多少,才能得出AI潜在影响? Dario Amodei:我认为,我不能在播客上提供有关芯片的股票建议。 尼古拉·唐根:那么是3万亿美元。 Dario Amodei:是的。 尼古拉·唐根:那为什么呢?这几乎是我们基金规模的2倍,我们基金是世界上最大的主权财富基金。 Dario Amodei:如果我再次考虑问题,从非常抽象与概念的角度说,这是由什么驱动的,可能是由预期需求驱动的。 人们正在构建非常大的AI集群,这些集群为NVIDIA带来大量收入。据推测,像我们这样的公司,正在为这些集群付费,他们认为他们用它们构建的模型将产生大量收入,这些收入尚未出现。 我们到目前为止看到的只是,人们想买很多芯片。这一切都有可能以失败告终,这是大势所趋。这些模型并没有那么强大,就像Anthropic这样的公司、以及该领域的其他公司没有像我们预期的那样表现良好,模型没有不断改进,这总是有可能发生。 我不这么认为,这不是我认为会发生的事情。我认为会发生的是,这些模型将产生大量收入,对芯片需求将会增加,NVIDIA价值将会上升,这家AI公司的价值将会上升。所有这些下游公司,这是我领导这家公司所押注的看涨情景。我不确定,可能会朝另一个方向发展,我认为没有人知道。 尼古拉·唐根:目前最大的制约因素在哪里?是芯片、人才,还是算法、电力? Dario Amodei:我们正在处理的最大瓶颈是数据,我们与其他公司正在努力开发合成数据,我认为瓶颈将会被打破。 尼古拉·唐根:为了说清楚,数据只是你输入到模型中训练它们的信息。 Dario Amodei:是的,输入到模型中的基础信息,我们在合成数据方面越来越擅长。 尼古拉·唐根:告诉我,什么是合成数据? Dario Amodei:我想举的例子是7年前,作为谷歌的一部分,DeepMind制作了AlphaGo模型,该模型能够击败围棋世界冠军。当时没有那个版本,或者有一个叫做AlphaGo Zero的版本,它没有在任何人类围棋选手身上进行训练,它所做的模型与自己对弈了很长时间,是永远。 只要有围棋的小规则,模型相互对弈,用规则相互竞争,它们就能变得越来越好,直到比任何人类都强。 你可以认为这些模型,是在围棋规则的逻辑结构帮助下,用其他模型创建的合成数据进行训练的,我认为语言模型也可以做类似的事情。 尼古拉·唐根:你认为AI将如何影响地缘政治? Dario Amodei:我认为这是很大的问题。 我观点是,如果我们AI系统在各种任务上都比最好的专业人士更好,军事与情报等任务将成为其中之一。 我们不应该天真,每个人都会尝试部署它们。我认为我们应该尽可能创造合作与约束,在很多情况下这是不可能的。 当这不可能的时候,我站在自由世界的民主国家一边。我想确保未来是民主的,世界上尽可能多的地方是民主的,民主国家在世界舞台上占据领先地位与优势。强大的AI加上威权统治的想法,让我感到害怕,我不希望情况发生。 尼古拉·唐根:每个国家都应该有自己的语言模型吗? Dario Amodei:是的。 尼古拉·唐根:挪威这样500万人的国家,应该建立一个语言模型吗? Dario Amodei:这真的取决于你的目标是什么。 国家安全角度看,每个国家都有语言模型可能是有意义的。我认为一个可能行得通的想法是,民主国家可以共同努力提供共同安全,相互保护,保护民主进程的完整性。也许让他们集中资源,制作出数量极少的大型语言模型是有意义的。去中心化也可能有价值,我对哪个更好没有强烈的意见。 尼古拉·唐根:美国控制AI,是国家安全问题吗?欧洲应该担心吗? Dario Amodei:每个国家都必须担心自己的安全,即使与盟友分开,我认为这更像是个别政府的问题。 我会认为,这可能是一个挑衅性的类比,有点像核武器。一些国家,即使是盟友,也觉得有必要拥有自己核武器,例如法国。 其他国家说,不,我们相信我们受到美国、英国、法国的保护。我认为这些更强大的模型,可能有些相似。我认为民主世界有多少这样的模型不重要,重要的是民主世界相对于威权政权处于强势地位。 尼古拉·唐根:你谈到合作与伙伴等,你们AI领域的人真的喜欢彼此吗? Dario Amodei:我们已经进行了许多合作。 我想在我刚加入OpenAI时,我推动最初的从人类反馈学习RL论文被认为是安全工作,这最终成为DeepMind与OpenAI之间的合作。 我们在像前沿模型论坛这样的组织里一起合作过。话虽如此,我会说实话。我不认为领域的每家公司,都像其他公司一样重视安全与责任问题。 尼古拉·唐根:是不是这些原因,你才对其他公司不热衷?是他们对安全与保障的看法吗?这是少数几个你甚至会考虑在笼子里打架的行业之一。 Dario Amodei:我不是粉丝,我不喜欢笼子里的打架,我不喜欢人与人之间的争斗。 尼古拉·唐根:我相信你做得很好,即使我怀疑这不是你的强项。 Dario Amodei:不,笼子里的打架不是我的强项。 我想说的是,我们不要互相指责,不要争吵,不要说人是坏人,人是好人,我们应该系统思考,回到争先恐后的想法,让我们制定标准。 我们不要指责做坏事的人,要做好事。很多时候,人们只是跟着做。我们发明了一个可解释性的想法。 就在几周前,我们推出可解释性的创新,能够看到模型内部。 几周后,我们从OpenAI那里得到类似的地方,我们看到其他公司内部增加了对它的优先级。 很多时候,你可以做一些好事,你可以激励别人做一些好事。现在,如果你做了很多这样的事,如果你制定了这些标准,如果它们是行业标准,有人不遵守,就出了问题,你就可以谈论指责。 尼古拉·唐根:让我们花几分钟谈谈文化。你在公司有多少人? Dario Amodei:几周前,我们员工人数约600人。我一直在度假,现在人数可能更多。 尼古拉·唐根:文化怎么样? Dario Amodei:我会描述一下文化的几个要素。 文化的一个要素是,我所说的做简单、有效的事。 Anthropic许多人都是前物理学家,我自己有背景,几个联合创始人也有背景,其中有一个人在共同创立Anthropic之前是物理学教授,物理学家寻求事物的简单解释。 我们文化的一个要素,是不要做过于复杂的事情。许多学术ML研究,往往会使事情过于复杂,我们追求尽可能简单、有效的事。 我们在工程方面有同样看法,我们甚至在安全与道德、可解释性、宪法AI方法等方面也有同样看法,它们都是非常简单的想法,我们只是尽力推动它们。 甚至是这场争夺榜首的比赛,你能用一两句话说出来,这并不复杂,你不需要写一百页纸来谈论它,这是一个简单的策略。 做好事,尝试鼓励其他人效仿。 尼古拉·唐根:当你在3年内雇用600人时,你怎么能确信他们是优秀的? Dario Amodei:我认为坦率说,AI行业的一个挑战是一切发展得太快。 在一家正常的初创公司,事情可能会每年增长1.5倍或2倍。我们认识到,在这个领域,事情发展如此之快,需要更快的增长,才能满足市场需求,这最终会导致比平常更快的增长。 我在谈话开始时,很担心这个问题。我说,我们遇到了这个困境。我们该如何处理它?到目前为止,我对我们能够如此出色处理这个问题感到很惊讶,我们能够很好扩展招聘流程。 我多么希望每个人都是技术人才、知识渊博、善良、富有同情心的人,我认为这与聘用技术人才同样重要。 尼古拉·唐根:你在寻找什么?我现在就坐在这里,你正在面试我,你在寻找什么? Dario Amodei:我们寻找的是愿意做简单、有效的事情的人,我们寻找的是人才。 一般说,我们不一定看重AI领域的多年经验。 比如,我们雇佣的许多人,都是物理学家或其他自然科学家,他们可能只从事AI一个月左右,他们只做过自己的项目。 我们寻找的是学习能力,我们寻找的是好奇心,能够迅速抓住问题核心的能力。 价值观方面,我们从公共利益角度进行思考,就像我们对Anthropic的正确政策或世界上应该做什么事情,有特别的看法一样。 我们希望在扩大公司规模时,保持精神。随着公司规模扩大,问题变得越来越困难,如何找到所有这些人才是一个挑战。 我们希望员工具有一定公共精神,一方面,他们明白Anthropic需要成为一个商业实体,需要足够接近中心才能产生影响。同时也要明白,长远看,我们目标是公共利益与社会影响。 尼古拉·唐根:当你雇佣员工时,你觉得你有无限的钱吗? Dario Amodei:我认为几乎所有开支都需要计算,我不会给出一个确切的数字,我认为,可以公开支持超过80%。 尼古拉·唐根:工资真的不重要吗? Dario Amodei:支付员工工资方面,我们更多考虑什么是公平,我们想做一些公平的事情,符合市场,善待人们。 我们不太考虑我们花了多少钱,计算是最大开支。更重要的是,我们如何才能创造一个让每个人都感到受到公平对待、同工同酬的地方? 尼古拉·唐根:现在,你可以与才华横溢的人才、天才,甚至一些自命不凡的人一起工作,管理或领导他们的最佳方式是什么? Dario Amodei:我认为他们是无法管理的。 尼古拉·唐根:你需要领导。 Dario Amodei:最重要的原则之一,让创造力发生。如果事情太自上而下,人们就很难充分发挥创造力。如果你看看过去10年,机器学习领域的许多重大创新,比如Transformer发明,谷歌没有人下令说这是一个项目,这只是分散的努力。 与此同时,你必须制造一种产品,每个人都必须共同努力,才能制造出一件产品。我认为,我们需要新想法,我们需要每个人都为一件事做出贡献,创造性张力、魔力所在。找到正确的组合,这样你就可以两全其美。 尼古拉·唐根:你与你妹妹一起经营这家公司。 Dario Amodei:我们都在OpenAI工作,我们一起创立Anthropic,这真的很棒。 真正的分工是,她负责日常经营公司大部分事情,管理人员,搞清楚公司结构,确保我们有首席财务官、首席产品官,确保薪酬设置合理,确保文化良好。 我更多考虑理念与策略方面,每隔几周,我会给公司做一次演讲,是一次愿景演讲,我会说,这是我们在战略上考虑的一些事情。这些不是决定,而是领导层正在思考的事情。 我们认为2025年会有什么大事?我们认为事情会如何发展?无论是商业方面、研究方面,还是公益方面。 尼古拉·唐根:她比你年轻还是年长? Dario Amodei:她比我小4岁。 尼古拉·唐根:她比你聪明吗? Dario Amodei:我们都在不同方面非常熟练。 尼古拉·唐根:你的父母是做什么的? Dario Amodei:我父亲去世了,他以前是工匠。我母亲退休了,她是公共图书馆的项目经理。 尼古拉·唐根:你是怎么长大的? Dario Amodei:我认为,社会责任与帮助世界非常受关注,这对我父母说是一件大事,他们真的思考过如何让事情变得更好。 生来就幸运的人,该如何体现自己的责任,将自己的责任传递给不幸运的人?你可以从公司的公益导向中看出这一点。 尼古拉·唐根:14岁的Dario,他在做什么? Dario Amodei:我真的很喜欢数学与科学,参加过数学竞赛等。我也在思考如何运用这些技能,来发明一些可以帮助人们的地方。 尼古拉·唐根:你有朋友吗? Dario Amodei:比我希望的要少,我有点内向,我当时认识的人,现在仍然认识。 尼古拉·唐根:Anthropic像《书呆子的复仇》吗? Dario Amodei:我不会真的这么说。 尼古拉·唐根:我认为这是一件好事,我喜欢那种地方。 Dario Amodei:我不会真的这么说,只是我不太愿意让不同的群体相互对立。不同类型的人,擅长不同事情。 我们有一个完整的销售团队,他们擅长的事情与我完全不同。作为CEO,我必须学习如何做一些销售,他们技能非常不同。 你会想到的一件事是,你会意识到在一家公司里,不同类型的人拥有非常不同技能,就像你认识到非常广泛技能的价值,包括你自己没有的技能。 尼古拉·唐根:现在是什么在驱动你? Dario Amodei:我认为我们正处于一个非常特殊的时代,就像AI世界一样。就像我所说的,2025年或2026年的事情可能会变得多么疯狂,我认为把这件事做好很重要。 经营Anthropic,这只是其中的一小部分,还有其他公司,其中一些比我们更大或更出名。 一方面,我们只扮演了一小部分角色。考虑到正在发生的事情,对经济、对人类的重要性,我认为我们有一个重要机会,确保这些事情进展顺利。事情的发展,可能存在很大差异,我认为我们有能力影响这一点。 我们必须日复一日发展业务,我们必须雇佣员工,必须销售产品。我认为这很重要,做好这件事很重要,这样公司才能保持相关性。 我认为长远看,驱动我前进的,或者至少我希望驱动我前进的,是想要抓住一些变化,把事情推向好的方向。 尼古拉·唐根:你如何放松? Dario Amodei:我现在在挪威。 尼古拉·唐根:这并不放松。 Dario Amodei:这不是放松,我从意大利度假来到这里。每年我都会休息几周,来放松一下,思考更深层次的概念。 我每天都去游泳,我与我妹妹仍然在玩电子游戏,我们从高中开始就这样做。 现在,我已经40多岁了。我们最近得到新的《最终幻想》游戏,我们在高中时就玩《最终幻想》,那是90年代制作的游戏。 最近,他们对它进行重制,我们开始玩新版本。新版本拥有20年来GPU进步,所带来的各种精美图形。我们自己也注意到,这就像我们高中时经常做的那样。现在我们经营着这家公司。 尼古拉·唐根:我很高兴听到有些人永远长不大。 Dario Amodei:我不认为我们在某些方面已经长大,希望我们在其他方面已经长大。尼古拉·唐根:我们总是以一个问题来结束这些播客,你对年轻人有什么建议? Dario Amodei:我建议熟悉这些新的AI技术,我不会提供一些陈词滥调,确切知道哪些工作会流行,哪些不会。 我想我们不知道,我们不知道AI是否会触及每个领域。可以说,人类在使用这些技术、与它们合作、了解它们,以及由此引发的公开辩论方面,将发挥一定作用。 我想说的另一件事,是对信息的怀疑态度。随着AI产生越来越多信息与内容,辨别这些信息将变得越来越重要,越来越必要。 我希望我们能拥有AI系统,帮助我们筛选一切,帮助我们了解世界,这样我们就不会容易受到攻击。 归根结底,这必须来自你,你必须有一些基本的欲望、一些基本的好奇心、一些基本的辨别力,我认为发展这些很重要。 尼古拉·唐根:这真是太棒了,非常好的建议。非常感谢你邀请我参加播客。祝你一切顺利,回到意大利,多休息一下,多做一些深入的概念思考。来源:六合商业研选版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]。微信扫码关注该文公众号作者戳这里提交新闻线索和高质量文章给我们。来源: qq点击查看作者最近其他文章