Redian新闻
>
扎克伯格最新采访:Meta最强开源模型Llama 3凭什么值百亿美金

扎克伯格最新采访:Meta最强开源模型Llama 3凭什么值百亿美金

公众号新闻

自研芯片将训练大模型,AI终将能够理解并表达情感。


编译:金鹿

来源:腾讯科技(ID:qqtech)


4月19日消息,据国外媒体报道,美国当地时间周四,Facebook母公司Meta重磅推出了其迄今最强大的开源人工智能(AI)模型——Llama 3,意图在激烈的行业竞争中追赶领先者OpenAI。此次发布的Llama 3模型,包括80亿和700亿参数的两个版本,而未来还将推出超过4000亿参数的顶配版,凸显了Meta在AI领域的雄心壮志。
据悉,Llama 3在多项行业基准测试中表现出卓越的性能,并新增了诸多功能,如改进的推理能力等。Meta计划将Llama 3深度整合到其虚拟助手Meta AI中,这款助手已广泛应用于Facebook、Instagram、WhatsApp和Messenger等热门应用,并即将迎来新一轮的更新,为用户带来更加智能、便捷的体验。
此外,Meta还宣布Llama 3将很快在亚马逊AWS、谷歌云、IBM的云平台WatsonX、微软云Azure和英伟达的NIM等平台上推出,并得到了AMD、戴尔、英特尔、英伟达等硬件巨头的支持。这一系列的合作与整合,无疑将进一步加速Llama 3在全球范围内的普及和应用。
在Meta发布Llama 3的重要时刻,该公司首席执行官马克·扎克伯格(Mark Zuckerberg)接受了知名科技播客主持人达瓦克什·帕特尔(Dwarkesh Patel)的专访。他们围绕Llama 3、通用人工智能(AGI)、能源瓶颈问题、人工智能技术的战略意义、开源的潜在风险、元宇宙(Metaverse)等话题展开了深入的探讨。同时,扎克伯格还分享了开源100亿美元模型和定制芯片源代码的决策过程。
以下为此次专访实录:

01

Llama 3顶配版正在训练中


帕特尔:马克,非常荣幸能够邀请你来到我们的播客节目。
扎克伯格:感谢你的邀请,帕特尔。很高兴能来,我一直都很喜欢你们的播客节目。
帕特尔:太好了,谢谢!现在,让我们先来聊聊Llama 3吧!请给我分享一些关于这个最新大模型和Meta AI的亮点和激动人心的新进展。
扎克伯格:我想大多数人可能更关注Meta AI的新版本,但实际上,我们在模型升级方面所做的努力才是重中之重。我们正在推出Llama 3。我们既将其作为开源项目提供给开发者社区,也将用它来支持Meta AI。关于Llama 3,我相信我们会有很多有趣的话题要聊。但我认为,最重要的是,现在我们相信Meta AI是最智能、最自由可用的AI助手,人们可以随时随地使用它。
此外,我们还整合了谷歌和必应的实时知识,让AI助手能够提供更准确、更全面的信息。我们计划让它在我们的应用中变得更加显眼,比如在Facebook和Messenger的顶部,你将能够直接使用搜索框来提出任何问题。除了这些,我们还增加了一些全新的创作功能,我认为这些功能非常酷,相信大家一定会喜欢。
尤其是动画功能,你可以轻松地将任何图片制作成动画,这非常有趣。这里有一个令人惊奇的功能,就是它能够在你打字的同时,实时生成并更新高质量图像。你只需要输入查询内容,比如“给我展示一张在田野里吃夏威夷果、喝啤酒的场景,背景里有奶牛、有山”,它就会根据你的输入实时更新图像,这种体验简直太神奇了。我相信大家会喜欢这个功能。
这就是大多数人将会看到的一些明显变化。我们正在逐步推出这些新功能,虽然目前还不是全球范围内都可用,但我们会先从一些国家开始,并在接下来的几周和几个月内逐步扩大范围。
我认为这将是一个非常大的突破,我很高兴能让大家体验到它。但如果你想要深入了解的话,Llama 3无疑是我们最具技术趣味性的部分。我们正在训练三个不同规模的Llama 3模型,包括80亿参数、700亿参数以及4050亿参数版本。
目前,前两个版本已经准备就绪,而最大规模的模型仍在训练中。虽然今天我们不能立即发布4050亿参数的版本,但我对80亿和700亿参数模型的表现充满信心。它们在各自的规模上均处于行业领先地位,我们也将通过博客文章详细公布它们的基准测试结果,让大家能够深入了解它们的性能。
当然,Llama 3是开源的,这意味着开发者们将有机会亲自尝试并探索它的潜力。我们还有一系列精心规划的发布路线图,将带来多模态、更多语言支持以及更长的上下文窗口(Context Window,是指语言模型在生成文本时,所考虑的文本片段的大小范围)等功能。预计在今年晚些时候,我们将推出那款令人期待的4050亿参数版本。根据目前的训练进展,它的MMLU(跨模态学习理解)得分已经接近85,我们预期它将在众多基准测试中展现出卓越的性能。
至于700亿参数的模型,它同样表现出色。今天我们正式发布它,它的MMLU得分约为82,并在数学和推理方面取得了不俗的成绩。我相信,让用户能够体验到这款模型将会非常有趣和有意义。
我想强调的是,即使是80亿参数的模型,其性能也几乎与我们之前发布的Llama-2版本相媲美。这意味着,即使是“最小”的Llama-3,在功能上也几乎与“最大”的Llama-2一样强大。
帕特尔:在我们深入剖析这些模型之前,我想回溯一下历史。我记得,在2022年,Meta面临着股价的大幅下滑,当时人们对你们采购英伟达H100芯片的大笔投资充满了疑惑。元宇宙的概念并未得到市场的广泛认可,我猜想,你那时投资H100的决策,是出于何种考量呢?你是如何预知到这些GPU的需求的?
扎克伯格:我想,当时我们正处于Reels项目的开发阶段。我们始终坚信,要预留足够的容量来应对那些尚未预见到的创新,而Reels项目正是一个这样的例子。我们发现,为了训练模型,我们需要更多的GPU。这是一个巨大的转变,因为我们的服务不再仅仅基于你所关注的人或页面来排列内容,而是开始大力推荐所谓的“未连接内容”——那些来自你未关注的人或页面的内容。
因此,我们可能展示的内容候选集已经从数千个激增到了数亿个。这自然需要一个全新的基础设施来支撑。我们已经在构建这样的基础设施,但在追赶TikTok的步伐时,我们遇到了瓶颈,无法迅速达到我们的期望。看到这种情况,我意识到:“我们必须确保自己不再陷入这种被动局面。所以,我们不仅订购了足够完成Reels和内容排序工作的GPU,而且订购量还翻了一番。”我们始终坚守的原则是,未来总会有我们无法预见的新事物出现,我们必须为此做好准备。
帕特尔:你知道那会是人工智能吗?
扎克伯格:我们原本以为这应该与训练大模型有关。但随后我意识到,它与内容推荐更为紧密相关。经营公司,就像打游戏,总有新的挑战出现。当时,我全身心投入Reels和其他内容推荐功能的开发中,希望它们能发挥巨大作用。如今,Instagram和Facebook能够向用户展示他们感兴趣的内容,即使这些内容来自他们未曾关注的人,这无疑是一个巨大的飞跃。回顾过去,那个决定无疑是明智的,它源于我们曾经落后的教训。这并不是说我们曾经“遥遥领先”过,实际上,很多决定之所以现在看来正确,是因为我们曾犯过错误,并从中汲取了教训。
帕特尔:2006年,你拒绝了10亿美元的收购提议,但我想,应该有一个价格,你会考虑出售Facebook,对吧?你心中有没有一个估值,觉得“这才是Facebook真正的价值,而他们并没有给出这个价钱?” 我知道,如果给你开出5万亿美元,你肯定会欣然接受。那么,你如何看待这个决定,是基于怎样的考量呢?
扎克伯格:我认为,这主要是个人选择的问题。回首当年,我并不确定自己是否已经足够成熟来做出这样的决策。周围有很多人都在讨论10亿美元的价格,他们基于各种理由进行分析,比如预期的收入和规模。但这些都远远超出了我们当时所处的阶段。说实话,我当时并没有足够的财务知识来参与这样的讨论,但我内心深处对我们所做的事情有着坚定的信念。
我也做过一些简单的分析,比如“如果我不做这个,我会去做什么?其实,我很喜欢创造新东西,喜欢帮助人们进行沟通,喜欢了解人们的动态以及人与人之间的互动。所以,我想,如果我卖了公司,我可能又会去创造另一个类似的公司,而且我还挺满意现在这个公司的。那么,为什么要卖呢?”我认为,人们做出的很多重大决定,其实都是基于我们的信念和价值观。实际上,通过分析来准确预测未来是非常困难的。

02

通往AGI之路


帕特尔:Facebook人工智能研究所(FAIR)历经了漫长的岁月,如今它似乎已深深嵌入到你们公司的核心之中。我想请教一下,在何时,构建通用人工智能(AGI)或你们所追求的那个宏伟目标,成为了Meta的首要任务?
扎克伯格:其实,这个转变已经悄然发生了一段时间。大约在10年前,我们创立了FAIR。当时的初衷是,在迈向通用人工智能或其他类似目标的道路上,会有许多创新涌现,而这些创新将不断推动我们各项业务的进步。因此,我们并没有将FAIR作为一个独立的产品来构思,而是作为一个研究团队来组建。在过去的10年里,FAIR创造了许多独特的成果,为我们的所有产品带来了显著的改进。它推动了多个领域的发展,并为这些领域内的其他创新者提供了灵感,它也因此创造出了更多改进我们产品的技术。这让我感到非常振奋。
近年来,随着ChatGPT的崛起以及图像创作领域扩散模型的涌现,我们明显感受到了一股巨大的变革之风。这些新技术令人叹为观止,它们将深刻影响人们与各个应用的交互方式。因此,我们决定组建第二个团队——通用人工智能团队,旨在将这些前沿技术融入我们的产品中,并构建能够支撑所有不同产品的领先基础模型。
当我们开始这一探索时,我们最初的想法是,我们所做的很多事情都具有很强的社交属性。它帮助人们与创作者互动,帮助人们与企业沟通,也帮助企业销售产品或提供客户服务。此外,它还可以作为智能助手,集成到我们的应用中、智能眼镜以及虚拟现实中。因此,我们起初并不完全确定是否需要一个完整的通用人工智能来支持这些用例。然而,随着我们在这些细微之处深入工作,我逐渐意识到,实际上通用人工智能的支持是必不可少的。例如,在开发Llama-2时,我们并没有优先考虑编码功能,因为人们并不会在WhatsApp上向Meta AI提出大量的编码问题。
帕特尔:现在他们会吗?
扎克伯格:我不知道,也不确定WhatsApp、Facebook或Instagram是否会成为用户提出大量编码问题的界面。或许是在我们即将上线的Meta.AI网站上,编码问题会更为普遍。然而,过去18个月里,我们惊讶地发现,编码实际上在众多领域中都扮演着至关重要的角色,而不仅仅局限于编程行业。即使用户并未直接提出编码相关的问题,对模型进行编码训练也有助于它们更为精确地回答问题,并在不同领域的推理中展现出卓越的能力。以Llama-3为例,我们专注于通过大量的编码训练来优化它,因为这将使其在各个方面都表现出色,即便用户的主要关注点并非编码问题。
推理能力则是另一个绝佳的例证。设想一下,当你与创作者交流,或作为企业试图与客户互动时,这种互动远非简单的“你发信息,我回复”模式。它涉及一个多步骤、深层次的思考过程,需要我们思考“如何更好地实现这个人的目标?”很多时候,客户并不清楚自己真正需要什么,或如何准确地提出问题。因此,仅仅回答问题并非人工智能的全部工作。我们需要更全面、更深入地思考,这实际上已转化为一个推理问题。如果某个团队在推理方面取得了重大突破,而我们仍停留在基础的聊天机器人阶段,那么我们的产品与其他团队所构建的产品相比,将显得黯然失色。最终,我们意识到,为了保持领先,我们必须全力解决通用智能问题,因此我们加大了赌注和投资,以确保能够取得这一突破。
帕特尔:那么,能够解决所有这些用户用例的Llama版本,是否足够强大到可以替代这座大楼里所有程序员的水平呢?
扎克伯格:我认为,随着时间的推移,这些技术将逐步成熟并展现出巨大的潜力。然而,关于Llama-10或未来的版本是否能完全取代程序员,这是一个复杂的问题。我并不认为我们是在试图取代人类,而是希望通过这些工具,赋予人们更强大的能力,让他们能够完成更多以前难以想象的工作。
帕特尔:假设我们的程序员未来在使用Llama-10后,他们的工作效率会提升10倍吗?
扎克伯格:我对此抱有极高的期望。我深信,人类的智能并非只由单一标准来衡量,因为每个人都拥有独特的技能和才华。在某个时刻,人工智能可能会在某些方面超越大多数人类的能力,但这完全取决于模型的强大程度。然而,我认为这是一个逐步演进的过程,通用人工智能并非一蹴而就的事情。我们其实是在逐步为模型增加不同的能力。
目前,多模态是我们重点关注的领域,从最初的照片、图像和文本,未来还将涉及到视频。鉴于我们对元宇宙的浓厚兴趣,3D技术也显得尤为重要。此外,我特别关注的一个模态是情感理解,这是我在行业中鲜少看到其他团队深入研究的领域。毕竟,人类大脑的大部分功能都致力于理解他人、解读表情和情感。我坚信,如果我们能够在这方面取得突破,使人工智能能够真正理解并表达情感,那么人与机器之间的互动将会变得前所未有的自然和深入。
你可能会认为这仅仅是视频或图像的范畴,但实际上,它们是人类情感表达非常专业的一个版本。因此,除了提升模型在推理和记忆方面的能力外,我们还需要关注许多其他不同的能力。我相信,在未来,我们不会仅仅满足于将问题输入一个查询窗口来寻求答案。我们将会有不同的记忆存储方式或定制模型,这些模型将更加个性化地服务于人们。这些都是人工智能所需发展的不同能力。当然,我们还需要解决模型的大小问题。我们既关心大型模型,也关心如何在有限的空间内运行小型模型。例如,如果你正在运行类似Meta AI这样的大型服务,那么它主要依赖于服务器端的强大计算能力。然而,我们也期待这些先进的技术能够融入小巧的设备中,比如智能眼镜。由于智能眼镜的空间非常有限,因此我们需要开发一种高效且轻量级的解决方案来适应这一环境。
帕特尔:假设我们投入100亿美元,甚至最终高达1000亿美元,用于在工业规模上实施智能推理,那么这些资金将用于哪些具体用例呢?是模拟技术吗?还是元宇宙中的人工智能应用?我们该如何有效利用数据中心来支持这些用例?
扎克伯格:根据我们的预测,智能推理将深刻改变几乎所有的产品形态。我认为,未来我们将看到一种Meta AI通用助手产品的出现。这种产品将从传统的聊天机器人逐渐演变而来,从简单地回答问题,发展到能够接收并执行更复杂的任务。这将需要大量的推理能力,同时也将引发对计算能力的巨大需求。
此外,与其他智能主体(Agent,是指人工智能系统所具备的智能能力和行为表现,包括感知、认知、推理、决策和行动等方面,从而在人机交互的环境中担任主导角色,实现与人类的智能互动)的互动,也将成为我们工作的重要部分,无论是为企业还是创作者服务。我认为,人类不会只与一个通用的人工智能互动,每个企业都将希望拥有代表其利益的人工智能。这些人工智能不会主要用来销售竞争对手的产品,而是通过独特的方式与企业、创作者和消费者互动。
特别值得一提的是,创作者将成为受益于此项技术的重要群体。我们平台上拥有约2亿创作者,他们普遍觉得每天的时间不够用,而他们的社区又渴望与他们互动。如果我们能够开发出一种技术,让创作者能够训练自己的人工智能,并借助它与社区保持互动,那将是非常强大的功能。
这些只是消费者用例的一部分。以我和我的妻子经营的陈-扎克伯格基金会为例,我们正在科学领域开展许多工作,而人工智能无疑将在推动科学、医疗保健等领域的进步中发挥关键作用。最终,智能推理将影响几乎每一个产品和经济领域。
帕特尔:你提及了能够执行多步骤任务的人工智能,这不禁让我好奇,这是否意味着我们需要一个更庞大的模型来实现这一功能?比如,对于Llama-4,我们是否需要一个拥有700亿参数的版本,仅需在正确的数据上进行训练,它就能展现出惊人的能力?目前,我们的进展主要表现在哪些方面?是模型规模的扩大吗?还是如您之前所说,是保持模型大小不变,但功能和应用场景更加多样化?
扎克伯格:关于这个问题,我们目前可能还没有明确的答案。但我观察到的一个明显趋势是,我们有一个基础的Llama模型,然后围绕它构建一些特定于应用程序的代码。这些代码有些是针对特定用例的微调,但也有一些是关于如何让Meta AI与谷歌、必应等工具协作以获取实时知识的逻辑,这些并不是Llama基础模型的一部分。在Llama-2的开发过程中,我们尝试将一些这样的功能融入模型,但更多是通过手工的方式。对于Llama-3,我们设定了一个目标,那就是将更多的此类功能内嵌到模型本身中。当我们开始探索更多类似智能主体的行为时,我认为其中一些功能仍然需要通过手工方式进行优化。而对于Llama-4,我们的目标是将更多的这些功能自然而然地融入模型中。
在每一步的进展中,你都能感受到未来可能的发展方向。我们开始尝试各种可能性,围绕模型进行各种实验。这有助于我们更深入地理解,哪些功能应该被纳入下一个版本的模型中。这样,我们的模型就能变得更加通用,因为显然,任何通过手工编码实现的功能虽然可以解锁一些用例,但在本质上都是脆弱且不够通用的。我们的目标是让模型能够自我学习、自我进化,以适应各种复杂多变的场景。
帕特尔:你提到的“将更多内容纳入模型本身”,能否具体解释一下,您是如何通过训练将这些期望的功能融入模型中的?你所说的“纳入模型本身”具体指的是什么?
扎克伯格:以Llama-2为例,它的工具使用功能相对具体和有限。而到了Llama-3,我们欣喜地发现其工具使用能力得到了显著提升。现在,我们不必再手动编码所有内容来使其能够使用谷歌进行搜索,它已经能够独立完成这些任务。同样,在编程、运行代码以及其他一系列任务上,Llama-3也展现出了出色的能力。一旦我们获得了这种能力,就可以预见我们接下来可以开始探索哪些新的可能性。我们不必等到Llama-4的出现才开始构建这些能力,因此我们可以提前围绕它进行各种尝试和实验。虽然这些手工编码的过程可能会使产品暂时变得更好,但它也为我们指明了在下一个版本的模型中应该构建哪些内容的方向。
帕特尔:在开源社区对Llama-3进行的微调中,你最期待看到哪些用例?也许不是对你最有实用价值的那个,而是你最感兴趣、最想尝试的那个。比如,我听说有人对古代历史方面进行了微调,使得我们可以直接与古罗马诗人维吉尔(Virgil)等历史人物进行对话。
扎克伯格:我认为这类事物的魅力就在于它总能带给我们惊喜。任何我们认为有价值的特定应用案例,都有可能去尝试构建。我相信我们会看到更多精简版本的模型出现。我也期待看到一个参数更少、更轻量级的模型,比如一个只有10亿到20亿参数的模型,甚至是一个5亿参数的模型,看看它们能带来哪些有趣且高效的应用。如果一个80亿参数的模型几乎与最大的Llama-2模型一样强大,那么一个10亿参数的模型应该也能在某些领域展现出其独特的价值。它们可以用于分类任务,或者用于在人们理解用户查询意图并将其传递给更强大的模型进行精确处理之前的预处理工作。我认为这将是社区可以发挥巨大作用的一个领域,帮助我们填补这些模型在应用上的空白。当然,我们也在考虑对这些模型进行精简和优化,但目前我们的所有GPU资源都主要用于训练4050亿参数的模型。
帕特尔:你之前提到的GPU数量,我记得你说年底前会达到35万个。
扎克伯格:对,那是我们的总目标。目前,我们已经建立了两个大型的GPU集群,每个集群拥有约22000到24000个GPU,它们主要用于训练大型的模型。当然,这些集群还承担着我们公司其他许多重要的训练任务,比如Reels模型、Facebook新闻推送和Instagram推送的训练等。推理对我们来说确实是一个巨大的挑战,因为我们需要为庞大的用户群体提供服务。与其他从事类似工作的公司相比,我们所需的推理计算与训练计算的比例可能要高得多,这主要是因为我们所服务的社区规模极其庞大。
帕特尔:我注意到,在你们之前分享的材料中,有一个非常引人注目的点,那就是你们在训练模型时使用的数据量实际上超过了仅用于训练时的计算最优数据量。考虑到推理对你们和整个社区的重要性,拥有一个包含数万亿个token的模型确实非常有意义。
扎克伯格:关于700亿参数的模型,我们观察到一个有趣的现象。原本以为随着数据量的增加,模型的性能提升会逐渐趋于饱和。然而,我们训练了大约15万亿个token后,发现模型仍然在不断学习。即使在训练的最后阶段,它仍然展现出了强大的学习能力。我们或许还可以继续给它输入更多的token,以进一步提高其性能。
但作为公司的经营者,我们需要在某个时刻做出决策:是否应该继续将GPU资源用于进一步训练这个700亿参数的模型?还是应该转向其他方向,比如开始为Llama-4测试新的假设?我们需要在这两者之间找到平衡。目前,我认为我们在这个版本的700亿参数模型上已经取得了不错的平衡。当然,未来我们还会推出其他版本,比如700亿参数的多模态版本,这将在接下来的一段时间内与大家见面。但有一点非常令人着迷,那就是目前的模型架构竟然能够容纳如此庞大的数据量。

03

能源瓶颈


帕特尔:这确实引人深思。那么,对于未来的模型来说,这意味着什么呢?你之前提及Llama-3的80亿参数版本在某些方面甚至超越了700亿参数的Llama-2。
扎克伯格:不、不,我可不想夸大其词。它们的表现其实相当接近,数量级上非常相似。
帕特尔:那么,我们是否可以期待Llama-4的700亿参数版本能够与Llama-3的4050亿参数版本相媲美呢?未来的发展趋势又会是怎样的呢?
扎克伯格:这确实是一个大问题。说实话,没人能确切预测。世界上最难预测的事情之一就是指数级增长的趋势。它会持续多久?我坚信,我们将会继续向前迈进。我认为,投入100亿美元,甚至1000亿美元以上来建设基础设施是非常值得的。假设这种增长趋势能够持续,我们将会得到一些真正令人震撼的成果,从而打造出令人惊叹的产品。但业内没有人能确切地告诉你,它一定会以那个速度继续扩展。从历史上看,我们总会在某个时刻遇到发展的瓶颈。但如今,人们对这个领域寄予了极高的期望,或许这些瓶颈会很快被克服。这确实是一个值得我们深入思考的问题。
帕特尔:假设没有这些瓶颈,世界会呈现怎样的面貌呢?尽管这似乎不太可能,但如果技术进步真的能够继续以这种速度发展下去呢?
扎克伯格:无论如何,总会有新的挑战和瓶颈出现。在过去的几年里,GPU的生产就是一个明显的问题。即使有钱购买GPU的公司,也往往难以获得所需的数量,因为供应受到限制。但这种情况似乎正在逐步改善。如今,我们看到越来越多的公司正在考虑投入巨资来建设生产GPU的基础设施。我认为这种情况还会持续一段时间。
此外,资本投入也是一个需要考虑的问题。在什么时候,投入更多的资本就不再具有性价比了呢?实际上,我认为在我们遇到资本投入问题之前,能源问题会率先显现。据我所知,目前还没有人能够建造出一个千兆瓦特的单一训练集群。我们会遇到一些在全球范围内都会变得日益困难的事情,比如获取能源许可。这不仅仅是一个软件问题,它涉及到政府的严格监管,我认为这比我们许多技术界人士所感受到的还要严格。当然,如果你是从小公司起步的,可能这种感觉并不那么强烈。但当我们与不同的政府部门和监管机构打交道时,我们需要遵守大量的规则,并确保我们在全球范围内都做得合规。但毫无疑问,能源方面将是我们面临的一个主要限制。
如果你谈论的是建造大型新发电厂或大型建筑,并需要跨越其他私有或公有土地来建设输电线路,那么这将是一个受到严格监管的项目。你需要考虑的是多年的前置时间。如果我们想要建立一个庞大的设施,为其提供动力将是一个长期而复杂的项目。我相信人们会努力去实现这一目标,但我不认为这会像达到某种人工智能水平、获得大量资本并投入其中那样简单和神奇,然后突然之间模型就会有飞跃式的进步。
帕特尔:在推动人工智能发展的道路上,我们是否会遇到一些连Meta这样的公司都无法独自克服的瓶颈?是否存在某些项目,即使是像Meta这样的公司也没有足够的资源去完成?即使你们的研发预算或资本支出预算增加10倍,仍然无法实施?这是否是你心中所想,但鉴于目前的Meta,你们甚至无法通过发行股票或债券来筹集足够的资金?
扎克伯格:能源问题无疑是其中的一大挑战。我坚信,如果我们能够解决能源供应的问题,我们完全有可能建造出比现在规模更大的算力集群。
特尔:那么,这从根本上来说是资金瓶颈的限制吗?
扎克伯格:资金确实是其中一个方面,但我认为时间也是一个不可忽视的因素。目前,许多数据中心的规模大约在50兆瓦到100兆瓦之间,大型的可能会达到150兆瓦。假设你拥有一个完整的数据中心,并配备了所有必要的训练设备,你建造了目前技术允许的最大集群。我认为很多公司都已经接近或达到了这样的水平。但是,当我们谈论建造300兆瓦、500兆瓦甚至1吉瓦的数据中心时,情况就完全不同了。目前,还没有人尝试过建造1吉瓦的数据中心。我相信这将成为可能,只是需要时间的积累。然而,这不会发生在明年,因为其中涉及的许多事情需要数年时间来完成。从这个角度来看,我认为一个1吉瓦规模的数据中心将需要一个相当于核电站的能源供应来支持模型训练。
帕特尔:亚马逊是否已经在这方面有所尝试?他们似乎有一个950兆瓦的设施。
扎克伯格:关于亚马逊的具体做法,我并不是非常了解,你可能需要直接向他们询问。
帕特尔:训练不一定非得局限在单一地点,对吧?如果分布式训练是有效的,那么其实我们可以考虑将它分散到多个地方进行。
扎克伯格:我认为这是一个非常重要的问题,关乎于未来训练大型模型的方式。从目前的发展趋势来看,通过推理生成合成数据,再将这些数据用于模型的训练,似乎是一个很有潜力的方向。虽然目前我还不清楚这种合成数据与直接训练之间的比例会是多少,但我相信合成数据的生成在某种程度上已经越来越接近推理的过程。显然,如果这种方式被用于训练模型,那么它将成为整个训练流程中不可或缺的一部分。
帕特尔:所以,这仍然是一个悬而未决的问题,关于如何找到这种平衡,以及它未来的发展方向。那么,这种趋势有可能在Llama-3,甚至Llama-4及以后的版本上实现吗?也就是说,如果你们发布了模型,那些拥有强大计算能力的实体,比如科威特或阿联酋,他们就可以利用这类模型,使某些应用变得更加智能。
扎克伯格:我完全同意这种可能性。确实,我认为将来会有这样的动态发展。但同时,我也认为模型架构本身存在某些根本的局限性。以Llama-3为例,尽管我们已经取得了显著的进步,但我相信其架构仍有进一步优化的空间。正如我之前所说,我们感觉通过提供更多的数据或者进行某些关键步骤的迭代,模型的性能还可以继续提升。
事实上,我们已经看到许多公司基于Llama-2的700亿参数模型架构构建出了新的模型。然而,对于像Llama-3的700亿或4050亿参数这样的模型,要进行代际改进并非易事,目前还没有类似的开源模型出现。我认为这是一个巨大的挑战,但也是一个巨大的机遇。然而,我仍然认为,基于现有的模型架构,人们能够构建出的东西并不是无限可扩展的。在达到下一个技术飞跃之前,我们可能只能在现有基础上进行一些优化和改进。

04

AI会在一夜之间失控吗?

帕特尔:下面让我们从更宏观的角度来看,你认为未来几十年人工智能技术将如何发展?它是否会让你觉得像另一种技术,比如元宇宙或社交技术,还是你觉得它在人类历史上具有根本性的不同?

扎克伯格:我认为人工智能将会是非常基础性的技术。它更像计算机的发明,将催生一系列全新的应用。就像网络或手机的出现,使得许多以前不可能的事情变得可能,人们开始重新思考这些体验。因此,我认为人工智能将会带来类似的变革,但它是一种更深层次的创新。我的感觉是,它就像是从没有计算机到有计算机的转变。然而,要准确预测它究竟会如何发展,确实很难。从更长的宇宙时间跨度来看,这一变革将会很快发生,可能就在几十年内。有些人确实担心它会迅速失控,一夜之间从某种程度的智能变得极其智能。但我认为,由于存在许多物理限制,这种情况不太可能发生。我并不认为我们会一夜之间面临人工智能失控的局面。我相信我们将有足够的时间去适应。但人工智能将真正改变我们的工作方式,为人们提供创新的工具去做不同的事情。它将使人们能够更自由地追求他们真正想做的事情。
帕特尔:也许不是一夜之间,但从宇宙时间的角度来看,你认为我们可以这样看待这些里程碑吗?人类进化了,然后人工智能出现了,接着它们可能走向银河系。这可能需要几十年,也可能需要一个世纪,但这是你眼中正在发生的宏伟计划吗?我指的是像计算机甚至是火这样的其他技术,但人工智能本身的发展是否与人类最初的进化一样重要?
扎克伯格:我认为这很难判断。人类的历史基本上是一部逐渐认识到我们在某些方面并不独特,但同时又意识到人类仍然非常特别的历程。我们曾认为地球是宇宙的中心,但事实并非如此,然而人类依然保持着非凡的特质,对吧?我认为人们经常存在另一种偏见,即认为智能与生命在某种程度上有着紧密的联系,但事实并非如此。我们还没有对意识或生命有足够清晰的定义来全面理解这个问题。有很多科幻小说描述了智能生命的创造,这些智能开始展现出各种人类般的行为等。但目前的趋势似乎表明,智能可以相当独立于意识、能动性和其他特质存在,这使得它成为一个非常有价值的工具。

05

开源的危险


扎克伯格:预测这些事物随时间发展的方向极具挑战性,因此,我认为任何人都应避免以教条的方式规划它们的开发或用途。每次发布新产品时,我们都需要重新评估。我们非常支持开源,但并不意味着我们会公开所有成果。我倾向于认为,开源对社区和我们自身都是有益的,因为这将促进创新。然而,如果某个时刻,这些技术的能力发生了质的变化,而我们觉得开源是不负责任的,那么我们会选择不公开。这一切都充满了不确定性。
帕特尔:当你们研发Llama-4或Llama-5时,有没有可能出现某种具体的质的变化,让你们考虑是否应该开源?
扎克伯格:这个问题很难从抽象的角度来回答,因为任何产品都可能存在潜在风险,关键在于我们如何有效地管理和缓解这些风险。在Llama-2中,我们已经面临了一些挑战,并投入了大量资源来确保它不会被用于不良目的,如暴力行为等。这并不意味着它已经成了智能主体,只是因为它拥有大量有关世界的知识,能够回答一系列可能带来风险的问题。因此,我认为问题在于如何识别并缓解其潜在的不良行为,而非行为本身。
在我看来,评估事物的好坏涉及多个维度,很难事先列举所有可能性。以社交媒体为例,我们已经处理了多种类型的危害行为,并将它们分为18或19个类别。我们建立了人工智能系统来识别这些行为,以减少它们在我们平台上的发生。随着时间的推移,我相信我们会进一步细化这些分类。这是我们一直在努力研究的问题,因为我们希望确保对此有深入的理解。
帕特尔:我认为广泛部署人工智能系统,让每个人都有机会使用它们是非常重要的。如果未来的人工智能系统没有得到广泛应用,我会感到失望。同时,我也希望更深入地了解如何缓解潜在风险。如果缓解措施主要是微调,那么开放模型权重的好处在于,人们可以基于这些能力进行更深入的调整。目前,这些模型还远未达到那个水平,更像是高级搜索引擎。但如果我能向它们展示我的培养皿,并让它们解释为什么我的天花样本没有生长以及如何改进,那么在这种情况下,如何确保安全和有效地使用这些模型呢?毕竟,有人可能会对这些模型进行微调以满足自己的需求。
扎克伯格:确实,这是一个复杂的问题。我认为,大多数人会选择直接使用现成的模型,但也有一些心怀不轨的人可能会试图利用这些模型进行不良行为。因此,这个问题确实值得我们深思。从哲学角度来看,我之所以如此支持开源,是因为我认为未来如果人工智能过度集中化,其潜在风险可能不亚于它的广泛传播。许多人都在思考:“如果我们能够做到这些,那么这些技术在社会上的广泛应用是否会成为坏事?”同时,另一个值得思考的问题是,如果一个机构拥有比其他所有人更强大的人工智能,这是否也是一件坏事?
我可以用安全领域的一个类比来解释。想象一下,如果你能够提前了解并利用某些安全漏洞,那么你几乎可以轻松地入侵任何系统。这并不仅仅局限于人工智能领域。因此,我们不能单纯依赖一个高度智能的人工智能系统来识别并修复所有漏洞,尽管这在理论上似乎可行。那么,我们社会是如何应对这一问题的呢?开源软件在其中扮演了重要角色。它使得软件的改进不再局限于单一公司的范围,而是能够广泛应用于各种系统,包括银行、医院和政府机构。随着软件的不断完善,得益于更多的人可以参与查看和测试,关于这些软件如何工作的标准也逐渐建立。当需要升级时,全世界可以迅速共同行动。我认为,在一个人工智能广泛部署的世界中,随着时间的推移,这些人工智能系统会逐步得到加固,所有不同的系统都将以某种方式得到控制。
在我看来,这种分布式、广泛部署的方式比集中化的方式更为健康。当然,各方面都存在风险,但我认为人们并没有充分讨论这种风险。确实存在人工智能系统被用于不良行为的风险。然而,我更担心的是,一个不可信的实体拥有超级强大的人工智能系统,我认为这可能是一个更大的风险。
帕特尔:他们会不会因为拥有别人没有的武器而试图推翻我们的政府?或者只是制造大量的混乱?
扎克伯格:直觉告诉我,出于经济、安全和其他多种原因,这些技术最终会变得非常重要和有价值。如果我们的敌人或我们不信任的人获得了更强大的技术,那么这确实可能成为一个严重的问题。因此,我认为最好的缓解方式可能是推动好的开源人工智能的发展,让它成为行业的标准,并在多个方面发挥领导作用。
帕特尔:开源人工智能系统确实有助于建立一个更公平、更平衡的竞技场,这在我看来是极为合理的。如果这种机制能够成功运作,那无疑是我所期待的未来。然而,我想进一步探讨的是,从机制层面来看,开源人工智能是如何防止有人利用他们的人工智能系统制造混乱的?比如说,如果有人试图制造生物武器,我们是否可以通过在全球范围内进行大量的研发,以极快的速度开发出相应的疫苗来应对?这其中的具体运作机制是怎样的呢?
扎克伯格:从我之前提及的安全角度来看,我认为拥有较弱人工智能系统的人试图入侵受更强人工智能保护的系统,其成功率会相对较低。
帕特尔:但是,我们如何确保世界上的所有事情都能像这样得到妥善处理呢?比如说,生物武器的情况可能并非如此简单。
扎克伯格:确实,我无法断言世界上的所有事情都能如此顺利解决。生物武器是那些对此类问题深感忧虑的人们所关注的焦点之一,我认为这种担忧是有道理的。尽管存在一些缓解措施,例如尝试不在模型中训练某些知识,但我们必须认识到,在某些情况下,如果遇到了极其恶劣的行为者,且没有其他人工智能来制衡他们并了解威胁的严重性,那么这确实可能成为一个风险。这是我们必须高度重视的问题之一。
帕特尔:在部署这些系统时,你有没有遇到过一些出乎意料的情况?比如,在训练Llama-4的过程中,它可能出于某种原因对你撒谎。当然,对于Llama-4这样的系统,这种情况可能并不常见,但你有没有考虑过类似的情况?比如,你会非常担心系统的欺骗性,以及这个系统的数十亿个副本在野外自由传播可能带来的问题?
扎克伯格:目前,我们已经观察到许多幻觉现象。我认为,如何区分幻觉和欺骗是一个值得深入探讨的问题。确实,存在许多风险和需要考虑的因素。在运营我们的公司时,我试图至少平衡这些长期的理论风险与我认为目前确实存在的实际风险。因此,当谈到欺骗时,我最担心的是有人可能会利用这种技术制造错误信息,并通过我们的网络或其他网络进行传播。为了对抗这种有害内容,我们正在构建比敌对系统更智能的人工智能系统。
这构成了我对此事的部分理解。通过观察人们在社交网络上造成或试图造成的不同类型的伤害,我发现其中有些伤害并非极具对抗性。举例来说,仇恨言论在某种层面上并非高度对抗性,因为人们并没有因为网络言论而变得更加种族歧视。在这一方面,我认为人工智能在处理这些问题时通常比人类更为复杂和迅速。然而,我们双方都存在问题。人们可能出于各种目的做出不当行为,无论是试图煽动暴力还是其他不当行为,但我们也不得不面对大量的误报情况,即我们可能错误地审查了一些本不应审查的内容。这种情况无疑让许多人感到困扰。因此,我相信随着人工智能在这方面变得越来越精确,情况将会逐渐改善。
无论是Llama-4还是未来的Llama-6,我们都需要深入思考我们观察到的行为,而且不仅仅是我们。你选择将这个项目开源,部分原因也是因为有众多的研究者也在致力于此。因此,我们希望能够与其他研究者共享观察结果,共同探索可能的缓解策略,并在确保一切安全的前提下,考虑将其开源。在可预见的未来,我乐观地认为我们能够做到这一点。同时,在短期内,我们也不能忽视人们今天试图利用模型进行不当行为的问题。即使这些行为并非毁灭性,但在运营我们的服务时,我们也深知一些相当严重的日常危害。
帕特尔:我发现合成数据的事情真的非常有趣。使用当前的模型,通过反复利用合成数据,可能会存在一个性能渐近线,这是有理论依据的。但假设这些模型变得更加聪明,能够利用你在论文或即将发布的博客文章中提到的那种技术,找到最正确的思维链。那么,你为何认为这不会导致一个循环,即模型变得更聪明,产生更好的输出,进而变得更聪明,如此往复呢?当然,这种变化不会一夜之间发生,但经过数月或数年的持续训练,模型的确有可能变得更加智能。
扎克伯格:我认为,在模型架构的参数范围内,这种循环提升是有可能发生的。然而,就目前的80亿参数模型而言,我并不认为它们能够达到与那些拥有数百亿参数、并融入了最新研究成果的先进模型相同的水平。
帕特尔:关于这些模型,它们也将是开源的,对吧?
扎克伯格:是的,确实如此。但是,这一切的前提是我们必须成功解决先前讨论过的那些挑战和问题。我们当然希望如此,但我也深知在构建软件的每个阶段,尽管软件本身有着巨大的潜力和可能性,但在某种程度上,其运行仍然受到芯片性能的物理限制。因此,我们总是面临着各种物理层面的约束。模型能够变得多大,实际上取决于我们所能获取并用于推理的能量有多少。我对于人工智能技术的未来持非常乐观的态度,相信它们将继续迅速发展和改进。与此同时,我也比一些人更为谨慎。我并不认为失控的情况会特别容易发生,但我们仍然需要保持警惕,并认真考虑各种可能的风险。因此,我认为保持开放选择是非常有意义的。

06

凯撒大帝与元宇宙


帕特尔:好的,让我们转向另一个话题——元宇宙。在人类历史的长河中,哪个时期你最想深入探索?是从公元前10万年到现在,你只是想一窥那时的风貌吗?这个探索必须局限于过去吗?
扎克伯格:确实,我更倾向于探索过去。美国历史、古典历史以及科学史都深深吸引着我。我认为,能够观察并理解那些重大历史进步是如何发生的,将是一件非常有趣的事情。然而,我们所能依赖的,只是那些有限的历史记载。对于元宇宙来说,想要完全重现那些我们没有记录的历史时期,恐怕会非常困难。实际上,我并不认为回到过去会是元宇宙的主要应用之一,虽然这样的功能在历史教学等方面可能会很有用,但对我而言,最主要的事情是,无论我们身处世界的哪个角落,都能与他人实时互动、共同存在,我坚信这才是杀手级应用。
在之前关于人工智能的对话中,我们深入探讨了许多背后的物理限制。技术教给我们的一个宝贵经验是,我们应该努力将更多事物从物理束缚中解放出来,转移到软件领域,因为软件不仅更容易构建和进化,而且更易于普及。毕竟,不是每个人都能拥有数据中心,但很多人都能编写代码、获取开源代码,并对其进行修改和优化。元宇宙正是实现这一目标的理想平台。
这将是一个颠覆性的巨大变革,它将极大地改变人们对聚集和互动的认知。因此,人们将不再觉得为了完成许多事情而必须亲自聚在一起。当然,我也深信在某些情境下,亲自相聚仍然具有无可替代的价值。这并非是一种非此即彼的选择,元宇宙的出现并不意味着我们要完全放弃面对面的交流。然而,它确实为我们提供了一个全新的维度,让我们能够更加便捷、高效地进行社交、建立联系、完成工作,并在工业、医学等众多领域发挥巨大的作用。
帕特尔:我们之前提到过一件事,你并没有以十亿美元的价格出售公司。对于元宇宙,你显然也有着坚定的信念,尽管市场对此有所质疑。我很好奇,这种信心的来源是什么?你说过“哦,我的价值观,我的直觉”,但这样的说法似乎有些笼统。你能具体说说与你自己有关的某些特质,或许我们能更好地理解你为何对元宇宙如此有信心。
扎克伯格:我认为这涉及到几个不同的问题。首先,关于是什么驱动我不断前进?我们已经讨论了很多主题。我热爱创造,特别是围绕人们如何交流、表达自己和工作的创造。在大学时,我主修计算机科学和心理学,这两个领域的交集对我来说一直是非常关键的。这也是我强烈的驱动力所在。我不知道如何解释,但我内心深处总觉得,如果我不去创造一些新东西,那我就做错了什么。即使在我们为投资1000亿美元于人工智能或元宇宙制定商业计划时,我们的计划已经相当清晰地表明,如果这些项目成功,将会带来巨大的回报。
但当然,你不能从一开始就确定一切。人们总会有各种争论和质疑。就像“你怎么会有足够的信心去做这件事?”对我来说,如果有一天我停止尝试创造新东西,那我就失去了自我。我会去别的地方继续创造。从根本上说,我无法想象自己只是运营某样东西,而不去尝试创造我认为有趣的新事物。对我来说,我们是否要尝试建造下一个东西,这不是问题。我就是无法停止创造。不仅在科技领域,我在生活的其他方面也是如此。例如,我们家在考艾岛建了一个牧场,我亲自参与了所有建筑的设计工作。当我们开始养牛时,我就想:“好吧,我要养出世界上最好的牛。”然后我们开始规划,如何建立起我们需要的一切来实现这个目标。这就是我!
帕特尔:我一直对一件事感到好奇:在高中和大学时期,年仅19岁的你就阅读了大量的古代和古典书籍。我想知道,你从这些书籍中学到了哪些重要的教训?不仅是你觉得有趣的内容,更重要的是,考虑到你当时所接触的知识范围毕竟有限。
扎克伯格:有一件事情让我深感着迷,那就是凯撒·奥古斯都如何成为皇帝,并努力建立和平。在那个时候,人们对和平并没有真正的概念,他们理解的和平,只不过是在敌人再次攻击之前的短暂间歇。他有着改变经济从依赖雇佣军和军事主义到实现正和游戏的远见,这在当时是非常新颖的想法。这反映了一个非常基本的事实:人们在当时所能想象到的合理工作方式的边界。
这个观念既适用于元宇宙,也适用于人工智能这样的领域。许多投资者和其他人难以理解我们为什么要开源这些技术。他们可能会说:“我不明白,既然开源了,那你们制作专有技术的时间岂不是会缩短?”但我认为,这在技术领域是一个深刻的观念,它实际上创造了更多的赢家。我不想过分强调这个类比,但我确实认为,很多时候,人们难以理解构建事物的模型,难以理解这对人们为什么会是一件有价值的事情,或者为什么这会是世界上一个合理的状态。实际上,合理的事情比人们想象的要多得多。
帕特尔:这真的很有意思。我可以分享一下我的想法吗?可能有些离题,但我觉得,这也许是因为历史上一些重要人物在年轻时就已经崭露头角。例如,凯撒·奥古斯都在19岁时就已经成为罗马政治界的重要人物,他领导战斗,并建立了同盟。我想知道,19岁的你是不是也有过类似的想法:“既然凯撒·奥古斯都做到了,那么我也能做到。”
扎克伯格:这确实是一个有趣的观察,它不仅来自丰富的历史,也与我们美国的历史相呼应。我很喜欢毕加索说的一句话:“所有孩子都是艺术家,挑战在于长大后如何保持艺术家的身份。”年轻时,我们更容易拥有疯狂的想法。在你的生活、公司或你所建立的任何事物中,都存在一种与创新者困境类似的类比。在职业生涯的早期阶段,你更容易调整方向,接受新想法,而不会因对其他事物的承诺而受阻。我认为,这也是经营公司的一个有趣部分:如何保持活力,如何持续创新?

07

开源价值100亿美元的模型


帕特尔:让我们重新回到投资者和开源的话题上。设想一下,我们拥有一个价值高达100亿美元的模型,且这个模型经过了严格的安全评估。同时,评估者们也能对模型进行微调。那么,你会开源价值100亿美元的模型吗?
扎克伯格:只要这对我们有利,那么开源就是一个值得考虑的选项。
帕特尔:但你真的会这么做吗?毕竟,这是投入了100亿美元研发成本的模型,现在却要将其开源。
扎克伯格:这是一个我们随着时间流逝需要仔细权衡的问题。我们有着悠久的开源软件传统。通常来说,我们并不会将产品直接开源,比如Instagram的代码。然而,我们确实会开源很多底层的基础设施。比如,我们历史上最大的开源项目之一便是开放计算项目(Open Compute Project),我们将服务器、网络交换机和数据中心的设计全部开源。最终,这为我们带来了巨大的益处。尽管很多人都能够设计服务器,但如今整个行业基本上都以我们的设计为标准。这意味着整个供应链都是围绕我们的设计建立起来的,从而提高了生产效率,降低了成本,为我们节省了数十亿美元。这实在是太好了。
开源可以以多种方式帮助我们。其中一种方式就是,如果人们能够找到更经济高效地运行模型的方法,那么这对我们来说将是一个巨大的利好。毕竟,我们在这上面的投入将达到数十亿,甚至数百亿美元。因此,如果我们能够提高10%的效率,那么我们将能够节省数十亿或数百亿美元。而且,如果市场上还有其他竞争模型存在,我们的开源行为并不会给予某个模型疯狂的优势。相反,它将促进整个行业的进步和发展。
帕特尔:你如何看待模型训练是否会走向商品化的趋势呢?
扎克伯格:我认为训练的发展有多种可能性,其中商品化确实是其中之一。商品化意味着随着市场上选择的增多,训练的成本将大大降低,变得更加亲民。另一种可能性是质量的提升。你提到了微调,目前对于许多大型模型来说,微调的选项仍然相当有限。虽然有些选择存在,但通常并不适用于最大的模型。如果我们能够克服这一挑战,实现更广泛的微调功能,那么不同应用或特定用例中将能够展现出更多样化的功能,或者将这些模型集成到特定的工具链中。这不仅可以加速开发进程,还可能促成质量上的差异化。
这里,我想用一个类比来说明。在移动生态系统中,一个普遍存在的问题是存在两家守门人公司——苹果和谷歌,它们对开发者构建的内容施加限制。从经济层面来看,这就像我们在构建某样东西时,它们会收取高额费用。但更让我担忧的是质量层面。很多时候,我们想要发布某些功能,但苹果却会拒绝,这确实令人沮丧。因此,我们需要思考的是,我们是否正在为人工智能设置一个由少数几家运行封闭模型的公司主导的世界,它们控制着API,从而决定开发者能够构建什么?就我们而言,我可以肯定地说,我们构建自己的模型是为了确保不会陷入这种境地。我们不希望其他公司来限制我们的创新能力。从开源的角度来看,我认为许多开发者也不希望受到这些公司的限制。
因此,关键问题在于围绕这些模型构建的生态系统会呈现出怎样的面貌?将会涌现出哪些有趣的新事物?它们能在多大程度上改进我们的产品?我相信,如果这些模型的发展最终能够像我们的数据库、缓存系统或架构那样,社区将能够为其贡献宝贵的价值,使我们的产品更加出色。当然,我们仍将努力保持独特性,不会受到太大影响。我们将能够继续专注于我们的核心工作,并从中受益。同时,随着开源社区的发展,所有的系统,无论是我们自己的还是社区的,都将得到改进和提升。
然而,也存在一种可能性,即模型本身最终可能会成为产品。在这种情况下,是否选择开源就需要进行更为复杂的经济考量。因为一旦选择开源,就相当于在很大程度上将自己的模型商品化。但从我目前所观察到的情况来看,我们似乎还没有达到那个阶段。
帕特尔:你期待通过向云提供商授权你的模型来获得可观的收入吗?也就是说,你希望他们支付费用以便在其平台上提供模型服务。
扎克伯格:是的,我们确实期待与云提供商达成这样的授权协议,并期望从中获得可观的收入。这基本上就是我们为Llama所设定的许可协议。在多个维度上,我们采取了非常宽容的开源许可策略,为社区和开发者提供了广泛的使用权限。但我们对使用它的最大公司设置了限制。这样的限制设置并非出于阻止他们使用模型的目的,而是希望他们在打算直接利用我们所构建的模型进行转售并从中获取商业利益时,能够与我们进行沟通和协商。如果是像微软Azure或亚马逊AWS这样的云服务提供商,打算将我们的模型作为你们的服务的一部分进行转售,那么我们期望能够从中获得一定的收入分成。
帕特尔:你关于权力平衡的观点非常合理,我们确实需要思考如何通过更好的技术对齐或其他方法来消除潜在的危害。我希望Meta能够建立一个明确的框架,就像其他实验室所做的那样,明确在某些具体情况下,开源甚至潜在的部署都是不可行的。这样的框架不仅有助于公司为潜在的风险做好准备,也能让人们对此有所期待。
扎克伯格:你说得对,关于存在性风险的问题确实值得我们深入关注。然而,目前我们更关注的是内容风险,即模型可能被用于制造暴力、欺诈或其他伤害他人的行为。尽管讨论存在性风险可能更具吸引力,但实际上,我们目前更需要投入精力去减轻的是这种更常见的危害。对于当前的模型,甚至可能是下一代模型,我们需要确保它们不会被用于欺诈等恶意行为。作为一家大公司,Meta有责任确保我们在这方面做得足够好。当然,我们也有能力同时处理这两方面的问题。
帕特尔:就开源而言,我感到好奇的是,你认为PyTorch、React、Open Compute等开源项目对世界的影响,是否有可能超越Meta在社交媒体方面的影响?我曾与这些服务的用户交流过,他们认为这种可能性是存在的,毕竟互联网的大部分运行都依赖于这些开源项目。
扎克伯格:我们的消费产品确实在全球范围内拥有庞大的用户基础,几乎覆盖了全世界一半的人口。然而,我认为开源正成为一种全新的、强大的构建方式。它可能会像贝尔实验室一样,最初他们研发晶体管是为了实现长途通话,这一目标确实实现了,并为他们带来了可观的利润。但5到10年后,当人们回顾他们最引以为傲的发明时,可能会提到其他更有深远影响的技术。我坚信,我们构建的许多项目,如Reality Labs、某些AI项目以及一些开源项目,都将对人类的进步产生持久而深远的影响。虽然具体的产品会随着时间的推移不断发展、出现和消失,但它们对人类社会的贡献却是持久的。这也是我们作为技术从业者能够共同参与的、令人振奋的部分。
帕特尔:关于你们的Llama模型,它何时会在你们自己的定制芯片上进行训练?
扎克伯格:很快,我们正在努力推动这一进程,但Llama-4可能不是首个在定制芯片上进行训练的模型。我们的策略是先从处理排名、推荐等类型的推理任务开始,比如Reels、新闻推送广告等,这些任务之前消耗了大量的GPU资源。一旦我们能够将这些任务转移到我们自己的芯片上,我们就能将更昂贵的英伟达GPU用于训练更复杂的模型。我们期望在不久的将来,能够使用自己的芯片首先训练一些相对简单的模型,并最终拓展到训练这些庞大的模型。目前,这个项目正在顺利进行中,我们有一个清晰且长远的规划,正有条不紊地推进。

08

假设成为Google+的CEO


帕特尔:最后一个问题:如果你被任命为Google+的CEO,能否带领它成功?
扎克伯格:Google+?噢,我不知道。
帕特尔:好吧,那么真正的最后一个问题将是:当谷歌推出Gemini时,你们是否感受到了压力?

扎克伯格:问题在于,Google+并非没有CEO,它仅仅是谷歌公司内部的一个部门。在我看来,对于大多数公司,尤其是达到一定规模的企业而言,专注才是至关重要的。初创公司或许在资金上捉襟见肘,它们正在验证一个想法,可能并未拥有全部所需资源。但随着业务的发展,企业会跨越某个门槛,开始构建更多的元素,并在这些元素之间创造更多的价值。然而,企业中总会发生一些出乎意料而又令人惊喜的事情,这些都是宝贵的。但总的来说,我认为公司的能力在很大程度上受限于CEO和管理团队所能监督和管理的事务范围。因此,对我们来说,保持主要事务的优先地位,并尽可能专注于关键事项,是极为重要的。正如风投家本·霍洛维茨(Ben Horowitz)所言:“保持主要的事情才是主要的事情”。



推荐阅读


史上最强!全球首个“开源GPT-4”出世!

*免责声明:本文章为作者独立观点,不代表i黑马立场。


扫描下方二维码
加入科技交流群
↓↓↓

AI通识课来啦
扫描下方二维码,报名领取
↓↓↓

联系我们

转载开白或商务合作:15222191516  
与主编交流沟通:chenfu3721
i黑马,创业黑马旗下媒体,让创业者不再孤独
业黑马 媒体矩阵 推荐关注
↓↓↓

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
最强开源大模型深夜炸场! Llama 3 王者归来,直逼 GPT-4, 马斯克点赞 | 附体验链接【硅谷的故事】硅谷的鸢尾花 第一章阿里云突然发布全球最强开源模型 Qwen2,性能超越美国最强开源模型Llama 3 超大杯有何惊喜?Meta 会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切阿里云重磅发布开源模型Qwen2,性能超Llama3-70及国内众多闭源模型全球最强开源模型一夜易主,1320亿参数推理飙升2倍!阿里云发布最强开源大模型Qwen2,干翻Llama 3,比闭源模型还强OpenAI联创Greg最新采访:为什么OpenAI最先做出GPT-4?|亮马桥小纪严选Lisa Su最新采访:这是一个令人兴奋的行业全球最强开源模型Qwen2发布,阿里云为开闭源之争画下休止符暴雪创始人最新采访:22岁与校友创业、暴雪是如何成长崛起的?华为 Pura 70 系列上架即售罄/Meta 发布全球最强开源大模型/理想汽车 L6 发布作为nation/ㄋㄟㄒㄣ语言的汉语的书写系统张忠谋最新采访:老兵不死,只是逐渐凋零主观评价中国的成就最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上网易二次元游戏《代号:无限大》最新采访:计划每年造一座城!性能强,成本低,运行快!最强开源大模型出现,超越ChatGPT和Llama!谁会接手闺蜜的老公(男友)?全球最强开源模型一夜易主,1320亿参数推理飙升2倍扎克伯格的Llama 3号称全球最强开源模型!却写不好这个……陶哲轩最新采访:AI将颠覆数学界!用Lean规模化,成百上千条定理一次秒杀最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍扎克伯格最新2万字访谈:价值百亿美金的“最强开源大模型”Llama3及背后的一切AI早知道|Kimi智能助手升级;Meta开源推出新一代大语言模型Llama3马斯克最新采访:我最大的恐惧是AI,最大的希望是火星大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了张核子回应张姗姗身份;雷军直播回应造车亏损;Meta发布最强开源大模型Llama 3;阿里拍卖回应前员工指控高管职场霸凌|邦早报Llama3发布,开源模型追上闭源模型的历史时刻就在眼前了?OpenAI联创Greg最新采访:为什么OpenAI最先做出GPT-4?英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报命运动力学:量子纠缠波动之灾(喜)哈尔滨啤酒检出呕吐毒素;Meta发布开源大模型Llama 3丨大公司动态
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。