Redian新闻
>
Hinton万字访谈:用更大模型「预测下一个词」值得全力以赴

Hinton万字访谈:用更大模型「预测下一个词」值得全力以赴

公众号新闻
机器之心报道
机器之心编辑部


「这份访谈的每一秒都是精华。」最近,图灵奖得主 Geoffrey Hinton 的一个访谈视频得到了网友的高度评价。


视频链接:https://www.youtube.com/watch?v=tP-4njhyGvo&t=660s

在访谈中,Hinton 谈到了很多话题,包括当前大模型的技术路线、多模态学习的重要性、 数字计算与共享知识、智能系统的意识与情感以及他的合作者和优秀学生……

Hinton 认为,大型语言模型通过寻找不同领域的共同结构来进行编码,这种能力使它们能够压缩信息并形成深层次的理解,发现现实世界中人类尚未发现的万事万物的联系,这是创造力的来源。他还提到,通过预测下一个符号,模型实际上必须执行一定程度的推理,而不是像很多人所说的大模型并不具备推理能力。随着模型规模的增加,这种推理能力也将变得越来越强。这是一个值得全力以赴的方向。

在回忆和 Ilya 的师生合作时,Hinton 提到,Ilya 拥有很好的直觉。他很早就预见到,增大模型的规模是有用的,尽管当时 Hinton 并不看好这个想法。事实证明,Ilya 的直觉是很准的。


整个访谈时间跨度比较大,为了方便梳理故事背景,我们可以先回顾一下 Hinton 的职业生涯:  

  • 1947 年 12 月 6 日,Hinton 出生于英国温布尔登。
  • 1970 年,获得剑桥大学实验心理学学士学位。
  • 1976 年 —1978 年,担任苏塞克斯大学认知科学研究项目研究员。
  • 1978 年,获得爱丁堡大学人工智能学博士学位。
  • 1978 年 —1980 年,担任加州大学圣地亚哥分校认知科学系访问学者。
  • 1980 年 —1982 年,担任英国剑桥 MRC 应用心理学部科学管理人员。
  • 1982 年 —1987 年,历任卡内基梅隆大学计算机科学系助理教授、副教授。
  • 1987 年 —1998 年,担任多伦多大学计算机科学系教授。
  • 1996 年,当选为加拿大皇家学会院士。
  • 1998 年,当选为英国皇家学会院士。
  • 1998 年 —2001 年,担任伦敦大学学院盖茨比计算神经科学部创始主任。
  • 2001 年 —2014 年,担任多伦多大学计算机科学系教授。
  • 2003 年,当选为认知科学学会会士。
  • 2013 年 —2016 年,担任谷歌杰出研究员。
  • 2016 年 —2023 年,担任谷歌副总裁兼工程研究员。
  • 2023 年,从谷歌辞职。

以下是访谈内容:


起点:理解大脑的工作方式

Hinton:我还记得我第一次从英国到卡内基梅隆大学的时候。在英国的研究机构,大家到了 6 点都会去酒吧喝一杯。但到了卡内基梅隆,几周后的一个周六晚上,那时我还没有任何朋友,也不知道该做什么,所以我决定去实验室编程。因为我有一台列表机(list machine),这个东西不能在家编程。所以我在周六晚上大约 9 点钟去了实验室,结果里面挤满了人,所有的学生都在那儿。他们之所以这样,是因为他们所做的事情代表未来。他们都相信,他们接下来做的事情将改变计算机科学的进程。这与英国的情况非常不同,非常令人耳目一新。

Hellermark:我们回到起点 —— 剑桥时期的你。当时,你试图理解大脑的工作方式,那时是什么情况?

Hinton:那是段非常令人失望的时光。我当时主要研究生理学。在夏季学期,他们要教我们大脑是如何工作的。他们教的只是神经元如何传导动作电位,这非常有趣,但它并没有告诉你大脑是如何工作的。所以那非常令人失望。随后,我转向了哲学。那时的想法是,也许哲学会告诉我们思维是如何工作的。结果同样令人失望。我最终去了爱丁堡大学学习人工智能,那更有趣。至少你可以模拟东西,这样你就可以测试理论了。

Hellermark:你还记得是什么让你对 AI 产生了兴趣吗?是读了某篇论文吗?还是某个特定的人向你介绍了这些想法?

Hinton:我想是 Donald Hebb(加拿大心理学家,认知心理生理学的开创者)写的一本书对我产生了很大影响。他对如何在神经网络中学习连接强度非常感兴趣。我还读了冯・诺依曼(计算机之父)的书,他对大脑如何计算以及它与普通计算机有何不同非常感兴趣。

Hellermark:在爱丁堡的那些日子里,你有没有一种信念,认为这些想法会成功?或者你当时的直觉是什么?

Hinton:在我看来,大脑肯定有一种学习的方式。大脑的学习并非依靠将各种事物预设编程,然后运用逻辑推理规则 —— 这种做法从一开始就显得过于疯狂。因此,我们必须解开大脑是如何学会调整神经网络中的连接,使其能够处理复杂事物的谜团。对于冯・诺依曼和图灵来说也是如此。冯・诺依曼和图灵都非常擅长逻辑,但他们不相信这种逻辑方法。

Hellermark:你是如何将研究神经科学的想法与只是做那些看起来不错的人工智能算法区分开来的?你在早期获得了多少灵感?

Hinton:我并没有在神经科学上做太多研究。我总是受到我对大脑工作原理的启发,那里有一堆神经元,它们执行相对简单的操作。它们是非线性的,但它们收集输入,加权这些输入,然后输出取决于那些加权输入。问题是,你如何改变这些权重,让整个系统做出一些好的事情。这看起来像是一个相当简单的问题。

Hellermark:你还记得那时的合作者吗?

Hinton:我在卡内基梅隆的主要合作对象并不是卡内基梅隆的人。我与在巴尔的摩约翰・霍普金斯大学的 Terrence Sejnowski 有很多互动。大约每月一次,要么他开车去匹兹堡,要么我开车去巴尔的摩。两地距离 250 英里(约 402 公里)。我们会一起度过一个周末,一起在巴尔的摩的机器上工作。那是一次很棒的合作。我们都相信那就是大脑的工作方式。那是我所做过的最令人兴奋的研究,产出了很多技术上非常有趣的结果,但我认为那不是大脑的工作方式。


我还与 Peter Brown 有很好的合作,他是一位非常优秀的统计学家,在 IBM 工作,研究语音识别。他是作为一名成熟的学生来到卡内基梅隆的,为了拿到博士学位。其实他已经懂得很多了。他教了我很多关于语音的知识,教了我隐马尔可夫模型。我觉得我从他那里学到的比他从我这里学到的要多。这就是大家都想要的那种学生。当他教我隐马尔可夫模型时,我正在用隐藏层做反向传播。那时它还不叫隐藏层。我认为马尔可夫模型中使用的这个名字对于那些你不知道它们在干什么的变量来说是一个很好的名字。所以这就是神经网络中「隐藏层」名字的由来。


谈 Ilya:他有很好的直觉

Hellermark:带我们回忆一下 Ilya 出现在你办公室的时候。

Hinton:那可能是一个周日,我在编程,然后有人敲门。不是随便的敲,而是有点急切的那种。然后我去开门,门口站着一个年轻的学生。他说他整个夏天都在炸薯条,但他更愿意在我的实验室工作。我说,你为什么不预约一下,我们再谈谈?然后 Ilya 说,「现在谈怎么样?」这就是 Ilya 的性格。

我们聊了一会儿,我给了他一篇论文,那是发表在 Nature 上的反向传播的论文。我们又安排了一周后的另一次会议。他回来说他没理解,我非常失望。我以为他看起来是个聪明人。我给他的论文只涉及链式法则,不难理解。结果他说,「不,我理解了那部分。我只是不明白你为什么不把梯度给一个合理的函数优化器」。这个问题让我们思考了好几年。Ilya 就是这样,他有很好的直觉,他的想法总是很好。

Hellermark:你认为是什么让 Ilya 有了那些直觉?

Hinton:我不知道。他总是自己思考。他从小就对 AI 感兴趣,还擅长数学。

Hellermark:你们两个之间是怎么合作的?你扮演了什么角色,Ilya 扮演了什么角色?

Hinton:跟他合作非常有趣。我记得有一次我们试图用一种复杂的方法制作数据图,我有一种混合模型,你可以用同样的一组相似性制作两张图。这样在一张图上,银行可能离绿地很近,在另一张图上,银行可能离河流很近。因为在一张图上,你不能让它同时离两者都很近,对吧?因为河流和绿地距离很远。

我们用 MATLAB 做这件事,这涉及到大量的代码重组,以进行正确的矩阵乘法。然后他厌烦了。所以有一天,他说,「我要去为 MATLAB 写一个接口。我要用这种不同的语言编程,我有一些东西可以将其转换为 MATLAB。」我说,「不,Ilya,那将花费你一个月的时间。我们必须继续这个项目。不要被那个事情分散注意力。」Ilya 说,「没关系,我今天早上就做好了。」


Hellermark:太不可思议了。那些年里,最大的转变不仅仅是算法,还有规模(scale)。这些年来你是如何看待 scale 的? 

Hinton:Ilya 很早就有了那种直觉。所以 Ilya 总是说,你只要把它做得更大,效果就会更好。我总觉得这有点逃避现实,你也得有新想法。结果,他的直觉基本上是正确的。新的想法有帮助。Transformer 之类的东西帮了大忙,但真正的问题在于数据的规模和计算的规模。那时,我们根本不知道计算机会快上 10 亿倍。我们以为也许会快上 100 倍。我们试图通过提出一些聪明的想法来解决问题,但如果我们有更大的数据和计算规模,这些问题就会迎刃而解。

大约 2011 年,Ilya、我和另一个名叫 James Martins 的研究生,发表了一篇使用字符级预测的论文。我们利用维基百科,尝试预测下一个 HTML 字符。结果效果非常好。我们一直对它的效果感到惊讶。那是在 GPU 上使用了一个花哨的优化器,我们永远无法相信它能理解任何东西,但它看起来好像能理解,这看起来简直不可思议。

「预测下一个词」也需要推理

Hellermark:这些模型是如何预测下一个词的?为什么这是一种错误的思考它们的方式?

Hinton:我并不认为这是错误的方式。事实上,我认为我制作了第一个使用嵌入和反向传播的神经网络语言模型。数据非常简单,只是三元组,它将每个符号转换为嵌入,然后让嵌入相互作用以预测下一个符号的嵌入,然后从那预测下一个符号,然后它通过整个过程进行反向传播来学习这些三元组。我展示了它可以泛化.

大约 10 年后,Yoshua Bengio 使用了一个非常类似的网络,并证明它可以处理真实文本。此后大约 10 年,语言学家们开始相信嵌入。这是一个缓慢的过程。

我之所以认为它不仅仅是预测下一个符号,是因为如果你问,预测下一个符号需要什么?具体来说,如果你问我一个问题,然后答案的第一个词就是下一个符号,你就必须理解这个问题。因此,我认为预测下一个符号与老式的自动补全功能很不一样。在老式的自动补全功能中,你需要存储三元组单词。然后,如果你看到一对单词,你会看到不同单词出现在第三位的频率,这样你就能预测下一个符号。这就是大多数人认为的自动补全功能。现在已经完全不是这样了。

为了预测下一个符号,你必须理解所说的话。所以我认为,通过让它预测下一个符号,你正在迫使它去理解。我认为这和我们的理解方式是一样的。很多人会告诉你这些东西不像我们,它们只是预测下一个符号,不像我们那样进行推理。但实际上,为了预测下一个符号,它必须进行一些推理。我们现在已经看到了,即使你不加入任何特殊的推理元素,仅仅是制造出大的模型,它们也已经可以进行一些推理了。我想,当你把它们做得更大时,它们就能进行更多的推理。

Hellermark:在你看来,我现在除了预测下一个符号之外还在做什么?

Hinton:我认为那就是你的学习方式。你在预测下一个视频帧,你在预测下一个声音。但我认为这是一个相当合理的大脑学习理论。

Hellermark:是什么让这些模型可以学到如此广阔的领域?

Hinton:这些大型语言模型所做的是寻找共同的结构。它们可以使用共同的结构来编码事物,这样更有效率。

举个例子,如果你问 GPT-4,为什么堆肥堆像原子弹?大多数人回答不出来。大多数人没有想过,他们会认为原子弹和堆肥堆是非常不同的东西。但 GPT-4 会告诉你,它们的能量规模非常不同,时间规模非常不同。但它们的共同点是,当堆肥堆变得更热时,它产生热量的速度更快;当原子弹产生更多的中子时,它产生中子的速度也更快。所以这就得到了连锁反应的概念。我相信它理解这两种连锁反应,它使用这种理解将所有这些信息压缩到它的权重中。如果它确实在这样做,那么它将会对我们还没有看到的所有事物进行同样的操作。这就是创造力的来源 —— 看到这些表面上截然不同的事物之间的类比关系。


所以我认为,当 GPT-4 变得更大时,它最终会变得非常有创造力。那种认为它只是在重复学习过的东西,只是把已经学过的内容粘贴在一起的想法,是完全错误的。它会比人类更有创造力。

Hellermark:你说它不仅仅会重复我们迄今为止所开发的人类知识,还可能取得更大的进步。我认为我们目前还没有充分看到这一点。我们已经开始看到一些例子,但在更大范围内,它还停留在当前的科学水平。你认为怎样才能让它超越这个水平?

Hinton:我们在更有限的情况下看到过这种情况。比如在 AlphaGo 和李世石的那场著名比赛中,在第 37 步,AlphaGo 下了一步所有专家都认为肯定是错误的棋,但后来他们意识到这是一步绝妙的棋。这就是在有限领域内的创造性。我认为随着模型规模的扩大,我们会看到更多这样的情况。


Hellermark:AlphaGo 的不同之处在于它使用了强化学习,这使它能够超越当前状态。它从模仿学习开始,观察人类如何下棋,然后通过自我对弈,发展得远远超出了那个水平。你认为这是标准组件缺失的部分吗?

Hinton:我认为这可能是缺失的部分。AlphaGo 和 AlphaZero 中的自我对弈是它们能够做出这些创造性举动的很大一部分原因。但我不认为这是完全必要的。

有一个很久以前的实验,你训练一个神经网络来识别手写数字。我非常喜欢这个例子。你给它的训练数据中有一半的标签是错误的。问题是它能学得多好?而且这些错误标签是固定的,每次看到特定样本时它都与相同的错误标签配对,所以它不能通过多次看到相同样本但标签有时正确有时错误来平均化这些错误。训练数据中有 50% 的错误标签,但如果你用反向传播训练神经网络,它的错误率可以降到 5% 以下。换句话说,即使从标注错误的数据中,它也能得到更好的结果。它能够识别出训练数据中的错误。这就像聪明的学生比他们的导师更聪明。导师告诉他们很多东西,但有一半的信息是错误的,学生能分辨出哪些是错的,只听正确的那一半,最后比导师更聪明。所以这些大规模神经网络实际上能够做到的比它们的训练数据更好,大多数人并没有意识到这一点。

Hellermark:那么你认为这些模型将如何将推理融入其中呢?我的意思是,一种方法是在模型之上添加启发式方法,现在很多研究都在这样做,你可以在模型中加入一些思考,将推理反馈给模型本身。另一种方式是扩大模型规模。你的直觉是怎么做?

Hinton:我的直觉是,随着我们扩大这些模型的规模,它们会变得更擅长推理。如果你问人们是如何工作的,大致说来,我们有这些直觉,我们可以使用推理,我们使用推理来纠正我们的直觉。当然,在推理过程中我们也会用到直觉。但如果推理的结论与我们的直觉冲突,我们会意识到需要改变直觉。这很像在 AlphaGo 或 AlphaZero 中,你有一个评估函数,它只是看着棋盘说,这对我有多好?但当你进行蒙特卡洛模拟时,你就会得到一个更准确的想法,从而修正你的评估函数。所以你可以训练它,让它同意推理的结果。

我认为这些大型语言模型必须开始这样做。它们必须开始训练自己的原始直觉,通过推理来判断下一步应该做什么,并意识到这是不对的。这样,它们就能获得更多的训练数据,而不仅仅是模仿人们的行为。这正是 AlphaGo 能够构想出这个创造性的第 37 步的原因。它有更多的训练数据,因为它是通过推理来确定下一步应该怎么走的。

模型能从语言中学到很多,但从多模态中学习会更容易

Hellermark:你如何看待多模态?当我们引入图像、视频和声音时,你认为这将如何改变模型?

Hinton:我认为这会有很大的改变。我认为这会让模型在理解空间事物方面做得更好。例如,仅从语言来理解一些空间事物相当困难,尽管令人惊讶的是,即使在成为多模态模型之前,GPT-4 也能做到这一点。但是当 GPT-4 成为多模态模型时,如果你同时让它做视觉和触觉,伸手去抓取东西,它会更了解物体。

所以尽管你可以从语言中学到很多东西,但如果是多模态,学习会更容易。实际上,你需要的语言就更少了。例如,有很多 YouTube 视频可以预测下一个画面。所以我认为多模态模型显然会占据主导地位。这可以获得更多数据,需要的语言会更少。所以这是一个哲学观点,你可以仅从语言中学到一个很好的模型,但从多模态系统中学到它要容易得多。

Hellermark:你认为这将如何影响模型的推理?

Hinton:我认为这会让模型在空间推理方面做得更好。例如,关于如果拿起物体会发生什么的推理。如果真的尝试拿起物体,你会得到各种各样的训练数据。

关于「认知」的三种观点

Hellermark:你认为人类大脑进化到能够很好地使用语言,还是语言进化到能够很好地与人类大脑配合?

Hinton:关于语言是否进化到与大脑配合,或者大脑是否进化到与语言配合的问题,我认为这是一个非常好的问题。我认为两者都发生了。

我曾经认为我们会在根本不需要语言的情况下进行很多认知活动,但现在我改变主意了。我举三种关于语言以及它与认知的关系的观点。

第一种,老式象征性观点,即认知由一些清理过的逻辑语言中的符号字符串组成,没有歧义,且应用推理规则。因此认知只是对像语言符号字符串这样的东西进行符号操作。这是一种极端观点。

另一种极端观点是:一旦进入大脑内部,一切都是向量。符号进来,你将这些符号转换为大型向量,所有的洞察都是用大型向量完成的。如果你想产生输出,你将再次产生符号。所以在 2014 年的机器翻译中有一个时刻,人们使用循环神经网络,单词会不断进来,它们会有一个隐藏状态,并在这个隐藏状态中不断累积信息。所以当到达句子的结尾时,就有一个大的隐藏向量,捕捉了句子的含义。然后它可以用来产生另一种语言中的单词,这被称为思维向量。这是关于语言的第二种观点。

还有第三种观点,也是我现在相信的,即大脑将这些符号转换为嵌入,并使用多层嵌入。所以你将得到非常丰富的嵌入。但嵌入仍然与符号相关联,从这个意义上讲,符号有其对应的大向量。这些向量相互作用产生下一个词的符号的向量。因此理解是指知道如何将符号转换为向量,以及向量的元素如何相互作用以预测下一个符号的向量。这就是大型语言模型以及我们的大脑中的理解方式。你保留符号,但将其解释为大向量。所有的工作以及所有的知识都在于使用哪些向量以及这些向量的元素如何相互作用,而不是在符号规则中。但这并不是说你完全摆脱了符号,而是说将符号转换为大向量,但保留符号的表面结构。这就是大型语言模型的运作方式。现在我认为这似乎也是人类思维一个更合理的模型。

「黄仁勋送了我一块 GPU」

Hellermark:您是最早想到使用 GPU 的人之一。我知道 Jensen(黄仁勋)因此而爱您。早在 2009 年,您就提到您告诉 Jensen,使用 GPU 对于训练神经网络来说可能是一个非常好的主意。

Hinton:实际上,2006 年左右,我有一个名叫 Richard Szeliski 的研究生。他是一个非常优秀的计算机视觉专家。我在一次会议上和他讨论,他说应该考虑使用图形处理单元,因为它们非常擅长矩阵乘法,而您所做的事情基本上就是矩阵乘法。

所以我思考了一段时间。然后我们了解到 Tesla 系统配有四个 GPU。最初我们尝试使用游戏 GPU,发现它们使运行速度快了 30 倍。然后我们买了一个带有四个 GPU 的 Tesla 系统,我们在它上面做了语音处理,效果非常好。

然后在 2009 年,我在 NIPS 上做了一个演讲,我告诉 1000 名机器学习研究人员,你们都应该去买英伟达的 GPU。GPU 是未来。你们需要 GPU 来进行机器学习。然后我实际上给英伟达发了邮件,说我告诉了 1000 名机器学习研究人员去买你们的产品,你们能免费送我一个吗?他们没有说不。实际上,他们没有回复。但后来当我告诉 Jensen 这个故事时,他免费送给我一个。


数字系统有人类无法比拟的优势

Hellermark:那太好了。我认为有趣的是 GPU 的演变与这个领域的发展是同步的。你认为我们接下来在计算方面应该走向何方?

Hinton:我在谷歌的最后几年,我一直在思考如何尝试进行模拟计算。即不是使用像一兆瓦这样庞大的电力,而是使用像大脑一样的 30 瓦电力,就可以在模拟硬件中运行大型语言模型。

这一点我从未实现过。但我开始真正欣赏数字计算。如果你要使用低功耗模拟计算,每个硬件都会有所不同,要利用硬件的特定属性。这就是发生在人类身上的事情。我们所有人的大脑都不同,所以我们不能把你大脑中的权重拿出来放进我的大脑。硬件是不同的。单个神经元的确切属性是不同的。

当我们去世后,我们的知识和经验大部分会随之消失,因为人类传递知识的方式通常涉及语言交流,这种方式相对效率较低。然而,数字系统则不同,它们可以通过共享权重(即学习过的数据和参数)来传递知识。一旦一个数字系统学习了某些知识,这些权重就可以被保存并在其他任何相同配置的系统中重用。这种方式不仅保证了知识的精确复制,还极大提高了学习和知识共享的效率。因此,数字系统在共享和扩散知识方面,具有远超人类的能力。

需要得到重视的快速权重

Hellermark:很多已经在实际应用中部署的人工智能系统的理念源于早期的神经科学理论,这些理念已经存在了很长时间。现在的问题是,还有哪些未被充分利用的神经科学理论可以应用到我们开发的系统中?这需要我们探索神经科学中的未被充分挖掘的理论,将它们转化为技术,以推动人工智能技术的进一步发展。 

Hinton:在人工智能与神经科学的对比中,一个我们仍需追赶的重要方面是变化的时间尺度。在几乎所有的神经网络中,都存在快速时间尺度的活动变化 —— 输入数据后,嵌入向量会发生变化。而另一种是慢速时间尺度,即权重的变化,这关系到长期学习。在大脑中也有这两个时间尺度。

例如,如果我突然说出一个意外的词,比如黄瓜,五分钟后你戴上耳机,在嘈杂的环境中,如果有很轻微的话语声,你会更容易识别出黄瓜这个词,因为我五分钟前说过它了。那么这个知识存储在哪里呢?在大脑中。这种认知显然是暂时性的突触改变所保存的,而不是特定的神经元来保存 —— 我们的大脑中并没有足够多的神经元来做这种事。这种暂时性的权重改变,我称之为快速权重,在我们目前的神经模型中并没有应用。 

 我们之所以没有在模型中使用快速权重,是因为如果权重的暂时性变化依赖于输入数据,那么我们就无法同时处理多种不同的情况。目前,我们通常会将多种不同的数据批量堆叠在一起,并行处理,因为这样可以进行矩阵乘法,效率更高。正是这种效率的需求阻碍了我们使用快速权重。然而,大脑明显利用快速权重来进行临时记忆存储,并且可以通过这种方式实现许多我们目前未能做到的功能。 

我曾对像 GraphCore(一家英国半导体公司,开发人工智能和机器学习加速器,它引入了大规模并行智能处理单元,在处理器内保存完整的机器学习模型)这样的技术抱有很大希望,如果它们采取序列方式并只进行在线学习,那么它们就能使用快速权重。但这种方法尚未取得成功。我认为,当人们开始使用导电性(conductances)作为权重时,这种方法最终会取得成功。

乔姆斯基的部分理论是无稽之谈

Hellermark:了解这些模型的工作原理以及大脑的工作原理对你的思考方式有何影响?

Hinton:我认为有很大的影响,这是一个相当抽象的水平。一直以来,在 AI 领域,曾经有一个广泛的观点认为,仅仅依赖大量训练数据让一个庞大的随机神经网络去学习复杂事物是不可能的。如果你和统计学家、语言学家或大多数人工智能领域的人交流,他们会说这只是一个白日梦,认为没有大规模的架构,就无法学习到真正复杂的知识。 

但实际情况完全颠覆了这种观点。事实证明,你可以通过大量数据训练一个庞大的随机神经网络,利用随机梯度下降方法不断调整权重,从而学习到复杂的事物。这一发现对我们理解大脑的结构具有重要意义,表明大脑并不需要天生就具有所有的结构性知识。当然,大脑确实具有许多先天结构,但它显然不需要依赖这些结构来学习那些容易获得的知识。

这种观点也挑战了乔姆斯基的语言学理论,即复杂的语言学习必须依赖于先天就编织在大脑中的结构,并且要等待这种结构成熟。这种想法现在显然是无稽之谈。 

Hellermark:我相信乔姆斯基会感谢你称他的观点为无稽之谈。


智能系统也能拥有情感

Hellermark:你认为要使这些模型更有效地模拟人类的意识,需要做些什么?

Hinton:我认为它们也可以出现情感(feeling)。我们常常倾向于使用「内部剧场模型」来解释感知(perception)和情感。比如我说我想打 Gary 的鼻子,让我们试着把它从内部剧场模型的概念中抽象出来。这通常被解释为一种内部情感体验。然而,这种模型可能并不准确。实际上,当我表达这种情感时,我的真实意图是,如果不是因为我的前额叶的抑制作用,我可能真的会采取这样的行动。因此,所谓的情感,实际上是我们在没有限制的情况下可能会采取的行动。 

事实上,这些感觉并非人类独有,机器人或其他智能系统也有可能体验情感。例如,1973 年在爱丁堡,我见过一个机器人表现出情感。这个机器人有两个抓手,可以在绿色毛毡上组装玩具汽车,只要将零件分开放置。但如果你把零件堆在一起,由于它的视觉系统不够好,无法分辨情况,它会显得困惑并将零件击散,然后再进行组装。如果这种行为发生在人类身上,我们可能会认为他因为不理解情况而感到恼怒,并因此摧毁了它。 

Hellermark:这让人印象深刻。你之前说过,你将人类和大型语言模型描述为类比机器(analogy machines)。你认为你一生中发现的最有力的类比是什么?

Hinton:在我的一生中,一个对我影响很大的、虽然有些牵强的类比是宗教信仰与符号处理之间的相似性。我出生在一个无神论家庭,当我还很小的时候,上学时首次接触到宗教信仰,对我来说那完全是无稽之谈,直到现在我仍然这么认为。当我了解到符号处理被用来解释人们的行为时,我觉得这和宗教信仰一样荒谬。但现在我不再认为它完全是无稽之谈,因为我确实认为我们进行了符号处理,只不过我们是通过为这些符号赋予嵌入向量来处理的。但我们实际上是在进行符号处理,只是方式与人们原本想象的完全不同。人们曾认为符号处理只是简单地匹配符号,一个符号只有一个属性:要么与另一个符号相同,要么不相同。我们根本不是这样做的。我们利用上下文为符号提供嵌入向量,然后利用这些嵌入向量的组件之间的相互作用来进行思考。 

但谷歌有一位非常优秀的研究人员,名叫 Fernando Pereira,他曾表示我们确实有符号推理。我们拥有的唯一符号是自然语言。自然语言是一种符号语言,我们用它进行推理。我现在相信了。

对于问题保持怀疑,然后证明它

Hellermark:你已经完成了计算机科学史上一些最有意义的研究。能否向我们介绍一下,例如,如何挑选正确的问题进行研究?

Hinton:我和我的学生做了很多最有意义的事情。这主要归功于与学生的良好合作以及我挑选优秀学生的能力。这是因为在上世纪 70 年代、80 年代、90 年代以及进入 21 世纪,很少有人研究神经网络。所以从事神经网络研究的少数人能够挑选到最优秀的学生,还需要依靠一点运气。

但我挑选研究问题的方式基本上是这样的:你知道,当科学家谈论他们的工作方式时,他们会有一些关于工作方式的理论,这些理论可能与事实并无太大关联。但我的理论是,我会寻找一个大家都认同的观点,但感觉上似乎有些不对劲的地方。通常是有一种微妙的直觉,觉得某处有问题,只是有一点点感觉不对劲。然后我就会研究这个问题,试图详细解释为什么它是错误的。也许我能用一个小型计算机程序做一个小演示,显示它的工作方式并不像你可能预期的那样。 

让我举一个例子。大多数人认为,如果你给神经网络添加噪声,它的效果会变差。实际上,我们知道如果这样做,它的泛化能力会更好。这可以通过一个简单的例子来证明,这就是计算机模拟的好处。你可以展示你原先的想法 —— 添加噪声会使效果变差,让一半的神经元停止工作会使其效果变差 —— 在短期内确实如此。但如果你像这样训练它,最终它的效果会更好。你可以通过一个小型计算机程序来演示这一点,然后你可以仔细思考为什么会这样。这就是我的工作方法:找到一个听起来可疑的东西,然后研究它,看看你是否能用一个简单的演示来说明它为什么是错误的。 

Hinton 想继续研究的未解之谜:大脑运作方式

Hellermark:最近,什么东西引起了你的怀疑?

Hinton:我们不使用快速权重,这看起来有些问题。我们只有这两种时间尺度,这显然是错误的。这与大脑的运作方式完全不同。从长远来看,我认为我们将需要更多的时间尺度。 

Hellermark:如果你现在带领一组学生,他们来找你,说到我们之前讨论过的问题,你所在的领域中最重要的问题是什么?你会建议他们接下来研究并工作什么?我们谈到了推理的时间尺度。你建议的最优先的问题是什么?

Hinton:对我来说,现在的问题和我过去大约 30 年一直关注的问题相同,那就是大脑是否进行反向传播?我相信大脑在获取梯度。如果你没有获取到梯度,你的学习效果会比获取到梯度时差很多。但大脑是如何获取梯度的?它是否在实现某种近似版本的反向传播,或者是采用了一种完全不同的技术?这是一个很大的未解之谜。如果我继续从事研究,这就是我将要研究的内容。 

Hellermark:当你现在回顾你的职业生涯时,你在很多事情上都是正确的。但假如当时用很少的时间来决定的方向后来被证明是错误的?

Hinton:这里有两个单独的问题。1、你做错了什么?2、你希望自己少花点时间吗?我认为我对玻尔兹曼机的看法是错误的,我很高兴我在它上面花了很长时间。关于如何获得梯度,有比反向传播更美丽的理论,它只是普通且合理的,它只是一个章节。这两个机制都很聪明,这是一种非常有趣的获取梯度的方法。我希望大脑是这样运作的,但我认为事实并非如此。

Hellermark:您是否花了很多时间想象系统开发后会发生什么?如果我们能让这些系统运行得很好,我们就可以实现教育的民主化,我们可以让知识更容易获得,我们可以解决医学上的一些棘手问题。或者对你来说更重要的是了解大脑运行的机制?

Hinton:是的,我确实觉得科学家应该做那些能帮助社会的事情。但实际上,当你的研究被好奇心驱动时,你做不到最好的研究。你只需要理解一些事情。更近地,我意识到这些东西可能会造成很多伤害,也会带来很多好处。我变得更加关注它们对社会的影响。但这不是动机。我只想知道大脑是如何学会做事的?那就是我想知道的。而我在试错的过程中,我们得到了一些不错的工程结果。

Hellermark:是的,这对世界来说是一个有益的失败。如果从可能带来巨大正面影响的角度来看,你认为最有前景的应用是什么? 

Hinton:我认为医疗保健显然是一个大领域。在医疗方面,社会可以吸收的数量几乎没有限制。对一个老人来说,他们可能需要全职的五位医生。所以当 AI 在做事上比人类更好时,你会希望你在这些领域出现更多的资源 —— 如果每个人都有三位医生,那就太好了。我们将达到那个地步。

还有新的工程,开发新材料,例如更好的太阳能电池板、室温超导或仅仅是理解身体的工作原理。这些都会有很大的影响力。我担心的是坏人利用它们做坏事。

Hellermark:你有没有担心过,放慢这个领域的发展速度也可能会放慢积极的一面?

Hinton:当然。我认为这个领域不太可能放慢速度,部分原因是它是国际性的。如果一个国家放慢速度,其他国家不会放慢速度。之前有一个提议说我们应该暂停大模型研究六个月。我没有签名,因为我认为这永远不会发生。我可能应该签字,因为即使它永远不会发生,它也表明了一个观点。有时为了表明立场而使用它也是好事。但我不认为我们会放慢速度。

Hellermark:你认为拥有(ChatGPT)这样的助手将如何影响 AI 研究过程?

Hinton:我认为它将使 AI 研究变得更加高效。当你有这些助手来帮助你编程,也帮助你思考问题,可能会在方程式上帮助你很多。

挑选学生,更看重直觉

Hellermark:你有没有深思熟虑过选择人才的过程?这对你来说大多是凭直觉的吗?就像当 Ilya Sutskever 出现在门口时,你会觉得「这是一个聪明人,让我们一起工作吧」。


Hinton:对于选择人才,有时候是很明显的。在交谈后不久,你就能看出他非常聪明。进一步交谈你会发现,他显然非常聪明,并且在数学上有很好的直觉。所以这是轻而易举的。

还有一次我在 NIPS 会议上,我们有一个 Poster,有人走过来问我们关于 Poster 的问题。他问的每个问题都是对我们做错了什么的深刻洞察。五分钟后,我给了他一个博士后职位。那个人是 David McKay,他非常聪明。他去世了,这非常令人难过,但他显然是你想要的那种人。


其他时候就不那么明显了。我学到的一件事是,人是不同的。不仅仅有一种类型的好学生。有些学生可能不那么有创造力,但从技术角度来看非常强大,可以让任何事情都运转起来。还有一些学生技术上不那么强,但非常有创造力。当然,你想要的是两者兼备的人,但你并不总是能得到。但我认为实际上在实验室里,你需要各种不同类型的研究生。但我还是跟着我的直觉走,有时你和某人交谈,他们真的非常聪明,他们就是能跟得上思路,那就是你想要的人。

Hellermark:你认为你对有些人有更好的直觉的原因是什么?或者说你如何培养你的直觉?

Hinton:我认为部分原因是,他们不会接受无意义的东西。有个获得糟糕直觉的方法,那就是相信你被告知的一切,那太致命了。你必须能够... 我认为有些人是这样做的,他们对理解现实有一个完整的框架。当有人告诉他们某些事情时,他们会试图弄清楚这如何适应他们的框架。如果不适合,他们就拒绝它。这是一个非常好的策略。

试图吸收他们被告知的一切的人最终会得到一个非常模糊的框架。他们可以相信一切,那是没有用的。所以我认为实际上拥有一个对世界的坚定观点,并试图整合输入的事实以适应你的观点,这可能会导致深刻的宗教信仰和致命的缺陷等等,像我对玻尔兹曼机的信念,但我认为这是正确的。

如果你有可靠的好直觉,你应该信任它们。如果你的直觉不好,怎么做都没用了。所以你不妨信任它们。

全力以赴,用多模态数据训练更大的模型

Hellermark:这是一个非常好的观点。当你看正在进行的研究类型时,你认为我们是不是在把所有的鸡蛋放在一个篮子里。我们是否应该在领域内更多样化我们的想法?还是说你认为这是最有希望的方向,所以我们应该全力以赴?

Hinton:我认为拥有大型模型并在多模态数据上训练它们,即使只是为了预测下一个词,这是一个非常有希望的方法,我们应该全力以赴。显然,现在有很多人在做这件事,还有很多人在做一些看似疯狂的事情,这是好事。但我认为让大多数人走这条路是没问题的,因为它运作得非常好。

Hellermark:你认为学习算法真的那么重要吗,还是说规模更重要?是否有数百万种方法可以让我们达到人类级别的智能,还是有一些我们需要发现的特定方法?

Hinton:是的,关于特定的学习算法是否非常重要,是否有很多学习算法可以完成这项工作,我不知道答案。但在我看来,反向传播在某种意义上是正确的事情。获得梯度,这样你就可以改变参数让它工作得更好,这似乎是正确的事情,而且它取得了惊人的成功。可能还有其他的学习算法,它们以不同的方式获得相同的梯度,并且也能工作。我认为这都是开放的,并且是一个非常有趣的问题,即是否有其他你可以试图最大化的东西,会给你好的系统。也许大脑正在这样做,因为它很容易。反向传播在某种意义上是正确的事情,我们知道这样做非常有效。

一生最自豪的成就:玻尔兹曼机的学习算法

Hellermark:最后一个问题。回顾你几十年的研究,你最自豪的是什么?是学生?还是研究?

Hinton:玻尔兹曼机的学习算法。它非常优雅,可能在实践中没有希望,但这是我最享受的事情,我与 Terry 一起开发了它,这是我最自豪的,即使它是错误的。


论文链接:https://www.cs.toronto.edu/~fritz/absps/cogscibm.pdf

Hellermark:你现在花最多时间思考的问题是什么?

Hinton:在 Netflix 上下个剧该看什么。



© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
大模型预测,下一个token何必是文字?一个小技巧,解锁ChatGPT「预测未来」?上帝视角下的蓝天白云?大模型改变气象预测格局 | 大模型一周大事阶跃星辰:大模型「new game」里的新玩家这3瓶冷门宝藏,值得干皮全力以赴!北大字节开辟图像生成新范式!超越Sora核心组件DiT,不再预测下一个token今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理遛狗感遇答案抽取正确率达96.88%,xFinder断了大模型「作弊」的小心思工党赢得关键席位. 汇丰主席预测下月降息. 服务业增长新高. 伦敦月租超2600镑.天变AI教父Hinton最新万字精彩访谈:直觉,AI创新的洞见和思考,未来​特斯拉中国版FSD或与百度合作/高合最晚将在 5 月初正式复工复产/小红书内测自研大模型「小地瓜」思乡思兮归乡打通AI「任督二脉」,国产自研通用大模型「砭石」实力迈向AGIGeoffrey Hinton:用更大模型「预测下一个词」值得全力以赴 | 5Y View拜登告诉20多位州长:我会全力以赴重磅|中国民航局官宣:全力以赴增加国际客航班!温哥华回国票价这么转最便宜?OpenAI华人女科学家万字详解大模型「外在幻觉」扎克伯格最新2万字访谈:价值百亿美金的“最强开源大模型”Llama3及背后的一切小红书内测自研大模型「小地瓜」,社交和搜索是落地方向丨36氪独家HeyGen 创始人万字访谈:没有自研大模型,AI 视频公司如何做到 3500 万年收入?|Z Circle夜读万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化新加坡未来总理黄循财:将全力以赴!钉钉发布 AI 搜索!不像百度也不像秘塔,还集齐国产大模型「七龙珠」今日arXiv最热NLP大模型论文:微软:用大模型分析用户满意度,让智能系统更善解人意大模型的“瘦身”革命:巨头逐鹿轻量化大模型 | 大模型一周大事单个4090可推理,2000亿稀疏大模型「天工MoE」开源美国乒乓球女队华裔队员备战奥运全力以赴,享受过程黄仁勋最新专访:如果不全力以赴,英伟达可能会在30天内破产大模型「上车」,小鹏交出了自己的答卷遛狗日常,睹物思乡小红书内测自研大模型「小地瓜」,社交和搜索是落地方向丨Long China 50独家扯白||为什么章子怡也不再“全力以赴”了?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。