【新智元导读】Karpathy认为,AI智能体代表了AI的一种未来,它的发展需要从神经科学中汲取灵感,鼓励AI智能体领域的研究者再接再厉。
近日,OpenAI联合创始人,曾经TeslaAI总监,现在又重新返回OpenAI的Andrej Karpathy在一个开发者活动上,分享了自己对于AI智能体的看法。他先聊到了自己早期在OpenAI工作时(2016年左右),当时的业界潮流就是研究如何用强化学习的方法来改进AI智能体。
但是因为当时的技术所限,做出来的效果不好,于是他和OpenAI就改变了方向,开始做大语言模型了。但是5年之后的现在,AI智能体重新成为了一个非常有前途的方向。因为现在有了全新的技术手段来研究AI智能体,情况和2016年完全不同了。最简单的例子就是,现在没有人再像2016年那样用强化学习的方法来研究AI智能体了。因为在未来,如果AGI能够出现,将会充分发挥AI智能体的能力。
未来的AI智能体可能不是单独的个体,而是会出现非常多的AI智能体组织,甚至是AI智能体文明。因为一些技术趋势方向可能很容易构想,展望出来,但是要做成产品落地却很难。技术远景很容易设想出来,汽车在街区行驶的演示也很容易做出来,但是做出产品可能需要10年时间。AI智能体可能也属于这一类技术,应用场景很容易想象,前景让人兴奋,但是需要长期的技术发展和积累。就像深度学习早期的发展一样,AI智能体的发展可能会从神经科学中获得启发。
尤其是现在很多人都把大语言模型作为AI智能体解决方案的一部分。但是如何构建一个完整的,拥有人类所有认知能力的数字实体呢?显然,我们都认为需要某种潜在的系统来规划、思考和反思我们在做的事情。但是AI智能体中什么东西发挥着海马体的作用,来存储记忆,实现标记和检索等等的这些功能呢?我们大致已经了解如何构建视觉和听觉皮层,但还有许多的东西我们并不知道在AI智能体中到底意味着什么。比如潜意识的所在地——丘脑在AI Agents中又相当于什么呢?我专门带了一本神经科学方面的书,是有David Eagleman的《大脑与行为》,我发现这本书非常有趣,很有启发性。就像早期AI研究在设计神经元时所做的那样,从神经科学中汲取有趣的灵感,也许是我们应该重新尝试的方向。可能大家不一定知道,但是今天到场的大家构建的AI智能体已经处于AI智能体能力的最前沿。
现在所有正在做大语言模型的机构,比如OpenAI等,我觉得都没有处于这个领域的最前沿。举个例子,OpenAI非常擅长训练Transformer语言模型。如果某篇论文提出了一种不同的训练方法,那么我们OpenAI内部的Slack群组里大家会讨论说:但是对于AI智能体的论文出来的时候,我们所有人都会很感兴趣,会觉得很了不起。在这个领域内我们没有比你们懂得更多,我们和大家站在同一竞争的水平线上。
这就是我觉得在座的各位处于AI智能体最前沿的原因,这一点对于AI智能体的发展是非常重要的。https://twitter.com/gptdaocn/status/1673781206121578498