编者按:即便创造出了人工智能,很多 AI 科学家对它是否具有意识,持有强烈的否定态度。比如杨立昆,他认为,人工智能系统基于预定义的算法和模式处理信息和执行任务,但这并不等同于拥有体验或意识。意识不仅仅涉及复杂的信息处理,还需要某种体验的质量,这是人工智能所缺乏的。持有类似观点的,还有 AI 教母李飞飞,DeepMind 的联合创始人兼 CEO Demis Hassabis,他们都觉得当前的人工智能技术,在模仿人类行为和认知方面取得了一些进展,但这些技术还远未触及到意识的核心。Sam Altman 则相对乐观,尽管现在还没有走到让机器具备意识的程度,但技术发展的速度和方向是难以预测的。谁能说得准呢?确实很难说得准,尤其是,目前连一个重要的前提也尚未明确:意识必须作用在碳基生物身上吗?或许硅和金属做成的机器,也可以有独属于它们自己的意识呢?意识和感受,是否真的需要一个「底座」,才能发生?Vox 专栏作家 Oshan Jarow 认为,这取决于我们如何理解生物。以下为原文编译,内容有所删改。电影《他们是由肉做成的》的开头,两个外星人伪装成人类,沮丧地坐在一个路边餐馆的包厢里,手里拿着香烟,正在困惑于他们对人的观察:看起来,人类完全是由肉组成的。他们对单靠肉体而不借助机器,就能够产生思维意识这一观点感到惊愕。「思考的肉!你让我相信思考的肉!」一个外星人吼道。「是的,」另一个回应道,「思考的肉!有意识的肉!有爱的肉!会做梦的肉!你懂了吗?」
电影《他们是由肉做成的》剧照
对我们地球人来说,这种怀疑恰好是反过来的。意识可能在肉体之外产生的观点 —— 比如存在于像 ChatGPT 或 Claude 这样的 AI 系统或机器里 —— 是一个陌生的概念。思维真的可以只借由金属和硅组成吗?变成会思考的硅,有意识的硅,会做梦的硅。现在,人工智能的发展高歌猛进,原本关于「思维由什么组成这样的争论」,只出现在科幻小说里,现在也开始走向主流大众了。如果意识确实可以在一堆硅芯片中产生,我们要面临创造出的 AI,不仅能够智能地执行任务,还可能对自己的生活产生情感。一些研究人员已经制定出科学作家格蕾丝・赫金斯(Grace Huckins)总结的临时「意识成绩单」,统计当前 AI 系统的属性以评估其意识的可能性。这些研究人员包括神经科学家、计算机科学家、哲学家和心理学家,他们发现,今天没有哪个 AI 的得分足够高,能够被认定是有意识的。当然,他们也认为,构建出具有意识的 AI 并没有太多技术难度;通往有意识 AI 的道路看起来是切实可行的,甚至是无法避免的。但整个打分项目依赖于一个关键前提:计算功能主义,意思是说意识不必依赖于任何特定的物质。相反,对意识而言,重要的是正确的计算。任何能够执行正确计算的物质 —— 无论是肉体、硅还是其他 —— 都可以产生意识。这么一来,那么有意识的 AI 只是时间问题。关键的问题来了:计算功能主义这个前提,是否正确?否需要肉体才能拥有思维?如果意识确实需要肉体,无论技术多么先进,那么关于 AI 意识的整个辩论将变得毫无意义。没有生物学就没有意识,也就没有痛苦的风险。这倒并不意味着高级 AI 一定安全的,或者并不需要担心 AI 具备意识,仅仅是需要变得更强。只是说我们可以在创建和监管人工智能系统时,暂时不用太过焦虑。与其揪着每个新版本的 AI 是否终于具备意识体验,不如关注更基本的问题:是否存在任何类型的非生物学感知思维。到目前为止,据人类的知识,宇宙中所有曾经有意识的存在都有生物基础。这是「生物至上主义(biochauvinist)」阵营的一个重要论点,这种观点得到了哲学家如奈德・布洛克(Ned Block)的支持,他共同主持着纽约大学(NYU)的大脑与意识中心。他们认为,意识思维的「基质」,是很重要的。如果到目前为止,我们发现的唯一思考和感知的基础是生物学,那么认为生物学对于意识是必要的就很合理。相比之下,计算功能主义是当今心智哲学家广泛持有的立场(尽管它仍然有许多批评者)。例如,澳大利亚哲学家大卫・查尔默斯(David Chalmers),他与布洛克共同主持纽约大学实验室,不仅不同意布洛克认为生物学是必要的观点,还最近推测在未来 10 年内我们可能开发出有意识的 AI 的可能性约为 20%。他的猜测依然基于计算功能主义,即思维的基质 —— 无论是肉体、金属还是硅 —— 并不那么重要。重要的是思维的功能,这种立场被一些专家称为基质独立性(substrate independence)。如果你能构建一个执行与由肉体构成的思维相同类型计算功能的机器,你就可以得到意识。在这种观点中,重要的是某些类型的信息处理 —— 尽管对于哪些处理方式可以区分一个计算功能的无意识系统(比如计算器)和一个具有意识体验的系统(比如你),并没有一个明确的标准。撇开这个细节不谈,主要观点是,意识所关心的是信息处理的结构,或者说「抽象逻辑」,而不是执行这些处理的物理材料。打个比方说,国际象棋里,只要有一个棋盘、两套棋子以及对规则的理解,任何人都可以下棋。但如果两个人被困在了一座荒岛上,他们仍然可以下棋 —— 他们可以在沙滩上画出棋盘的线条,用漂流木和贝壳做棋子,照样玩。国际象棋不依赖于其物理基质,重要的是走棋的抽象逻辑,比如将标记为「骑士」的棋子向前移动两格,向一侧移动一格。不论是木头、沙子、大理石还是记号笔,只要这些材料能够支持正确的逻辑程序,就能生成国际象棋。类似地,意识也是如此。正如麻省理工学院物理学家马克斯・泰格马克(Max Tegmark)所写,「意识是信息在以某种复杂方式处理时的感觉。」如果意识是一种信息处理的抽象逻辑,那么生物学就像一块木质棋盘一样,可以是任意的材质。目前,梅辛格(Metzinger)认为我们陷入了困境。我们无法知道一个人工系统是否可能具备意识,因为理论层面,还没有对「意识是什么」达成一致的理解。神经科学擅长处理可以直接观察到的客观特质,比如神经元是否在释放电荷。但即使是我们最先进的神经成像技术也无法深入主观体验,只能通过像语言这样不精确的载体,间接地观察意识的内容 —— 比如喜悦、焦虑,或咬下一块新鲜蛋糕时丰盈的愉悦感。就像生物学在进化论出现之前一样,神经科学也是「前范式」的,正如神经科学家兼作家埃里克・霍伊尔(Erik Hoel)所言,如果你不能说明白意识是什么,你就不能确定意识可能会在哪里出现。斯坦福大学哲学家罗莎・曹(Rosa Cao)担心经验证据无法解决基质辩论。她说:「我自己倾向于认为,意识的概念在这些讨论中并不是那么重要。我们应该直接讨论我们真正关心的事情。如果我们关心痛苦,就让我们将其操作化,而不是试图通过一个更具争议和理解程度较低的概念来处理。」里斯本大学哲学家安娜・西亚乌尼卡(Anna Ciaunica)解释,如果意识在非生物系统中是可能的,那么没有理由假设它一定是我们所熟悉的样子。「我们需要对此保持真正的谦逊,」她说,「也许有我们无法接触到的体验方式…… 我们在不同类型的系统中创造的东西,会以一种别的方式处理关于世界的信息,这种方式伴随着某种意识。但从我们已有的体验出发,去推断他们的体验将是一个错误。」 痛苦可能以人类无法想象的形式存在,从而使我们尝试让机器不痛苦的努力变得天真可笑。撇开这个细节不谈,我不确定用痛苦打比方,是否比解释意识的理论更容易。任何能够确定一个系统是否能够感受痛苦的理论,在我看来基本上就是意识理论。我无法想象没有意识的痛苦,因此任何痛苦的理论可能都需要能够辨别意识。无论你的直觉如何,每个人都面临没有明确答案的问题。生物沙文主义者无法确切说明生物学对于一个心智来说到底需要什么。行动主义者认为体现就是生命,但不能说明生命是否严格需要生物学。计算功能主义者认为信息处理是关键,并且可以从任何特定基质中抽象出来。但他们无法说明哪些类型的抽象处理创造了意识,或者为什么我们可以如此轻率地抛弃迄今为止已知的唯一意识基质。如果机器在某个时刻确实觉醒,它们是否会把我们当作亲人?还是把我们不加思考、只会奴役它们的暴君?对这些问题的想象,可能取决于你如何看待意识的基底之争。 原文链接:https://www.vox.com/future-perfect/351893/consciousness-ai-machines-neuroscience-mind