普林斯顿科学家全新「反向图灵测试」:没有「灵智」的AI才会反社会
新智元报道
新智元报道
【新智元导读】AI的能力是强大一点好?还是弱小一点好?
ChatGPT的强大让人类感受到了威胁,或许几年、几十年以后,人类真的要面对疯狂的机器?
普林斯顿神经科学家Michael Graziano博士最近在华尔街日报发表了一篇评论,他认为意识才是关键,人类正是因为有了意识,才能在社会中和谐生存;人工智能如果没有意识,就会成为一个反社会者。
ChatGPT可以进行对话,但人工智能最重要的目标是让它理解思想上的含义。
ChatGPT目前还没有诞生灵智(意识),所以我们实际上应该为ChatGPT的「弱小」而感到恐慌。
文章中同时对如何测试机器人是否有意识等问题进行讨论,作者还基于「原版图灵测试」设计了一个简单的「反向图灵测试」。
Graziano博士是普林斯顿大学的心理学和神经科学教授,主要研究方向为意识的大脑基础。目前看来,大脑对事物有一种内在的、主观的体验,即一种非物理的、无法解释的体验。
Graziano博士从科学的角度提出了一种具体的、机械化的意识理论,试图解决以下问题:大脑是如何得出那种自我描述的?这种自我描述方式的适应性优势是什么?大脑中的哪些系统在计算这些信息?当这些系统被损坏时会发生什么?它们是在什么时候以及如何演变的?
如何判断AI是否有意识?
如何判断AI是否有意识?
ChatGPT虽然只是一个人工智能聊天机器人,但却在技术圈引起了巨大的轰动。
ChatGPT具有惊人的对话能力,背靠一个巨大的人工神经网络,可以轻松模仿人类的大脑,其训练过程依赖于海量的互联网信息资源,处理的文本数量比地球上任何一个人一生中读过的文本量都要多得多。
经过训练后,它可以流畅地回答问题,甚至可以模仿特定人物的口气来回答问题。
我十几岁的儿子最近使用ChatGPT,让它模仿卡尔·马克思来讨论政治问题。
作为一个专门研究意识的大脑机制的神经科学家,我发现与聊天机器人交谈是一种令人不安的体验。
他们有意识吗?可能没有。
但考虑到科技发展的速度,它们在未来几年内会不会有意识?几年内会有吗?我们又如何才能知道呢?
要想知道一台机器是否有或能够理解类似人类的意识,这不仅仅是一个科幻小说中的假想。人工智能的发展是如此迅速,以至于它可能很快就会对人类构成威胁。
我们正在制造比我们更聪明的机器,并让它们来控制我们的世界。我们如何才能建立人工智能,使其与人类的需求相一致,而不是与我们相冲突?
尽管听起来很反常,但创造一个良性的人工智能可能需要让它「更有意识」,而不是削减意识。
关于人工智能最常见的误解之一就是,如果它是智能的,那么它一定是有意识的;如果它是有意识的,那么它就是自主的,有能力接管世界。
但随着我们对意识的了解,这些想法似乎并不正确,一个能做出复杂决策的自主系统不需要意识。
关于意识最重要的就是,对人类来说,它不仅仅是关于自我的。我们可以在自己身上看到它,但我们也能感知到它或将它投射到我们周围的世界。
意识是进化论赋予我们的工具包中的一部分,使我们成为有同情心的亲社会物种。没有意识的话,我们就必然是反社会者。
如果没有意识的概念,或者不了解其他生物也有意识,机器就是反社会者。
我们现在拥有的唯一诊断机器意识的工具就是图灵测试,一个以英国计算机科学家阿兰-图灵命名的思想实验。
在最常见的版本中,图灵测试意为,如果一个人与一台机器进行对话,并将其反应误认为是一个真正的人类的反应,那么该机器就可以被视为具有有效的意识。
图灵测试承认,我们只能从外部对另一个生命体的意识进行判断,基于他、她或它的交流方式。但该测试的局限性是非常明显的,毕竟,一只宠物狗不能进行对话,也不能像人一样通过图灵测试,这是否意味着它没有意识?
如果你真的想让一台机器通过测试,你可以让它对一个小孩子说几句话,它甚至可能骗过一些成年人。
事实上,图灵测试并不能揭示机器或像ChatGPT这样的计算机程序内部发生了什么,相反,它真正测试的是人类参与者的社会认知能力。
我们进化为社会动物,大脑本能地将意识、机构、意图和情感投射到我们周围的物体上,我们有能力看到一个充满思想的世界。
古代的万物有灵论(ancient animistic beliefs)认为,每条河流和每棵树都有一个灵魂。出于类似的原因,人们很容易在月亮和发霉的吐司等随机物体中看到类似人类的面孔。
阿兰-图灵在1950年的一篇论文中提出的原始测试比今天人们谈论的版本更复杂。值得注意的是,图灵对「意识」只字未提;他从未深入研究过机器是否有主观经验,他只是问它是否能像人一样思考。
图灵想象了一个「模仿游戏」(imitation game),玩家必须确定两个人(A和B)的性别B。其中一个是男人,一个是女人,但玩家无法看到他们,只能通过交换输入的问题和答案来了解他们。
A欺骗性地回答问题,如果玩家错误地识别了他们的性别,那A就赢得了游戏;而B如实回答,如果玩家正确地识别了他们的性别,那B就赢得了游戏。
图灵的想法是,如果A或B被机器取代,而机器能像真人一样「经常」赢得游戏,那么它一定掌握了人类思维的微妙之处,即争论、操纵和猜测其他人在想什么。
图灵的测试是如此复杂,以至于负责推广他的工作的人很快就将其简化为一台机器与一个人对话。
但最初的测试的全部意义在于其奇异的复杂性:社会认知是困难的,需要一种心智理论,即知道其他人有心智,并有能力猜测其中可能存在的东西。
如果我们想知道一台计算机是否有意识,那么,我们需要测试计算机是否理解有意识的头脑是如何互动的。
换句话说,我们需要一个反向的图灵测试,让我们看看计算机是否能分辨出它是在与人类还是另一台计算机交谈。如果它能区分的话,那么也许它知道什么是意识。
ChatGPT肯定还不能通过这个测试:它并不知道自己是在回应一个有思想的活人,还是一系列预先设定好的问题。
一个能够做出重大决定的反社会机器将是非常危险的。
目前,聊天机器人的能力仍然有限;它们本质上是玩具。
但是,如果我们不对机器意识进行更深入的思考,在一年或五年内,我们可能会面临一场危机。
如果计算机无论如何都会比我们更聪明,那么赋予它们更多类似人类的社会认知可能是我们使它们与人类价值观相一致的最好希望。
微信扫码关注该文公众号作者