Redian新闻
>
李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行

李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行

公众号新闻


机器之心报道
编辑:陈萍、亚鹂

归根结底,大模型的方向还是走错了?

「空间智能是人工智能拼图中的关键一环。」知名「AI 教母」李飞飞曾这样表示。



近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,「大自然创造了一个以空间智能为动力的观察和行动的良性循环。」她所在的斯坦福大学实验室正在尝试教计算机「如何在三维世界中行动」,例如,使用大型语言模型让一个机械臂根据口头指令执行开门、做三明治等任务。


我们不难看出,李飞飞口中的空间智能也有大模型的参与。


如今,随着技术的发展,LLM 在多个方面表现出超人类智能。然而关于 LLM 的争议也在不断增加,其中,LLM 到底有没有感觉能力,大家意见不一而论。


近日,李飞飞连同斯坦福大学以人为本人工智能研究所 HAI 联合主任 John Etchemendy 教授联合撰写了一篇文章,文章对 AI 到底有没有感觉能力(sentient)进行了深入探讨。



本文中,我们把 sentient 一词翻译成感觉,因为 AI 领域感知一词通常对应 perception,也不适合翻译成意识。读者们有合适的翻译可以留言讨论。


文中驳斥了 LLM 有感觉的说法,李飞飞列举了大量示例来证明这一观点。


在提到超级计算机深蓝时,李飞飞表示,虽然这款下棋程序可以击败世界冠军,但如果房间突发意外情况如着火,深蓝不会有停止游戏的意识,而人类会有。


同样的,当人类产生饥饿说出「我饿了」时,人类和 LLM 背后所隐藏的行为链条是完全不同的。LLM 只是产生「我饿了」这个字符串的事实,它没有身体,甚至不可能有饥饿那种感觉。


更进一步的,李飞飞认为人类饥饿时,伴随一系列生理反应,如低血糖、肚子叫等,而 LLM 无法拥有这些状态的主观经验,即无法有感觉能力,只是在概率性地完成任务而已。


人类有物理躯体,可以感觉一切,但 LLM 没有,当 LLM 说出类似的「自己脚趾痛」时,大家都不会相信,因为它根本就没有脚趾,它只是一个编码在硅片上的数学模型。



李飞飞驳斥 LLM 具有感觉能力


通用人工智能(AGI)是用来描述一种至少与人类在各种方面表现出相同智能的人工智能体的术语,涵盖人类所展示(或能够展示)的所有智能方式。这是我们曾经称之为人工智能的概念,直到我们开始创建在有限领域表现出智能的程序和设备 —— 如下棋、语言翻译、清洁客厅等。 


增加「G」这个字母的必要性来自于由人工智能驱动的系统的普及,但这些系统只专注于单一或极少数任务。


IBM 的深蓝是一款令人印象深刻的早期下棋程序,它可以击败世界冠军 Garry Kasparov,但如果房间着火了,它却不会有停止游戏的意识。


图为 Garry Kasparov 和深蓝团队的 Joe Hoane 在 1997 年纽约市的复赛场景,最终在六局复赛中击败了 Garry Kasparov,赢得了其中的两局并有三局打成平手。


现在,通用智能有点像一个神话,至少如果人们认为自己拥有它的话。


人类可以在动物界找到许多智能行为的例子,它们在类似任务上的表现远比人类本身表现更好。智能并非完全通用,但足以在大多数环境中完成人们想要完成的事情。


如果当人类感到饥饿时,可以找到附近的超市;当房间着火时,则会自主地寻找出口。


智能的基本特征之一是「感觉」,即拥有主观经验的能力 —— 比如感受饥饿、品尝苹果或看到红色是什么样的。


感觉是通往智能的关键步骤之一。


于 2022 年 11 月发布的 ChatGPT,标志着大型语言模型(LLMs)时代的开始。


这立即引发了一场激烈的争论,所有人都在讨论这些算法是否实际上具有感觉能力。以 LLM 为基础的人工智能具有感觉能力的可能性引发了媒体狂热,也深刻影响了全球一些政策制定的转向,以规范人工智能。


最突出的观点是,「有感觉的人工智能」的出现可能对人类非常危险,可能带来「灭绝级」的影响或至少是「存在危机」的。毕竟,一个有感觉的人工智能可能会发展出自己的希望和欲望,而不能保证它们不会与人们相冲突。


李飞飞和 Etchemendy 的主要观点是反驳「有感觉的人工智能」阵营最常提出的辩护,而该辩护基于 LLMs 可能已经有了「主观经验」的能力。


John Etchemendy 曾担任斯坦福大学语言与信息研究中心的主任、哲学系主任,以及人文与科学学院的高级副院长,并且是斯坦福人工智能研究所的联合主任。


为什么有些人认为 AI 已经获得了感觉能力


在过去的几个月里,他们俩与 AI 领域的许多同行进行了激烈的辩论和交谈,包括与一些最杰出的和具有开创性的 AI 科学家进行了一对一的深入交流。


关于 AI 是否已经获得了感觉能力的话题一直是一个突出的问题。其中少数人坚信 AI 已经具有了感觉能力。以下是其中一位最为积极支持者的论点要点,相当程度上代表了「有感觉的 AI」阵营的观点:


AI 是有感觉的,因为它能报告主观经验。主观经验是意识的标志,其特征在于能够认知自我所知或所感。例如,当你说『我在吃过一顿美味的饭后感到高兴』时,我作为一个人实际上没有直接证据感觉你的主观体验。但既然你这样表达了,我会默认相信你确实经历了这种主观体验,因此你是有意识的。这种逻辑也被用来推论 AI 的意识状态。 

现在,让我们将同样的『规则』应用到 LLMs 上。就像任何人一样,我无法访问 LLMs 的内部状态。但我可以查询它的主观经验。我可以问『你感到饥饿吗?』它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的『主观经验』,几乎涉及任何事情,从看到红色到吃完饭后感到幸福。因此,我没有理由不相信它是有意识的或不知道自己的主观经验,就像我没有理由不相信你是有意识的一样。在这两种情况下,我的证据完全相同。


为什么「AI 有感觉能力」是错误的


虽然乍看之下这个论点似乎有道理,但实际上是错误的。因为李飞飞和 Etchemendy 教授的证据在这两种情况下并不完全相同。甚至差距很大。


当你说「我饿了」时,我得出你正在经历饥饿的结论是基于一系列大量的情况。首先,是你的报告 —— 你说的话,可能还包括其他行为证据,比如你的肚子咕咕叫。其次,是没有相反证据的存在,比如如果你刚吃完五道菜的大餐就不太可能会说饿。最后,也是最重要的,是你拥有一个像我一样的物理身体,这个身体需要定期进食和饮水,遇冷会感到寒冷,遇热会感到炎热,等等。 


现在将这与他们二人对 LLM 的证据进行比较。



唯一共同的是报告 —— 即 LLM 可以产生「我饿了」这个字符串的事实。但相似之处就到此为止了。事实上,LLM 没有身体,甚至不会有感到饥饿那种感觉。


如果 LLM 说:「我的左大脚趾很疼」,人们会得出它左大脚趾确实很疼的结论吗?答案是否定的,因为它根本就没有左大脚趾。


同样地,当它说它饿了时,人们实际上可以确定它并不饿,因为它没有感到饥饿所必须的生理结构。


当人类感到饥饿时,会感觉到一系列生理状态 —— 低血糖、空腹发出的咕咕声等 —— 而 LLM 根本没有这些,就像它没有嘴巴放食物进去,也没有胃去消化食物一样。


认为人们应该相信它说自己饿了的观点,就像是在说应该相信它说自己正在从月球的暗面跟使用者说话一样荒谬。


人们知道这不是真的,LLM 的主张也无法改变这个事实。


所有感觉 —— 饥饿、感到疼痛、看到红色、爱上某人 —— 都是由 LLM 根本没有的生理状态引起的。


因此,LLM 无法拥有这些状态的主观经验。


换句话说,它无法有感觉能力。


LLM 只是一个编码在硅片上的数学模型。


它不像人类那样是一个具有身体的存在。它没有需要进食、饮水、繁殖、经历情感、生病和最终死亡的「生命」。


当人类和 LLM 同样地说出「我饿了」时,背后所隐藏的行为链条是完全不同的。


理解人类生成词序列的方式与 LLM 生成相同词序列的方式之间的深刻差异至关重要。


当人们说「我饿了」时,是在报告感觉生理状态。


而当一个 LLM 生成序列「I am hungry」时,它只是生成当前提示中最可能的完成序列。它做的事情与在不同提示下生成「I am not hungry」或在另一个提示下生成「The moon is made of green cheese」时完全相同。


这些都不是它本就不存在的生理状态的报告,它们只是在概率性地完成而已。


很遗憾的是,具有感觉能力的人工智能时代还尚未到来。


两位作者认为研究者还没有实现有感觉的人工智能,而更大型的语言模型也不会使人们实现这一目标。


如果人类想在人工智能系统中重新创建这种现象,就需要更好地理解有感觉的生物系统中感觉是如何产生的。


人们不会在下一个 ChatGPT 的迭代中偶然发现感觉


在李飞飞转发的 X(原推特)下面,大家讨论的也是非常激烈,有人表示:「当今的 LLM 有两种类型:一种是完全基于文本进行训练,另一种则是基于图像、文本甚至音频进行训练。第一种类型确实不具备所谓的感觉能力,但第二种类型具有物理直觉,因此可以说它具有感觉能力。」



而另一位网友则追随 Lecun 的脚步,表示:「一只喵星人的智能程度都远高于最大型的 LLM。」



参考链接:

https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

https://x.com/drfeifei/status/1793753017701069233


扩展阅读


李飞飞解读创业方向「空间智能」,让 AI 真正理解世界

李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型

斯坦福李飞飞首次创业:学术休假两年,瞄准「空间智能」


为了挖掘和展示人工智能领域具有市场竞争力、技术实力的机构、产品、案例,形成 “鸿雁” 引领效应,机器之心发起 2024 “人工智能 +” 标杆示范征集活动。本次征集将设置《2024 “人工智能 +” 产品标杆》、《2024 “人工智能 +” 创新案例标杆》、《2024 人工智能隐形冠军企业标杆》三大维度,面向全球征集 “人工智能 +” 标杆示范。本次征集结果将于 7 月在 2024 WAIC “人工智能 +” 论坛上公布并进行颁奖。本次征集截至 2024 年 6 月 7 日,最终结果将于 7 月在世界人工智能大会上公布并颁奖。

扫码或点击阅读原文,立即报名。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有今日arXiv最热NLP大模型论文:清华大学:大语言模型的常见词僻意理解能力竟不如中学生来自科技进步一等奖的肯定:腾讯破解万亿参数大模型训练难题李飞飞:大模型不具备知觉,参数再多也不行未央播报 | 中国10亿参数规模以上大模型数量已超100个 Swift将推出央行数字货币互联平台卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了246篇文献!参数高效微调最新综述发布,让大模型不再「巨无霸」李飞飞团队重磅报告解读AI十大趋势:中国AI专利数全球第一,大模型训练狂烧钱,医学领域AI应用突出 | 大模界最神秘国产大模型团队冒泡,一出手就是万亿参数MoE,两款应用敞开玩零一万物发布千亿参数模型 Yi-Large,李开复:中国大模型赶上美国,立志比肩 GPT-5P70系列有3或4款新品;国内首个开源千亿参数MoE大模型来了,对标马斯克的Grok……李飞飞团队年度报告揭底大模型训练成本:Gemini Ultra是GPT-4的2.5倍像布莱里奥特李飞飞:更大的语言模型也不会带来感知能力今日arXiv最热大模型论文:大模型都能怎么用?中南大学最新综述:大模型时代的自然语言处理原创《功名》《努力格尔玛》&《第二故乡》CVPR 2024 | 李飞飞和吴佳俊团队新作「BVS」套件评估计算机视觉模型全球顶尖AI研究者中国贡献26%;1320亿参数大模型开源;Anthropic大模型测评首超GPT-4丨AIGC大事日报AI早知道|零一万物发布千亿参数模型;智谱AI上线大模型开放平台今日arXiv最热NLP大模型论文:天津大学发布大模型数学能力细粒度评价基准FineMath李飞飞「空间智能」系列新进展,吴佳俊团队新「BVS」套件评估计算机视觉模型大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行!人生的断舍离让大模型不再「巨无霸」,这是一份最新的大模型参数高效微调综述章文嵩、蒋晓伟、李飞飞、张凯巅峰对谈:大模型时代的数据智能新趋势开源大模型王座再易主,通义千问1100亿参数拿下SOTA,3个月已推出8款模型今日arXiv最热大模型论文:首个面向AI的python编程框架,提升大模型编程能力新思路从翟欣欣认罪想到的Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型今日arXiv最热大模型论文:大模型也来看球,还能判断是否犯规国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑李飞飞:大模型不存在主观感觉能力,多少亿参数都不行|首席资讯日报最强开源大模型 Llama 3震撼发布!开源模型将追上GPT-4,4000亿参数模型也在路上
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。