Redian新闻
>
Nature:超越ChatGPT,思维更像人类的人工智能诞生,具备了人类举一反三的能力

Nature:超越ChatGPT,思维更像人类的人工智能诞生,具备了人类举一反三的能力

公众号新闻
撰文丨王聪
编辑丨王多鱼
排版丨水成文

人类非常擅长学习新概念,并将其与现有概念系统地结合起来。 例如,一个小孩子一旦学会了如何“跳跃”,那么他就会很快理解并学会“向后跳跃”或“跳过障碍物”。这种将新老概念结合的能力也被称为系统泛化(Systematic Generalization)


早在1988年,研究人员就提出人工网络因为缺少系统泛化这种能力,所以不能作为人类认知的可靠模型。这也带来了一场持续至今的激烈争论,在这35年里,神经网络取得了许多重大突破,例如自然语言处理,但仍很难证明其具有系统泛化的能力。


而最近,Nature 期刊发表的一篇论文报道了一个具有类似人类系统泛化能力的神经网络。


2023年10月25日,纽约大学的 Brenden Lake 和西班牙加泰罗尼亚研究所的 Marco Baroni 在国际顶尖学术期刊 Nature 上发表了题为Human-like systematic generalization through a meta-learning neural network 的研究论文。


该研究创造了一个神经网络,该人工智能(AI)系统在将新学到的单词添加到现有的词汇表中并在新的上下文中使用它们的能力,超越了ChatGPT,表现与人类相当,而这一能力正是人类认知能力的关键——系统泛化


这项研究研究结果挑战了一个已经存在35年的经典观点,还可能实现比当今最好的AI系统更自然的人机对话。尽管ChatGPT等基于大语言模型的AI系在许多情况下都擅长对话,但在其他情况下却表现出明显的差距和不一致性。 该研究开发的神经网络具有类似人类的表现,表明了人类在训练网络系统化的能力方面取得了突破性进展。



在语言上,人类同样有着强大的系统泛化能力,我们可以轻松的将新学到的词汇应用于其他环境。但神经网络不像人类这样天生就具备系统泛化的能力,神经网络是一种模仿人类认知的方法,在人工智能研究中占据了主导地位。与人类不同,神经网络在使用一个新词汇之前,需要经过许多使用该词汇的示例文本的训练。


人工智能领域的研究人员已经激烈争论了35年时间——如果神经网络无法被证明具有系统泛化能力,那么它们是否能作为人类认知的可靠模型?


在这项研究中,Brenden Lake 和 Marco Baroni 用证据表明,神经网络能够掌握与人类相似的系统泛化能力他们使用一种元学习(Meta-Learning)方法,开发了名为合性元学习(Meta-Learning for Compositionality)的新方法,其具有优化组织能力(按逻辑顺序组织概念的能力),该系统能在动态变化的不同任务中学习,而不是只在静态数据集上优化(即之前的标准方法)





Brenden Lake

论文作者首先测试了25个人,看他们在不同情况下使用新学习的单词的能力。他们通过用一种由两类无意义伪造词组成的伪语言来测试他们,以确保参与者是第一次学习这些单词。像“dax”、“wif”和“lug”这样的基本单词代表“jump”、“skip”等基本的、具体的动作,更抽象的功能单词,例如“blicket”,“kiki”和“fep”,指定了使用和组合原始单词的规则,从而产生了像“跳三次”或“向后跳跃”这样的词组。


参与者接受了训练,将每个基本单词与特定颜色的圆圈联系起来,红色圆圈代表“dax”,蓝色圆圈代表“lug”。然后,向参与者展示了基本单词和功能单词的组合,以及当功能应用于基本单词时产生的圆圈模式。例如,短语“dax fep”用三个红色圆圈表示,而“lug fep”用三个蓝色圆圈表示,这表明fep代表了一个抽象规则——将一个基本单词重复三次。 然后,测试他们应用这些抽象规则的能力,他们必须选择正确的颜色和圆圈数量,并将它们按适当的顺序排列。



正如预期的那样,人类参与者在这项学习和测试中表现出色,平均有80%选择了正确的颜色和圆圈。


然后,研究团队训练了一个神经网络来完成与上述人类参与者所做的类似任务,该方法允许人工智能在动态变化的不同任务中学习,而不是只在静态数据集上优化(这是训练神经网络的标准方法)。为了使神经网络更像人类,论文作者训练它来重现在人类测试结果中观察到的错误模式。当神经网络进行新的测试时,它的答案几乎与人类参与者的答案完全一致,在某些情况下甚至超过了人类的表现。



相比之下,ChatGPT的最新升级版GPT-4在进行同样的测试时遇到了困难,平均错误率为42%-86%。这一表现,相比该研究中的神经网络以及人类,都要差得多。


这项研究可能会使神经网络成为更有效的学习者,这将减少训练ChatGPT等系统所需的庞大数据量,并将可能产生的“幻觉”最小化。当人工智能感知到不存在的模式并产生不准确的输出时,就会发生“幻觉”。


人类比机器更擅长系统泛化。如果一个人知道呼啦圈、杂耍和滑板的含义,他们就能理解将三者结合在一起的含义。而这篇论文展示了机器如何提高这种能力并模拟人类行为。

虽然元学习方法无法让该神经网络对训练之外的任务进行系统泛化,但论文作者认为,他们的这项研究结果有助于今后开发出行为更像人类大脑的人工智能。


论文链接
https://www.nature.com/articles/s41586-023-06668-3
本文经授权转载自微信公众号:生物世界(ID: ibioworld),作者生物世界


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Google语言模型反击战!部分性能超越ChatGPT!瑞幸+茅台破圈!运营+产品思维,能举一反三,拿下产品offer吗?晚讯 |《自然》思维更像人类的AI诞生、《新英格兰医学杂志》首次同期刊发中国学者两项重要研究成果资GPT-4推理更像人了!中国科学院提出「思维传播」,类比思考完胜CoT,即插即用Meta再放「长文本」杀器Llama 2-Long:70B尺寸登顶最强「32k上下文」模型,超越ChatGPTNeurIPS 2023 | 模仿人类举一反三,数据集扩增新范式GIF框架来了Nature:基于人工智能的开源软件,正在标准化显微镜生成数据的图像格式35年首次证明!NYU重磅发现登Nature:神经网络具有类人泛化能力,举一反三超GPT-4Nature:全世界33%博士后每天使用ChatGPT!不用AI工具影响找工作红色日记 12.21-31这个本班竟然没人讨论?Nature:不可避免的(unavoidable )南极西部冰盖融化会在21世纪内实现讯飞星火V3.0发布!整体超越ChatGPT!Nature:神经网络“举一反三”能力甚至超人类最后机会|大摩大神带你刷题,面试考点全面覆盖,经典求职圣经一遍刷完,学会举一反三,直通Offer!盖格计数器,新时代的安全标配一个人最应该具备的能力:“翻篇”能力姚期智领衔提出大模型「思维」框架!逻辑推理正确率达98%,思考方式更像人类了ChatGPT突破图灵测试:在“像人”和“不像人”方面都很行 |《自然》长文百川智能推出全球最长上下文窗口大模型Baichuan2-192K,一次可输入35万字超越Claude2早练,听电台知某外企搬迁Ask-paper全新升级上线,AI文献阅读助手助您轻松驾驭文献海洋!超越ChatGpt!一套爆笑科幻,给你讲清楚人工智能时代,你需要具备的能力。第二例猪心脏移植手术患者现状:已能站立和康复训练,未出现排异反应;思维更像人类的AI诞生 | 环球科学要闻Nature顶级子刊83分重磅综述!为你细数ChatGPT时代,人工智能在医学中的应用!OpenAI已经发现会威胁人类的人工智能技术ChatGPT 超级进化一周:每天诞生上千个 GPT,全世界疯狂了日本排放核废水与大地震 海鲜还能吃吗?Nature | 30多年前的断言被打破了?大模型具备了人类水平的系统泛化能力讯飞星火:整体超越ChatGPT,医疗超越GPT4!一手实测在此讯飞星火升级 3.0:整体超越 ChatGPT,2024 年将实现对标 GPT-4只需1%参数,效果超越ControlNet,新AI绘画控制大师来袭「简报」Shapiro 州长访问卡耐基梅隆大学——人工智能的诞生地,签署关于生成式人工智能的行政命令;拓展:以新方式建模神经元语言艺术!都是举一反三的人才【回国记录】解放碑下埋藏了什么?限时领 | 史上最全小学奥数《举一反三》1-6年级讲解视频+讲义+练习,省下几万块在家炼成小牛娃!澳洲教育大改革!明年起全面允许学生使用ChatGPT,“拥抱人工智能”
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。