Redian新闻
>
OpenAI最强竞品训练AI拆解LLM黑箱,意外窥见大模型「灵魂」

OpenAI最强竞品训练AI拆解LLM黑箱,意外窥见大模型「灵魂」

公众号新闻



  新智元报道  

编辑:润
【新智元导读】Anthropic的模型可解释性团队,从大模型中看到了它的「灵魂」——一个可解释的更高级的模型。

为了拆开大模型的「黑箱」,Anthropic可解释性团队发表了一篇论文,讲述了他们通过训练一个新的模型去理解一个简单的模型的方法。

Anthropic发表的一项研究声称能够看到了人工智能的灵魂。它看起来像这样:

论文地址:https://transformer-circuits.pub/2023/monosemantic-features/index.html#phenomenology-fsa

在研究者看来,这个新的模型能准确地预测和理解原本模型中神经元的工作原理和组成机制。

Anthropic的可解释性团队最近宣布他们成功分解了一个模拟AI系统中的抽象高维特征空间。

创建一个可解释的AI去理解「AI黑盒」

研究人员首先训练了一个非常简单的512神经元AI来预测文本,然后训练了另一个名为「自动编码器」的AI来预测第一个AI的激活模式。

自动编码器被要求构建一组特征(对应更高维度AI中的神经元数量),并预测这些特征如何映射到真实AI中的神经元。

结果发现,尽管原始AI中的神经元本身不易理解,但是新的AI中的这些模拟神经元(也就是「特征」)是单义的,每特征都表示一个指定的概念或功能。

例如,特征#2663代表「God」这个概念。

激活它的训练语句中最强的一条来自「Josephus」的记录中「当God降下暴雪时,他前往Sepphoris」。

可以看到顶端的激活都是关于「God」的不同用法。

这个模拟神经元似乎是由一组真实神经元(包括407,182和259)组成的。

这些真实神经元本身与「God」没有太大关系,例如神经元407主要对非英语(尤其是重音拉丁字母)和非标准文本(如HTML标签)有响应。

但是在特征层面,一切都是井井有条的,当特征2663被激活时,它会增加文本中出现「bless」、「forbid」、「damn」或「-zilla」的概率。

这个AI并没有将「God」这个概念与怪兽名字中的「God」区分开来。这可能是因为这个简易AI没有足够的神经元资源来专门处理这个事。

但随着AI具备的特征数量增加,这种情况会发生改变:

在这棵树的底部,你可以看到当这个AI具有越来越多的特征时,它在数学术语中对「the」的理解是如何变化的。

首先,为什么会有一个数学术语中「the」的特定特征?这很可能是由于AI的预测需求——知道某些特定的「the」之后应该会跟随一些数学词汇,比如「numerator」或者「cosine」。

在研究人员训练的最小的那个只有512个特征的AI中,只有一个表示「the」的特征,而在具有16384个特征的最大AI中,这个特征已经分支出了一个表示机器学习中「the」的特征,一个表示复分析中「the」的特征,以及一个表示拓扑学和抽象代数中「the」的特征。

因此,如果能将系统升级到一个具有更多模拟神经元的AI,那表示「God」的特征很可能会分裂成两个——一个表示宗教中「God」的含义,另一个表示怪兽名字中「God」的含义。

后来,可能会有基督教中的God、犹太教中的God、哲学中的God等等。

研究小组对412组真实神经元和相应的模拟神经元进行了主观可解释性评估,发现模拟神经元的可解释性整体上比较好:

一些特征,比如表示「God」的特征,是用于特定概念的。

许多其他高度可解释的特征,包括一些最可解释的,是用于表示文本的「格式」,比如大写或小写字母、英语或其他字母表等。

这些特征有多常见呢?也就是说,如果你在相同的文本数据上训练两个不同的4096个特征的AI,它们会有大部分相同的4096个特征吗? 它们会都有某些代表「God」的特征吗?

或者第一个AI会将「God」和「哥斯拉」放在一起,而第二个AI会将它们分开?第二个AI是否就完全不会有表示「God」的特征,而是用那个空间存储一些第一个AI不可能理解的其他概念?

研究小组进行了测试,发现他们的两个AI模型是非常相似的!

平均而言,如果第一个模型中有一个特征,第二个模型中最相似的特征会有0.72的中值相关性。

看到了AI的灵魂

后续的工作将是什么呢?

今年五月,OpenAI试图让GPT-4(非常大)理解GPT-2(非常小)。他们让GPT-4检查了GPT-2的个307200个神经元,并报告它发现的内容。

GPT-4找到了一系列有趣的结果和一堆随机废话,因为他们还没有掌握将真实神经元投射到模拟神经元并分析模拟神经元的技巧。

尽管结果效果不明显,但这确实是非常雄心勃勃的尝试。

与Anthropic可解释性文章中的这个AI不同,GPT-2是一个真实的(尽管非常小)AI,曾经也给大众留下了深刻印象。

但是研究的最终目的是要能够解释主流的AI系统。

Anthropic的可解释性团队承认他们还没有做到这一点,主要基于以下几个原因:

首先,扩大自动编码器的规模是一个很困难的事情。为了解释GPT-4(或Anthropic的等效系统Claude)这样的系统,你需要一个差不多同样大小的解释器AI。

但是训练这样规模的AI需要巨大的算力和资金支持。

其次,解释的可扩展性也是一个问题。

即使我们找到了所有关于God、哥斯拉以及其他一切的模拟神经元,并画出它们之间如何相连的巨大关系图。

研究人员任然需要回答一些更复杂的问题,解决这些问题需要涉及成百上千万的特征和连接的复杂交互。

所以需要一些自动化的流程,也就是某种更大规模的「让GPT-4告诉我们GPT-2在做什么」。

最后,所有这些对理解人类大脑有什么启发?

人类也使用神经网络进行推理和处理概念。

人类大脑中有很多神经元,这一点和GPT-4是一样的。

人类获得的数据也非常稀疏——有很多概念(如乌贼)在日常生活中很少出现。

我们是否也在模拟一个更大的大脑?

目前这还是一个非常新的研究领域,但已经有一些初步的发现,表明人类视觉皮层中的神经元确实以某种超定位的方式编码特征,与AI模型中观察到的模式相似。

参考资料:
https://transformer-circuits.pub/2023/monosemantic-features/index.html#phenomenology-fsa




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
创新与福特的跑得更快的马ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%李开复零一万物发布首款大模型;马斯克xAI发布首个大模型;360、美团、昆仑万维等最新消息;vivo发布蓝心AI大模型今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!大康无知的荡口/自相矛盾的邪恶观点OpenAI首届开发者大会内容曝光;马斯克xAI大模型进展公布;中国第二批大模型备案获批丨AIGC大事日报H100最强竞品正式发布!推理快1.6倍,内存高达192GB,来自AMD全面对标OpenAI生态!智谱AI推出GLM-4大模型全家桶,GLMs上线,不会编程也能创建Agent奇点将至!年底最强自动驾驶峰会将拆解城市NOA、大模型与BEV感知,18位嘉宾率先揭晓智源扔出大模型“全家桶”!推最强开源中英双语LLM,赶超Llama 2几家日本的旅店 京都店专访丨积家CEO Catherine Rénier:情感联结和艺术表达对腕表也至关重要数之联发表通用深度视觉模型可解释性工具,助力破解人工智能模型“黑箱”实测商汤医疗健康大模型「大医」:紧贴实际场景,可塑性超强,还能自定义提示工程!"妈妈让我来自首",7岁男孩在派出所写下"bǎozhèng书"因为一棵树免费大模型实战课|首周聚焦百度智能云千帆大模型平台使用,《大模型应用实践》实训营11月16日开讲!小模型如何比肩大模型,北理工发布明德大模型MindLLM,小模型潜力巨大智能的本质就是压缩?马毅团队5年心血提出「白盒」Transformer, 打开LLM黑盒!国产大模型开源一哥再登场,最强双语LLM「全家桶」级开源!340亿参数超越Llama2-70B全面超越AutoGPT,面壁智能联合清华NLP实验室开源大模型「超级英雄」XAgent总是离不开一个渣男,是因为他太像你的「灵魂伴侣」北京理工大学发布双语轻量级语言模型,明德大模型—MindLLM,看小模型如何比肩大模型OpenAI做芯片不意外,OpenAI不做芯片才意外MIT斯坦福Transformer最新研究:过度训练让中度模型「涌现」结构泛化能力我的体重管理失败教训联手 OpenAI 最强竞对展开生成式 AI 反击战:亚马逊云科技将 S3 写入速度提升 10 倍、推出全新三层技术栈UC伯克利团队开源MemGPT大模型上下文内存管理方案;AgentLM、多模态Fuyu-8B、数学LLEMMA等专用大模型开源从硬件“卷”到UI交互,车企怎样才能掌握智能化「灵魂」大模型「进化手册」:AI 原生应用该如何落地?周末来场「灵魂社交」,10+城报名中,聊聊你的心事。OSIM黑五限时展销会又来到Ontario Mills咯Runway最强竞品一夜爆火!斯坦福退学天才6个月打造,OpenAI 董事等硅谷大佬纷纷投资24.98 万元起,华为智选首款轿车发布,拆分「灵魂」的华为汽车孤注一掷LeCun引战,LLM根本不会推理!大模型「涌现」,终究离不开上下文学习
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。