Redian新闻
>
打破大模型黑盒,彻底分解神经元!OpenAI对头Anthropic击破AI不可解释性障碍

打破大模型黑盒,彻底分解神经元!OpenAI对头Anthropic击破AI不可解释性障碍

公众号新闻



  新智元报道  

编辑:Lumina
【新智元导读】距离破解大模型「黑箱」难题又近了一步!近日,来自Anthropic的研究团队通过采用稀疏自动编码器的弱字典学习算法,从512个神经元中提取出来了4000多个可解释特征。
长久以来,我们都无从理解AI是如何进行决策和输出的。

模型开发人员只能决定算法、数据,最后得到模型的输出结果,而中间部分——模型是怎么根据这些算法和数据输出结果,就成为了不可见的「黑箱」。

所以就出现了「模型的训练就像炼丹」这样的戏言。

但现在,模型黑箱终于有了可解释性!

来自Anthropic的研究团队提取了模型的神经网络中最基本的单位神经元的可解释特征。

这将是人类揭开AI黑箱的里程碑式的一步。

Anthropic激动地表示:

「如果我们能够理解模型中的神经网络是如何工作的,那么诊断模型的故障模式、设计修复程序,并让模型安全地被企业和社会采用就将成为触手可及的现实!」

在Anthropic的最新研究报告,Towards Monosemanticity: Decomposing Language Models With Dictionary Learning(《走向单语义性:用字典学习分解语言模型》),研究人员通过字典学习将包含512个神经元的层分解出了4000多个可解释的特征。

研究报告地址:https://transformer-circuits.pub/2023/monosemantic-features/index.html

这些特征分别表示DNA序列,法律语言,HTTP请求,希伯来文本,营养成分说明等。

当孤立地观察单个神经元的激活时,这些模型属性中的大多数都是不可见的。

这是由于大多数神经元都是「多语义」的,单个神经元与网络行为没有对应一致的关系。

例如,在一个小型语言模型中,单个神经元在许多不相关的上下文中都很活跃,包括:学术引文、英语对话、HTTP 请求和韩语文本。

而在经典视觉模型中,单个神经元会对猫的脸和汽车的前脸做出反应。

不少研究都证实了一个神经元的激活在不同的语境中可能意味着不同的含义。

而神经元多语义的一个潜在原因是叠加,这是一种假设的现象,即神经网络通过为每个特征分配自己的神经元线性组合,来表示数据的独立「特征」多于它的神经元数量。

如果将每个特征视为神经元上的一个向量,那么特征集就构成了网络神经元激活的一个过完备线性基础。

在Anthropic之前的Toy Models of Superposition(《叠加玩具模型》)论文中,证明了稀疏性在神经网络训练中可以消除歧义,帮助模型更好地理解特征之间的关系,从而减少激活向量的来源特征的不确定性,使模型的预测和决策更可靠。

这一概念类似于压缩感知中的思想,其中信号的稀疏性允许从有限的观测中还原出完整的信号。

但在Toy Models of Superposition中提出的三种策略中:

(1)创建没有叠加的模型,或许可以鼓励激活稀疏性;

(2)使用字典学习在表现出叠加态的模型中寻找过完备特征;

(3)依赖于两者结合的混合方法。

方法(1)不足以防止多义性,方法(2)则存在着严重的过度拟合问题。

因此,这次Anthropic的研究人员使用了一种称为稀疏自动编码器的弱字典学习算法,从经过训练的模型中生成学习到的特征,这些特征提供了比模型神经元本身更单一的语义分析单位。

具体来说,研究人员采用了具有512个神经元的MLP单层transformer,并通过从80亿个数据点的MLP激活上训练稀疏自动编码器,最终将MLP激活分解为相对可解释的特征,扩展因子范围从1×(512个特征)到256×(131,072个特征)。

为了验证本研究发现的特征比模型的神经元更具可解释性,采用了盲审评估,让一位人类评估员对它们的可解释性进行评分。

可以看到,特征(红色)的得分比神经元(青色)高得多。

证明了研究人员找到的特征相对于模型的内部神经元来说更易理解。

此外,研究人员还采用了「自动解释性」方法,通过使用大型语言模型生成小型模型特征的简短描述,并让另一个模型根据该描述预测特征激活的能力对其进行评分。

同样,特征得分高于神经元,证明了特征的激活及其对模型行为的下游影响具有一致的解释。

并且,这些提取出的特征还提供了一种有针对性的方法来引导模型。

如下图所示,人为激活特征会导致模型行为以可预测的方式更改。

这些被提取的可解释性特征可视化图如下:

点击左边的特征列表,就能与神经网络中的特征空间进行交互式探索。

研究报告概要

这份来自Anthropic的研究报告,Towards Monosemanticity: Decomposing Language Models With Dictionary Learning,主要可以分为四个部分。

问题设置,研究人员介绍了研究动机,并阐述训练的transfomer和稀疏自动编码器。

单个特征详细调查,证明了研究发现的几个特征是功能上特定的因果单元。

全局分析,论证了典型特征是可解释的,并且它们可以解释MLP层的重要部分。

现象分析,描述了特征的几个属性,包括特征分割、普遍性,以及它们如何形成类似于「有限状态自动机」的系统来实现复杂的行为。

结论包括以下7个:

1. 稀疏自动编码器能提取相对单一的语义特征。

2. 稀疏自编码器能产生可解释的特征,而这些特征在神经元基础中实际上是不可见的。

3. 稀疏自动编码器特征可用于干预和引导变压器的生成。

4. 稀疏自编码器能生成相对通用的特征。

5. 随着自动编码器大小的增加,特征有「分裂」的倾向。

6. 仅512个神经元就能代表数以万计的特征。

7. 这些特征在类似「有限状态自动机」的系统中连接起来,从而实现复杂的行为,如下图。

具体详细内容可见报告。

但对这份研究报告,Anthropic认为想要将本研究报告中小模型的成功复制到更大的模型上,我们今后面临的挑战将不再是科学问题,而是工程问题。

而这意味着为了在大模型上实现解释性,需要在工程领域投入更多的努力和资源,以克服模型复杂性和规模带来的挑战。

包括开发新的工具、技术和方法,以应对模型复杂性和数据规模的挑战;也包括构建可扩展的解释性框架和工具,以适应大规模模型的需求。

这将是解释性AI和大规模深度学习研究领域的最新趋势。

参考资料:

https://transformer-circuits.pub/2023/monosemantic-features/index.html




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
40亿美元!​亚马逊投资Anthropic公司 预对战微软OpenAl1941-1949年苏中关系中的新疆KDD 2023 | 因果启发的可解释框架:大模型解释的高效之路用别的模型权重训练神经网络,改神经元不影响输出:英伟达神奇研究传OpenAI与Anthropic讨论合并事宜;网传鸿蒙系统明年将不兼容安卓;首款“星闪电视”面世|AIoT情报上海交大团队发现频率原则,开启理解神经网络的新方向给大模型评分的基准靠谱吗?Anthropic来了次大评估AI独角兽|Anthropic:最可能挑战OpenAI的公司OpenAI核心人员离职创办的Anthropic,又拿到亚马逊40亿美元投资基于Transformer和注意力的可解释核苷酸语言模型,用于pegRNA优化设计再斩Amazon 40亿投资,OpenAI劲敌Anthropic身价飙升谷歌20亿美元砸向Anthropic:大模型军备竞赛升级求助专家帮助我明辨真伪 !吹尽黄沙不见金(七十三):蓝田日暖玉生烟OpenAI闹剧之后,人工智能世界将彻底分裂|焦点分析「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出数之联发表通用深度视觉模型可解释性工具,助力破解人工智能模型“黑箱”AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头偶遇垂杨柳大模型可解释性你能理得清吗?综述已来,一文解你疑惑Anthropic创始人访谈:Scaling与强化学习,可解释性与AGI安全ChatGPT让ChatGPT吐槽宕机;OpenAI对竞争对手Anthropic的合并要约被拒丨AIGC日报分解大模型的神经元!Claude团队最新研究火了,网友:打开黑盒CMU华人打破大模型黑盒,Llama 2撒谎被一眼看穿!脑电波惨遭曝光,LLM矩阵全破解颠覆对AgRP神经元必要性的认知:科学家发现AgRP神经元对于维持摄食行为和体重并非不可或缺ICML 2023 | 英伟达神奇研究:用别的模型权重训练神经网络,改神经元不影响输出!谷歌证实大模型能顿悟,特殊方法能让模型快速泛化,或将打破大模型黑箱出租房里真假租客 (多图)OpenAI董事会被踢爆曾与竞争对手Anthropic讨论合并,Altman 去留仍存变数太狠了,Anthropic 刚拿到天价融资,OpenAI就打了一巴掌回去NeurIPS 2023 | 港科大提出EAC:"可解释一切"图像概念解释器智能周报|OpenAI推多模态模型,计划开发AI硬件和芯片;从亚马逊融40亿美元后,Anthropic想再从Google融20亿国产大模型黑马诞生,千亿级拿下双榜第一!知识正确性能力突出,大幅降低LLM幻觉问题Anthropic 创始人:可以给大模型「照 X 光」,AGI 2-3 年可实现
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。