Redian新闻
>
能胜任统计学家?Transformers超强学习机制「自动算法选择」

能胜任统计学家?Transformers超强学习机制「自动算法选择」

公众号新闻

机器之心专栏

机器之心编辑部

Salesforce AI Research、北京大学和 UC 伯克利合作的最新论文,发现 Transformer 模型在上下文中学习(in-context learning)的新机制:「自动算法选择」,类似统计与机器学习专家能够现实完成的工作。


ChatGPT 等基于 Transformer 的大语言模型具备极强的在上下文中学习(In-Context Learning,ICL)的能力:输入少量示例样本,即能够正确回答同类问题。如何理解这种 ICL 能力?

本文作者实验发现并证明一种 ICL 的新机制:自动算法选择,可以允许单一 Transformer 模型在不同输入数据上选择执行完全不同的,适合该数据的学习算法,类似统计与机器学习专家能够现实完成的工作。基于量化的 Transformer 构造,文章一并给出 Transformer 实现 ICL 的一套全面的统计理论,包含近似精度,预测表现,以及预训练的样本复杂度。


论文地址:https://arxiv.org/abs/2306.04637

Transformer 能在 ICL 中完成机器学习任务

ChatGPT 等基于 Transformer 的大模型可以根据输入的文本,自上下文中学习。如何系统地理解这种能力?NeurIPS 2022 的一篇论文(Garg et al. 2022)考察了 Transformer 从上下文中进行机器学习任务的能力。

将 N 个训练样本与 1 个测试样本 (x_1, y_1, …, x_N, y_N, x_{N+1}) 作为一个序列输入 Transformer,要求 Transformer 输出 y_{N+1}。这些样本来自简单的统计模型,例如线性模型,但每个序列由不同的模型参数(w_\star)生成。Transformer 如果想总是正确地预测 y_{N+1},那么就需要从训练样本中学习真正的参数 w_\star,并利用其进行预测。

Garg et al. 发现,训练好的 Transformer 总是能够精准地预测 y_{N+1},并且预测表现能够媲美该数据上的最优算法。例如线性模型上,Transformer 的预测效果可以媲美最小二乘法(Least Squares),稀疏线性模型上媲美 Lasso,决策树上能超过 Gradient Boosting。

Figure 1: Transformer 能在 ICL 中完成机器学习任务 (Garg et al. 2022)

Transformer 虽然在各个任务中实现最优算法,然而这些算法都只是标准的机器学习算法,远不能完全解释 ChatGPT 等大模型强大的 ICL 能力。还存在更强的机制吗?

自动算法选择

现实生活中,统计学家与机器学习专家会如何分析数据?给定一个数据集,统计学家会先确定数据的结构,规模等,然后根据数据的特点选择最适合的算法。如果不确定哪个算法合适,则会同时尝试多个算法,然后利用验证集(validation split)或交叉验证(cross-validation)等选择表现最好的算法。

本文作者发现,Transformer 也能够进行类似的自动算法选择。自动算法选择允许一个单独的 Transformer 模型,在不同的 ICL 问题上选择不同的算法,类似统计学家可以现实完成的工作。

作者给出两种一般的算法选择机制,从理论上证明 Transformer 模型可以实现这两个机制,并且实验上验证了 Transformer 能够近似实现这两种机制,达到了比单一机器学习算法更强的效果。

机制 1:用验证集做算法选择

在这一机制中,Transformer 先将输入数据分为训练集和验证集。接下来在训练集上同时执行 K 个算法,然后在验证集上测试 K 个算法的表现,最终用表现最好的算法 k_star 给出预测。

Figure 2: 用验证集做算法选择(右)及实例(左)。

应用这一机制,Transformer 可以完成一大类算法选择。如下图当中,通过恰当的预训练,Transformer 可同时实现在两个带不同正则化的 ridge regression 算法,并对具体数据分布实现较优的那个算法。进一步,对这一任务,我们在理论上也能够证明 Transformer 能够近似整个任务的 Bayes 最优表现。

Figure 3: 单一 Transformer 可以在两个带不同噪音的线性模型中同时接近最优。在每个模型中,Transformer 的预测都接近该模型上 Bayes 最优算法(带不同正则化的 ridge regression)。


机制 2:提前对数据分布进行检验

在这一机制中,Transformer 通过提前检验数据分布(如计算一些统计量),来决定恰当的算法。例如在下图当中,单一的 Transformer 可以在回归问题上实现回归算法(如线性回归),在分类问题上实现分类算法(如 Logistic Regression)。

Figure 4: 提前对数据分布进行检验(右)及实例(左)。

Figure 5: 单一 Transformer 可以同时在回归问题和分类问题上接近最优表现:在回归问题上表现接近最小二乘法,在分类问题上接近 Logistic Regression。


理论框架

除了自动算法选择,本文的另一大贡献是给出了 Transformer 进行 ICL 的一套完整的统计学习理论,涵盖

  • Transformer 如何实现各种机器学习算法的具体构造,如最小二乘法,Lasso,ridge regression,解广义线性模型的凸优化算法,神经网络上的梯度下降法等;
  • 对上述 Transformer 大小(层数、attention head 个数、权重矩阵的范数)的精确界;
  • 上述 Transformer 在标准统计假设下,在 ICL 中的预测表现;
  • Transformer 实现自动算法选择时类似的保证;
  • 通过预训练 Transformer 达到上述效果的样本复杂度。

这套理论给出了 Transformer 进行 ICL 的一整套分析框架。作者相信这一框架可以推广到一大类相关问题当中,给出类似的理论保证。

结语

本文从理论和实验上发现 Transformer 模型在 ICL 中能够进行自动算法选择,并给出了一整套进行 ICL 的理论框架。

基于本文的结论还有很大的探索空间,例如其它进行 ICL 或自动算法选择的机制;在 ICL 中逼近 Bayes 最优表现的其它机制;预训练的 Transformer 如何实现算法选择的内部机理;对其它 ICL 任务的分析。作者相信,对这些问题的进一步探索,能对大模型有更多有趣的发现。

作者简介

本文作者 Yu Bai 现任 Salesforce Research 资深研究科学家。Fan Chen 本科毕业于北京大学,即将博士入学麻省理工大学。Huan Wang、Caiming Xiong 分别现任 Salesforce Research 研究主管及副总裁。Song Mei 现任 加州大学伯克利统计系助理教授。

© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:[email protected]

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
围绕 transformers 构建现代 NLP 开发环境基于Transformer的大模型是如何运行的?Meta从全局和上下文学习揭秘炸裂!微软新作LongNet:将Transformer扩展到10亿个TokensTransformer作者创立,Hinton、李飞飞青睐,明星创企Cohere推出打工人专用知识助手ICML 2023 | UPop: 使用统一渐进剪枝压缩视觉-语言Transformers应统问答室 | 统计学专业未来从事大数据方向有优势吗?来自统计学博士的回答102岁统计学传奇C.R.Rao去世:他的一生经历了“统计学的一个世纪”田渊栋新作:打开1层Transformer黑盒,注意力机制没那么神秘transformer的细节到底是怎么样的?Transformer 连环18问!被认为不能胜任,投行总经理被开除后状告老东家,讨还800多万奖金!法院判了...Attention机制竟有bug?Softmax是罪魁祸首,影响所有Transformer5074 血壮山河之武汉会战 黄广战役 6揭秘Transformer基于上下文学习的能力:看它如何学到正确的线性模型?解码器 | 基于 Transformers 的编码器-解码器模型比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤“一个活着的传奇”逝世,他一生就是统计学的一百年 | 纪念著名统计学家RaoPackedBert:如何用打包的方式加速Transformer的自然语言处理任务出事的陈师兄应统问答室 | 统计学是天坑专业吗?曼大统计学博士来告诉你答案!ChatGPT危了!注意力机制的神秘bug曝光!Transformer模型恐大受冲击...Attention机制竟有bug,Softmax是罪魁祸首,影响所有Transformer2023回国 农家乐一日游(多图)大妈是一种威武的存在编码器-解码器 | 基于 Transformers 的编码器-解码器模型无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响加州| 89岁传奇“高龄政客”被质疑健康状况堪忧!是否能胜任工作职务?清华大学提出LiVT,用视觉Transformer学习长尾数据,解决不平衡标注数据不在话下在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数8年了,Transformer注意力机制一直有Bug?ICCV 2023 | token过度聚焦暴露注意力机制弱点,两种模块设计增强视觉Transformer鲁棒性云原生 AI 工程化实践:FasterTransformer 加速 LLM 推理火星乐园第三部《灰界》第十八章 信心价值12种模态,一个学习框架,Meta-Transformer实现骨干网络大一统Gzip+ kNN文本分类竟然击败Transformers:无需预训练、14行代码实现
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。