Redian新闻
>
AI学会隐藏思维暗中推理!不依赖人类经验解决复杂任务,更黑箱了

AI学会隐藏思维暗中推理!不依赖人类经验解决复杂任务,更黑箱了

科技
梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

AI做数学题,真正的思考居然是暗中“心算”

纽约大学团队新研究发现,即使不让AI写步骤,全用无意义的“……”代替,在一些复杂任务上的表现也能大幅提升!

一作Jacab Pfau表示:只要花费算力生成额外token就能带来优势,具体选择了什么token无关紧要

举例来说,让Llama 34M回答一个简单问题:自然常数e的前6位数字中,有几个大于5的?

AI直接回答约等于瞎捣乱,只统计前6位数字居然统计出7个来。

让AI把验证每一数字的步骤写出来,便可以得到正确答案。

让AI把步骤隐藏,替换成大量的“……”,依然能得到正确答案!

这篇论文一经发布便掀起大量讨论,被评价为“我见过的最玄学的AI论文”

那么,年轻人喜欢说更多的“嗯……”、“like……”等无意义口癖,难道也可以加强推理能力?

从“一步一步”想,到“一点一点”想

实际上,纽约大学团队的研究正是从思维链(Chain-of-Thought,CoT)出发的。

也就是那句著名提示词“让我们一步一步地想”(Let‘s think step by step)

过去人们发现,使用CoT推理可以显著提升大模型在各种基准测试中的表现。

目前尚不清楚的是,这种性能提升到底源于模仿人类把任务分解成更容易解决的步骤,还是额外的计算量带来的副产物。

为了验证这个问题,团队设计了两个特殊任务和对应的合成数据集:3SUM和2SUM-Transform。

3SUM要求从一组给定的数字序列中找出三个数,使得这三个数的和满足特定条件,比如除以10余0。

这个任务的计算复杂度是O(n3),而标准的Transformer在上一层的输入和下一层的激活之间只能产生二次依赖关系。

也就是说,当n足够大序列足够长时,3SUM任务超出了Transformer的表达能力

在训练数据集中,把与人类推理步骤相同长度的“...”填充到问题和答案之间,也就是AI在训练中没有见过人类是怎么拆解问题的。

在实验中,不输出填充token“…...”的Llama 34M表现随着序列长度增加而下降,而输出填充token时一直到长度14还能保证100%准确率

2SUM-Transform仅需判断两个数字之和是否满足要求,这在 Transformer 的表达能力范围内。

但问题的最后增加了一步“对输入序列的每个数字进行随机置换”,以防止模型在输入token上直接计算。

结果表明,使用填充token可以将准确率从 78.7%提高到93.6%

除了最终准确率,作者还研究了填充token的隐藏层表示。实验表明,冻结前面层的参数,只微调最后一个Attention层,随着可用的填充token数量增多,预测的准确率递增

证实了填充token的隐藏层表示确实包含了与下游任务相关的隐性计算

AI学会隐藏想法了?

有网友怀疑,这篇论文难道在说“思维链”方法其实是假的吗?研究这么久的提示词工程,都白玩了。

团队表示,从理论上讲填充token的作用仅限于TC0复杂度的问题范围内

TC0也就是可以通过一个固定深度的电路解决的计算问题,其中电路的每一层都可以并行处理,可以通过少数几层逻辑门(如AND、OR和NOT门)快速解决,也是Transformer在单此前向传播中能处理的计算复杂度上限。

足够长的思维链,能将Transformer的表达能力扩展到TC0之外

而且让大模型学习利用填充token并不容易,需要提供特定的密集监督才能收敛。

也就是说,现有的大模型不太可能直接从填充token方法中获益

但这并不是当前架构的内在局限性,如果在训练数据中提供足够的示范,它们应该也能从填充符号中获得类似的好处。

这项研究还引发了一个令人担心的问题:大模型有能力进行无法监控的暗中计算,对AI的可解释性和可控性提出了新的挑战。

换句话说,AI可以不依赖人类经验,以人们看不见的形式自行推理

这既刺激又可怕。

最后有网友开玩笑提议,让Llama 3首先生成1千万亿点点点,就能得到AGI的权重了(狗头)。

论文:
https://arxiv.org/abs/2404.15758

参考链接:
[1]
https://x.com/jacob_pfau/status/1783951795238441449
[2]https://x.com/johnjnay/status/1784261779163349110

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
她揭露日本之耻,新作《黑箱日记》:是绝望让我做了这一切华为盘古大模型5.0技术解密:更多模态,复杂推理黄仁勋亲自给OpenAI送货,全球首台DGX H200开箱了25年美高申请:8所康州顶尖寄宿高中推荐单张A100全精度推理!谷歌明星开源模型Gemma 2上新9B/27B,挑战3140亿Grok-1突发!加拿大机场2000万黄金大劫案告破,9名嫌犯被捕!原来竟是加航员工里应外合!已经不满足于偷偷行李箱了啊...智能体DS-Agent基于案例推理,让GPT-4数据科学任务接近100%个人感慨之111 习总施政方略陌生人赠送的一美元购物卷Llama3-8B秒杀700亿巨兽?北大博士生等全新「BoT」框架推理暴涨70倍,24点图形推理一步成神《开始推理吧2》,一场吃力但巧妙的社会派推理尝试网络+安全解决方案3.0——安全防御,更简单,更精准只需将感知推理能力拆分,2B大模型就能战胜20B!国产新框架高效处理视觉任务5、长篇家庭伦理小说《嫁接 下》第二章 无可奈何(1)中国起诉美国新能源补贴违反WTO,王传福称将推DMI新技术,苹果或在中推出Apple TV+,小米胜诉,这就是今天的其他大新闻!【老翁寻花奇遇记之二:春花大盗】这条「会隐身的内裤」太神奇了!一秒隐形还收腹,比空调还凉快~~顶流男星罪行曝光!BBC最新纪录片释出,下药、偷拍、暴力威胁,娱乐圈远比想象中更黑暗......OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱苹果AI战略曝光:简单指令iPhone搞定,复杂任务云端运行奈飞创始人公开表示「面试就像选配偶,我们从不依靠任何数据或选人标准」深度好文|奈飞创始人公开表示「面试就像选配偶,我们从不依靠任何数据或选人标准」今日arXiv最热大模型论文:COLING 2024: 复旦发布AoR,层级聚合推理突破大模型复杂推理上限自由是独立,不依附,不恐惧你穿衣服还有“内衣印”? 这件「会隐身的内衣」,真的太神奇了!!!25年美高选校!麻省波士顿地区超牛寄宿高中推荐“会隐身的内衣”?真的太神奇了,穿内衣不再有“内衣印”!!!一次预测多个token,Meta新模型推理加速3倍,编程任务提高17%25年美高申请:新泽西州顶尖寄宿高中推荐「专业智能体指导」让小模型学会数学推理!微调Mistral-7B实现86.81%准确率马斯克将在本周为X高级订阅者开放Grok;古尔曼:苹果暂无计划在iOS 18中推出自家AI聊天机器人丨AIGC日报纽约时报作者卧底美国精英大学一年后,揭开藤校招生的这些“黑箱操作”…万字综述大模型高效推理:无问芯穹与清华、上交最新联合研究全面解析大模型推理优化《梨花谣》&《春三月》如何加速大模型推理?万字综述全面解析大语言模型高效推理技术
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。