Redian新闻
>
LLM巫师,代码预训练是魔杖!UIUC华人团队揭秘代码数据三大好处

LLM巫师,代码预训练是魔杖!UIUC华人团队揭秘代码数据三大好处

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】如果语言模型是巫师,代码预训练就是魔杖!


大模型时代的语言模型(LLM)不仅在尺寸上变得更大了,而且训练数据也同时包含了自然语言和形式语言(代码)。


作为人类和计算机之间的媒介,代码可以将高级目标转换为可执行的中间步骤,具有语法标准、逻辑一致、抽象和模块化的特点。


最近,来自伊利诺伊大学香槟分校的研究团队发布了一篇综述报告,概述了将代码集成到LLM训练数据中的各种好处。


论文链接:https://arxiv.org/abs/2401.00812v1


具体来说,除了可以提升LLM在代码生成上的能力外,好处还包括以下三点:


1. 有助于解锁LLM的推理能力,使能够应用于一系列更复杂的自然语言任务上;


2. 引导LLM生成结构化且精确的中间步骤,之后可以通过函数调用的方式连接到外部执行终端(external execution ends);


3. 可以利用代码编译和执行环境为模型的进一步改进提供了更多样化的反馈信号。



此外,研究人员还追踪了LLM作为智能智能体(intelligent agents,IA)时,在理解指令、分解目标、规划和执行行动(execute actions)以及从反馈中提炼的能力如何在下游任务中起到关键作用。


最后,文中还提出了「使用代码增强LLM」领域中关键的挑战以及未来的研究方向。



代码预训练提升LLM性能


以OpenAI的GPT Codex 为例,对 LLM 进行代码预训练后,可以扩大LLM的任务范围,除了自然语言处理外,模型还可以为数学理论生成代码、执行通用编程任务、数据检索等。


代码生成任务具有两个特性:1)代码序列需要有效执行,所以必须具有连贯的逻辑,2)每个中间步骤都可以进行逐步逻辑验证(step-by-step logic verification)。


在预训练中利用和嵌入代码的这两种特性,可以提高LLM思维链(CoT)技术在传统自然语言下游任务中的性能,表明代码训练能够提高LLM进行复杂推理的能力。


通过从代码的结构化形式中进行隐式学习,代码 LLM 在常识结构推理任务中也表现出更优的性能,例如与markup、HTML和图表理解相关的任务。


支持功能/函数终端(function ends)


最近的研究结果表明,将LLMs连接到其他功能终端(即,使用外部工具和执行模块增强LLMs)有助于LLMs更准确可靠地执行任务。


这些功能性目的使LLMs能够获取外部知识、参与到多种模态数据中,并与环境进行有效互动。



从相关工作中,研究人员观察到一个普遍的趋势,即LLMs生成编程语言或利用预定义的函数来建立与其他功能终端的连接,即「以代码为中心」的范式。


与LLM推理机制中严格硬编码工具调用的固定实践流程相反,以代码为中心的范式允许LLM动态生成tokens,并使用可适应的参数(adaptable parameters)调用执行模块,为LLM与其他功能终端交互提供了一种简单明了的方法,增强了其应用程序的灵活性和可扩展性。



重要的是,这种范式可以让LLM与跨越不同模态和领域的众多功能终端进行交互;通过扩展可访问的功能终端的数量和种类,LLM可以处理更复杂的任务。


本文中主要研究了与LLM连接的文本和多模态工具,以及物理世界的功能端,包括机器人和自动驾驶,展现了LLM在解决各种模式和领域问题方面的多功能性。


提供自动反馈的可执行环境


LLMs表现出超出其训练参数的性能,部分原因是模型能够吸收反馈信号,特别是在非静态的现实世界应用中。


不过反馈信号的选择必须谨慎,因为嘈杂的提示可能会阻碍LLM在下游任务上的表现。


此外,由于人力成本高昂,因此在保持忠诚度(faithful)的同时自动收集反馈至关重要。



将LLMs嵌入到代码执行环境中可以实现上述条件的自动反馈。


由于代码执行在很大程度上是确定性的,LLMs从执行代码的结果中获取的反馈仍然忠实于目标任务;代码解释器还为LLMs查询内部反馈提供了一个自动路径,无需人工标注即可对LLMs生成的错误代码进行调试和优化。


此外,代码环境允许LLMs整合各种各样的外部反馈形式,包括但不限于二元正确性反馈,对结果的自然语言解释,以及奖励值排序,从而实现一个高度可定制的方法来提高性能。



当下的挑战


代码预训练与LLMs推理增强的因果关系


虽然从直觉上来看,代码数据的某些属性可能有助于LLMs的推理能力,但其对增强推理技能影响的确切程度仍然模糊不清。


在下一步的研究工作中,重要的是要研究在训练数据中加强认识:这些代码属性是否真的可以增强训练的LLMs的推理能力。


如果确实如此,对代码的特定属性进行预训练可以直接提高LLMs的推理能力,那么理解这种现象将是进一步提高当前模型复杂推理能力的关键。


不限于代码的推理能力


尽管通过代码预训练实现了对推理能力的增强,但基础模型仍然缺乏真正通用人工智能所期望的类似人类的推理能力。


除了代码之外,大量其他文本数据源也有可能增强LLM推理能力,其中代码的内在特征,如缺乏歧义、可执行性和逻辑顺序结构,为收集或创建这些数据集提供了指导原则。


但如果继续坚持在具有语言建模目标的大型语料库上训练语言模型的范式,很难有一种顺序可读的语言比形式语言更抽象:高度结构化,与符号语言密切相关,并且在数字网络环境中大量存在。


研究人员设想,探索可替代的数据模式、多样化的训练目标和新颖的架构将为进一步增强模型推理能力提供更多的机会。


以代码为中心范式在应用上的挑战


在LLMs中,使用代码连接到不同的功能终端的主要挑战是学习不同功能的正确调用方法,包括选择正确的功能(函数)终端以及在适当的时候传递正确的参数。


比如说一个简单的任务(网页导航),给定一组有限的动作原语后,如鼠标移动、点击和页面滚动,再给出一些例子(few-shot),一个强大的基础LLM往往需要LLM精确地掌握这些原语的使用。


对于数据密集型领域中更复杂的任务,如化学、生物学和天文学,这些任务涉及对特定领域python库的调用,其中包含许多不同功能的复杂函数,增强LLMs正确调用这些功能函数的学习能力是一个前瞻性的方向,可以使LLMs在细粒度领域中执行专家级任务。


从多轮互动和反馈中学习


LLMs通常需要与用户和环境进行多次交互,不断纠正自己以改善复杂任务的完成。


虽然代码执行提供了可靠和可定制的反馈,但尚未建立一种完全利用这种反馈的完美方法。


当下基于选择的方法虽然有用,但不能保证提高性能,而且效率低下;基于递归的方法严重依赖于LLM的上下文学习能力,这可能会限制其适用性;微调方法虽然做出了持续的改进,但数据收集和微调是资源密集型的,实际使用时很困难。


研究人员认为强化学习可能是一种更有效的利用反馈和改进的方法,可以提供一种动态的方式来适应反馈,通过精心设计的奖励功能,潜在地解决当前技术的局限性。


但仍然需要大量的研究来了解如何设计奖励函数,以及如何将强化学习与LLMs最佳地集成以完成复杂的任务。


参考资料:
https://twitter.com/omarsar0/status/1742215295907811613
https://browse.arxiv.org/html/2401.00812v1



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果新加坡国立大学发布图文预训练框架 CosMo,助力长文本理解【警惕】华人团购铲雪数十人报警:网友揭秘骗局早就有Sleep Med Rev:陆林院士团队揭示原发性失眠治疗药物的有效性和耐受性Nature子刊 | 西湖大学施一公团队揭示剪接体进行分支位点选择、校正的分子机理网易投资前CDPR团队新游戏曝光,是一款3A级CRPG游戏,单挑巫师?编码数据集生成框架 UnitGen 0.4.0:代码文档生成、测试代码生成Sora幕后团队揭秘:4位华人,印度裔小哥“牵头”,还有高中就创业的00后..GUT MICROBES丨中国科学院深圳先进院陈宇团队揭示阿尔茨海默症中肠道菌群驱动的外周-中枢代谢调控机制Nature Neuroscience | 首次发现!西湖大学贾洁敏团队揭示神经元调控大脑血流新路径梅朵:生命的敌人不是死亡微软Copilot进化完全体,代码解释器、DALL·E 3,ChatGPT有的它都有挥舞起代码语料的魔杖,大模型和智能体将召唤出更强大的能量大模型增量预训练新技巧-解决灾难性遗忘只需1080ti,即可在遥感图像中对目标进行像素级定位!代码数据集已开源!AAAI 2024 | 中科院信工所提出结构化概率编码框架,有效增强预训练语言模型泛化能力GPT-4绝对性能暴涨74.4%!UIUC苹果华人团队提出CodeAct,用Python代码统一LLM智能体行动新西兰的一大好处:海边就能吃“自助”!小哥直言:连海水都是甜的...与家人雨中游上海滩Microbiome |吴忠道团队揭示寄生虫中间宿主-腹足纲动物螺类肠道菌群的传递模式码数不全还不是被你们抢的!春节前最后一波雪地靴捡漏!聪明!UBC华裔大学生宁可坐飞机上学,也不在温哥华租房!每月能省…2023 LLM技术报告—— LLM的工具和平台iPhone动嘴10秒P图!UCSB苹果全华人团队发布多模态MGIE,官宣开源人人可玩家居修理系列:屋顶篇(4)屋顶漏水简单的修补红楼雅韵加州大学24Fall申请预测!UCB失宠,UCM上位,保底校也保不住了?为何同性恋没有在进化中消失?张建之/宋斯亮团队揭示双性恋基因有助于繁衍后代|让大脑做做白日梦,有助于学习和记忆|本周论文推荐藤校招生官已对中国学生失去"耐心"?哈佛5申5中!连续5年斯坦福录取!"黑马"顾问团队揭露爬藤新规则!王友琴:关于北京大学1969年8月5日“宽严大会”的一个注解(钱钟书杨绛冯友兰冯宗璞蔡仲德)LLM会写代码≠推理+规划!AAAI主席揭秘:代码数据质量太高|LeCun力赞卫岗乳业持续加码数智化工厂,力争五年内再造三个卫岗澳洲如果取消购房印花税,居然能有这么大好处!​ICML 2023 | 港大提出创新时空图预训练架构,助力智慧城市多维任务学习​震惊!"麻将桌"搬到A股市场?这串神秘代码杀疯!非洲突发悲剧:平民遭扫射,至少50人丧生…
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。