Redian新闻
>
无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务

无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务

公众号新闻



  新智元报道  

编辑:LRS
【新智元导读】使用LLM生成海量任务的文本数据,无需人工标注即可大幅提升文本嵌入的适用度,只需1000训练步即可轻松扩展到100种语言。


文本嵌入(word embedding)是自然语言处理(NLP)领域发展的基础,可以将文本映射到语义空间中,并转换为稠密的矢量,已经被广泛应用于各种自然语言处理(NLP)任务中,如信息检索(IR)、问答、文本相似度计算、推荐系统等等,


比如在IR领域,第一阶段的检索往往依赖于文本嵌入来进行相似度计算,先在大规模语料库中召回一个小的候选文件集,再进行细粒度的计算;基于嵌入的检索也是检索增强生成(RAG)的关键组成部分,使大型语言模型(LLM)可以访问动态的外部知识,而无需修改模型参数。


早期的文本嵌入学习方法如word2vec,GloVe等大多是静态的,无法捕捉自然语言中丰富的上下文信息;随着预训练语言模型的出现,Sentence-BERT和SimCSE等方法在自然语言推理(NLI)数据集上通过微调BERT来学习文本嵌入。


为了进一步增强文本嵌入的性能和鲁棒性,最先进的方法如E5和BGE采用了更复杂的多阶段训练范式,先对数十亿个弱监督文本对进行预训练,然后再在数个标注数据集上进行微调。


现有的多阶段方法仍然存在两个缺陷:


1. 构造一个复杂的多阶段训练pipeline,需要大量的工程工作来管理大量的相关性数据对(relevance pairs)。


2. 微调依赖于人工收集的数据集,而这些数据集往往受到任务多样性和语言覆盖范围的限制。


3. 大多数现有方法采用BERT-style的编码器作为主干,忽略了训练更好的LLM和相关技术(诸如上下文长度扩展)的最新进展。


最近,微软的研究团队提出了一种简单且高效的文本嵌入训练方法,克服了上述方法的缺陷,无需复杂的管道设计或是人工构建的数据集,只需要利用LLM来「合成多样化的文本数据」,就可以为为近100种语言的数十万文本嵌入任务生成高质量的文本嵌入,整个训练过程还不到1000步。


论文链接:https://arxiv.org/abs/2401.00368


具体来说,研究人员使用两步提示策略,首先提示LLM头脑风暴候选任务池,然后提示LLM从池中生成给定任务的数据。


为了覆盖不同的应用场景,研究人员为每个任务类型设计了多个提示模板,并将不同模板生成的数据进行联合收割机组合,以提高多样性。


实验结果证明,当「仅对合成数据」进行微调时,Mistral-7B在BEIR和MTEB基准上获得了非常有竞争力的性能;当同时加入合成和标注数据进行微调时,即可实现sota性能。


用大模型提升文本嵌入


1. 合成数据生成


利用GPT-4等最先进的大型语言模型(LLM)来合成数据越来越受到重视,可以增强模型在多任务和多语言上的能力多样性,进而可以训练出更健壮的文本嵌入,在各种下游任务(如语义检索、文本相似度计算、聚类)中都能表现良好。


为了生成多样化的合成数据,研究人员提出了一个简单的分类法,先将嵌入任务分类,然后再对每类任务使用不同的提示模板。


非对称任务(Asymmetric Tasks)


包括查询(query)和文档在语义上相关但彼此不互为改写(paraphrase)的任务。


根据查询和文档的长度,研究人员进一步将非对称任务分为四个子类别:短-长匹配(短查询和长文档,商业搜索引擎中的典型场景),长-短匹配,短-短匹配和长-长匹配。


对于每个子类别,研究人员设计了一个两步提示模板,首先提示LLM头脑风暴的任务列表,然后生成一个具体的例子的任务定义的条件;从GPT-4的输出大多连贯一致,质量很高。



在初步实验中,研究人员还尝试使用单个提示生成任务定义和查询文档对,但数据多样性不如上述的两步方法。


对称任务


主要包括具有相似语义但不同表面形式的查询和文档。


文中研究了两个应用场景:单语种(monolingual)语义文本相似性(STS)和双文本检索,并且为每个场景设计了两个不同的提示模板,根据其特定目标进行定制,由于任务的定义比较简单,所以头脑风暴步骤可以省略。


为了进一步提高提示词的多样性,提高合成数据的多样性,研究人员在每个提示板中加入了几个占位符,在运行时随机采样,例如「{query_length}」代表从集合「{少于5个单词,5-10个单词,至少10个单词}」中采样的。


为了生成多语言数据,研究人员从XLM-R的语言列表中采样「{language}」的值,给予高资源语言更多的权重;任何不符合预定义JSON格式的生成数据都将在解析过程中被丢弃;还会根据精确的字符串匹配删除重复项。


2. 训练


给定一个相关的查询-文档对,先使用原始查询q+来生成一个新的指令q_inst,其中「{task_definition}」是嵌入任务的一句话描述的占位符。



对于生成的合成数据,使用头脑风暴步骤的输出;对于其他数据集,例如MS-MARCO,研究人员手动创建任务定义并将其应用于数据集中的所有查询,不修改文件端的任何指令前缀。


通过这种方式,可以预先构建文档索引,并且可以通过仅更改查询端来自定义要执行的任务。


给定一个预训练的LLM,将一个[EOS]标记附加到查询和文档的末尾,然后馈送到LLM中,通过获取最后一层[EOS]向量来获得查询和文档嵌入。


然后采用标准的InfoNCE loss对批内negatives和hard negatives进行损失计算。



其中ℕ表示所有negatives的集合,用来计算查询和文档之间的匹配分数,t是一个温度超参数,在实验中固定为0.02



实验结果


合成数据统计


研究人员使用Azure OpenAI服务生成了500k个样本,包含150k条独特指令,其中25%由GPT-3.5-Turbo生成,剩余由GPT-4生成,总共消耗了1.8亿个token。


主要语言是英语,一共覆盖93种语言;对于75种低资源语言,平均每种语言约有1k个样本。



在数据质量方面,研究人员发现GPT-3.5-Turbo的部分输出没有严格遵循提示模板中规定的准则,但尽管如此,总体质量仍然是可以接受的,初步实验也证明了采用这一数据子集的好处。


模型微调和评估


研究人员对预训练Mistral-7B使用上述损失微调1个epoch,遵循RankLLaMA的训练方法,并使用秩为16的LoRA。


为了进一步降低GPU内存需求,采用梯度检查点、混合精度训练和DeepSpeed ZeRO-3等技术。


在训练数据方面,同时使用了生成的合成数据和13个公共数据集,采样后产生了约180万个示例。


为了与之前的一些工作进行公平比较,研究人员还报告了当唯一的标注监督是MS-MARCO篇章排序数据集时的结果,还在MTEB基准上对模型进行了评估。


主要结果


下表中可以看到,文中得到的模型「E5mistral-7B + full data」在MTEB基准测试中获得了最高的平均分,比之前最先进的模型高出2.4分。


在「w/ synthetic data only」设置中,没有使用标注数据进行训练,但性能仍然很有竞争力。



研究人员还对几种商业文本嵌入模型进行了比较,但由于这些模型缺乏透明度和文档,因此无法进行公平的比较。


不过,在BEIR基准上的检索性能对比结果中可以看到,训练得到的模型在很大程度上优于当前的商业模型。



多语言检索


为了评估模型的多语言能力,研究人员在MIRACL数据集上进行了评估,包含18种语言的人工标注查询和相关性判断。


结果显示,该模型在高资源语言上超过了mE5-large,尤其是在英语上,性能表现更出色;不过对于低资源语言来说,该模型与mE5-base相比仍不理想。


研究人员将此归因于Mistral-7B主要在英语数据上进行了预训练,预测多语言模型可以用该方法来弥补这一差距。


参考资料:
https://arxiv.org/abs/2401.00368


微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
Stability AI开年首个大模型:专写代码,支持18种编程语言,上下文100K,苹果笔记本离线就能跑朝鲜女外长访俄,军需大佬低调随团,金正恩御用翻译手持文件内容遭抓拍曝光!视觉模型+大语言模型:首个支持10K+帧长视频理解任务的新型框架提示词专场:从调整提示改善与LLMs的沟通,到利用LLMs优化提示效果新加坡曾经有一个结合四种语言的国际广播电台宇宙人(1473期)阿波罗任务“隐藏”了超过20000次月震信息;联发科首次实现大模型在手机芯片端深度适配​踏青必带可手持1000倍显微镜,还能当儿童相机用(明10点开团)全英语言班转租房源招租啦 | 快来看看有没有适合你的房源哦...找个转租读语言,更具性价比!统一的好处赞! 一公司斥800万巨资! 请4000名员工父母免费旅游 已坚持12年个人感慨之五十一 富士康工人主题直播开讲啦!一起来学习:肿瘤免疫系列讲座之肿瘤代谢与免疫专场无需文本标注,TF-T2V把AI量产视频的成本打下来了!华科阿里等联合打造来英国读语言,不知道住哪?看看这些短租房源吧,更适合读语言的你!UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导学习丨宁夏留学人员深入学习全国两会精神个人感慨之五十二 动态清零烂尾模仿学习:OpenAI 放弃的路线是否已进入新篇章?优化LLM数学推理;深度学习建模基因表达调控;基于深度学习的近实时海洋碳汇估算国人有福了!加州保险经纪考试于2024年新增中文等5种语言6060 血壮山河之随枣会战 第三章 14今日Arxiv最热NLP大模型论文:LLM化身符号逻辑大师,智能体文本游戏新纪元视频场景图生成任务新SOTA!中山大学提出全新时空知识嵌入框架,登顶刊TIP'24今日arXiv最热NLP大模型论文:伯克利&DeepMind联合研究,RaLMSpec让检索增强LLM速度提升2-7倍!个人感慨之五十三 卡塔尔世界杯AI Agent自主设计全新蛋白质登Nature!威斯康星大学让机器人科学家做实验,无需人类帮助2024年国自然指南详读:医学部有项目申请书要试点改革!一作、通讯被要求标注!科研人必看!LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」ICLR 2024 | OCTAVIUS: 通过MoE缓解MLLM任务间的干扰移民马耳他:轻松获批的秘密大公开MATLAB生物制药系列:轻松实现药物发现和开发全流程的AI应用【动脉严选公开课】英国永居考试真题(13):中世纪期间英格兰使用哪两种语言?3298元起,realme GT5 Pro开箱体验,第三代骁龙8加持2023 LLM技术报告—— LLM的工具和平台CVPR最佳论文颁给自动驾驶大模型!LLM能突破行业技术“天花板”吗?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。