Redian新闻
>
大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司

大神Karpathy强推,分词领域必读:自动钓鱼让大模型“发疯”的token,来自Transformer作者创业公司

公众号新闻
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

关于大模型分词(tokenization),大神Karpathy刚刚推荐了一篇必读新论文。

主题是:自动检测大模型中那些会导致“故障”的token。

简单来说,由于大模型tokenizer的创建和模型训练是分开的,可能导致某些token在训练中很少、甚至完全没出现过。这些“训练不足”(under-trained)的token会导致模型产生异常输出。

最经典的例子,就是SolidGoldMagikarp——

这个单词一度让ChatGPT“胡言乱语”。只要prompt里包含这个词,ChatGPT就开始文不对题,生成一些混乱的输出:

现在,来自Cohere的研究人员针对这个问题,提出检测“故障”token的有效方法,他们还发现:在多个主流开源大语言模型上,包括Llama系列、Mistral系列在内,训练不足的token都在不同程度上普遍存在。

p.s. Cohere是Transformer最年轻作者Aidan Gomez创办的公司,此前推出了Command R系列开源大模型。去年6月,该公司估值达到了22亿美元。

自动检测LLM中训练不足的token

研究人员提出的方法主要包括三个步骤。

首先,通过检查tokenizer词汇表并观察其编码/解码行为,来分析tokenizer,找出其中特殊类别的token,比如不完整的UTF-8序列等。

然后,根据模型架构计算识别指标,找出嵌入向量异常的token,列入“训练不足”候选名单。

举个例子,对于tied embedding模型,利用一组已知的未使用的embedding,通过主成分分析去除unembedding矩阵中的常数成分。

接着计算其余token和这些未使用embedding的余弦距离,作为“训练不足”指标。

而对于non-tied embedding的模型,可以直接采用embedding向量的L2范数来检测。

最后,通过特定prompt来进行验证,看看候选token们是否确实超出了训练数据的分布,会引发异常输出。

将该方法应用于多个主流的开源大语言模型后,研究人员发现,训练不足能让大模型“发疯”的token在这些大模型上普遍存在,他们一口气就挖出了数千个。

常见类型包括:

  • 单字节token,尤其是UTF-8标准中未使用的字节,如0xF5-0xFF;

  • 字节对编码(Byte-Pair Encoding,BPE)过程中,出现的一些未充分训练的中间token。

  • 一些特殊字符,如<pad>、<unk>等。

研究人员还发现,词汇表较大的模型,“训练不足”token的数量也会明显增多。

因为大词汇表意味着更稀疏的token分布和更细粒度的token切分,这必然会导致更多低频token和无意义的token残片,增加“训练不足”token的比例。同时,大词汇表也给模型训练带来了更大的优化难度。

值得注意的是,论文提到,基于相同tokenizer的模型表现相似,而不同的tokenizer实现、配置、训练数据,会导致不同模型间“训练不足”token的明显差异。

论文认为,优化词汇表结构和tokenizer算法,是解决token训练不足问题的关键。

他们也提出了一些建议:

  • 确保tokenizer训练数据、模型训练数据和模型推理中输入数据的预处理完全相同。

  • 确保模型训练数据和tokenizer对齐,尤其是在从头训练新的基础模型时。

  • 对于单字节token,要么词汇表包含所有256个字符且不允许重复,要么排除13个UTF-8中不出现的字符(0xC0/0xC1,0xF5-0xFF)。

  • 训练tokenizer后,通过对词汇表进行编码和解码来检查无法访问的token,以确保正确处理手动添加的token。

  • 在Hugging Face上发表tokenizer的“快速”和“慢速”版本时,确保它们输出相同。

  • 训练基础模型时,在小型测试中检查训练不足的token,重新考虑分词方法和数据。在不同语料库上运行测试,也可以发现导致主训练数据中“故障”输入的预处理错误。

论文地址:
https://arxiv.org/abs/2405.05417

—  —

点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
合唱《深深的海洋》&《将进酒》“再见,Terraform”! HashiCorp被收购后,开发者跪求 IBM:不要合并 Terraform 和 Ansible原作者带队!LSTM真杀回来了:我要夺回Transformer拿走的一切Mamba架构第一次做大!混合Transformer,打败Transformer我的岁月(二十七)高效涨点!用Transformer模型发Nature子刊(文末送书)开源日报 | 华为腾讯相爱相杀;Redis不再 “开源”;老黄集齐Transformer论文七大作者;“中国大模型第一城”争夺战中文实录!黄仁勋集齐Transformer论文七大作者,对话一小时,干货满满CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术新架构Mamba更新二代!作者:别争了,数学上Transformer和SSM是一回事再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量Transformer大杀器进入蛋白质组学,一文梳理LLM如何助力生命科学领域大变革SSM 能取代 Transformer 搞出更「牛」的大模型吗?微小说 此情可待成追忆革命新架构掀翻Transformer!无限上下文处理,2万亿token碾压Llama 2Transformer解码真实场景!Meta推出70M参数SceneScript模型张鹏对谈安克阳萌:GPU 和 Transformer 可能是中间态,机器人+大模型会诞生超级品类AI 大神首次承认参与神秘模型 Q* 研发,把 OpenAI 吓坏了 | Transformer 作者专访多功能RNA分析,百度团队基于Transformer的RNA语言模型登Nature子刊Mamba和Transformer合体!Jamba来了:超越Transformer!现场围观 | 黄仁勋对话Transformer论文作者:世界该给Tranformer翻篇了再回首 (十七)学什么准备未来(四)环保不在碳排放7人创业、1人投敌!Transformer 八子谷歌坐冷板凳5年再成老黄座上宾Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存Meta革命新架构掀翻Transformer!无限上下文处理!为什么Transformer一般使用LayerNorm?AI创业酱紫卷?想让陆奇看上眼,挑战个Sora/Transformer再说OpenAI公关跳起来捂他嘴!Transformer作者公开承认参与Q*!解决Transformer根本缺陷,CoPE论文爆火:所有大模型都能获得巨大改进CoPE论文爆火!解决Transformer根本缺陷,所有大模型都能获得巨大改进黄仁勋集齐Transformer论文七大作者,对话一小时,干货满满纯加法Transformer!结合脉冲神经网络和Transformer的脉冲Transformer | NeurIPS 2023Transformer要变Kansformer?用了几十年的MLP迎来挑战者KAN
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。