包邮送6本!NLP与ChatGPT的碰撞:大模型和小模型联合发力
随着人工智能的蓬勃发展,大量应用场景中都会涉及到文本内容的理解技术。由于场景的不同,目前文本内容理解没有统一的模板,解决起来并不容易。在市场上有各种各样的机器学习、深度学习、自然语言处理等资料,但是都没有与业务场景紧密地联系起来,即使有联系也很笼统,并没有涉及实际业务场景中非常琐碎的细节问题。而只有把这些细节问题解决好,才能更好地发展业务。同时,市面上从问题的角度讲解算法等相关知识的书很少,而在业务场景中更多的是通过简单且匹配的技术解决业务问题。所以,让大家看到如何从问题的角度进行问题的拆解,然后通过匹配的技术解决业务问题是很重要的事情。
自然语言处理的目的是为了让计算机能够理解人类的语言,但是由于语言具有高度抽象性、歧义性等特点,给文本理解增加了很大的难度。ChatGPT模型近年来非常火爆,具备非常有潜力的商业价值,可以和非常多的业务场景融合,产生新的体验,甚至颠覆原有的方式方法。大模型非常的劲爆,但是在模型部署、资源损耗、数据标注等方面面临非常大的挑战。例如:
(1)模型大小:预训练模型通常非常庞大。GPT-3 等模型包含上千亿个参数,因此在部署时可能会面临存储和传输上的困难。
(2)推理速度:模型推理速度是评估一个机器学习模型性能的重要指标之一。在实际应用中,模型的推理速度往往直接影响着用户的体验和系统的效率。高效的模型推理速度可以缩短处理时间,提高用户满意度,减少计算资源的浪费。
(3)计算资源:预训练模型需要大量的计算资源来进行推理,这可能会导致部署时的计算瓶颈和性能问题。
(4)硬件兼容性:预训练模型的部署需要适应多种不同的硬件平台,包括 CPU、GPU、ASIC 等,因此需要适配和优化。
(5)版本管理:预训练模型可能会不断更新和改进,因此在部署时需要考虑版本管理和更新的问题。
因此,大模型和小模型联合发力仍然是目前的最佳选择。《基于NLP内容理解》这本书旨在从文本语言理解的角度入手,详细介绍了文本特征表征、内容重复理解、通顺度识别、内容质量、用户画像、文本摘要及文本纠错等。本书采用以应用贯串始终的方式进行相关技术的介绍和说明。
具体来说,本书主要从以下几个方面介绍自然语言处理中相关的技术及其应用。
1)文本特征表示方法:本章详细介绍了文本特征的表示方法包括离散型表示方法和分布型表示方法以及词向量的评判标准。
2)内容重复理解:主要从应用的角度介绍了标题、段落和文章重复三种场景以及三种场景的具体实现。
3)内容通顺度识别:介绍了数据增强的几种方法,句子通顺度识别方法以及内容不通顺时的几种纠正方式。
4)内容质量:内容质量在很多场景中都是非常重要的,因此,从应用的角度详细介绍了知识问答质量体系的搭建方法,方便大家后续在业务实践中快速的使用起来。
5)用户画像:本章主要讲述了用户画像中标签体系的整个建设流程。
6)自动文本摘要生成:介绍了文本摘要生成中流行的两类方法,包括抽取式文本摘要和生成式文本摘要;此外还介绍了文本摘要的几种常用数据集以及文本摘要的评价方法。
7)文本纠错:介绍了文本中错误的类型、来源,文本纠错常用的方法与框架,并介绍了常用的文本纠错工具的安装以及使用方法。
可以看到本书中详细介绍了大量的使用场景,大家可以通过这些场景选择使用什么样的算法以及如何通过策略达到更好的业务效果。模型更多的是解决业务问题,而不是独立存在的。通过本书的学习可以更好的理解大模型的底层原理,因为本书中详细介绍了大模型的底层算法,通过这些知识的学习可以更容易理解大模型的构建。本书中使用了很多小模型可以快速的解决问题,这些小模型可以和大模型联动,将大模型压缩成小模型或者使用数据蒸馏技术,解决模型部署和响应速度等多方面问题。
本文作者:李明琦 资深AI技术专家,现就职于BAT,担任高级算法工程师,《基于NLP的内容理解》作者。长期致力于机器学习、深度学习、NLP等技术在实际业务场景中的落地,在内容理解方面有丰富的经验,主导的内容质量项目曾获得最佳项目奖。先后发表人工智能相关的学术论文2篇,申请人工智能领域的发明专利5项。在GitHub上贡献了大量内容质量、问答系统、NLP等方面的代码,在CSDN撰写了一些与算法、机器学习、内容理解相关的文章,深受欢迎。
李明琦,谷雪,孟子尧 著
推荐语:BAT高级AI专家撰写,解密大模型底层技术,结合实际业务场景,6个维度讲解如何用NLP算法解决内容理解的各种难题,以应用贯穿全书,包含大量案例。
关注下方视频号MLNLP,后台回复NLP,抽奖选出6名同学,包邮送出《基于NLP的内容理解》。
微信扫码关注该文公众号作者