Redian新闻
>
陈丹琦ACL学术报告来了!详解大模型「外挂」数据库7大方向3大挑战,3小时干货满满

陈丹琦ACL学术报告来了!详解大模型「外挂」数据库7大方向3大挑战,3小时干货满满

公众号新闻
萧箫 西风 发自 凹非寺
量子位 | 公众号 QbitAI

清华姚班校友陈丹琦,在ACL 2023上做了场最新演讲!

话题还是近期非常热门的研究方向——

像GPT-3、PaLM这样的(大)语言模型,究竟是否需要依靠检索来弥补自身缺陷,从而更好地应用落地。

在这场演讲中,她和其他3位主讲人一起,共同介绍了这个主题的几大研究方向,包括训练方法、应用和挑战等。

演讲期间听众的反响也很热烈,不少网友认真地提出了自己的问题,几位演讲者尽力答疑解惑。

至于这次演讲具体效果如何?有网友直接一句“推荐”给到评论区。

所以,在这场长达3个小时的演讲中,他们具体讲了些什么?又有哪些值得一听的地方?

大模型为何需要“外挂”数据库?

这场演讲的核心主题是“基于检索的语言模型”,包含检索语言模型两个要素。

定义上来看,它指的是给语言模型“外挂”一个数据检索库,并在进行推理(等操作)时对这个数据库进行检索,最后基于检索结果进行输出。

这类外挂数据存储库,也被称之为半参数模型或非参数模型。

之所以要研究这个方向,是因为如GPT-3和PaLM这类(大)语言模型,在表现出不错的效果同时,也出现了一些让人头疼的“bug”,主要有三个问题:

1、参数量过大,如果基于新数据重训练,计算成本过高;
2、记忆力不行(面对长文本,记了下文忘了上文),时间一长会产生幻觉,且容易泄露数据;
3、目前的参数量,不可能记住所有知识。

在这种情况下,外部检索语料库被提出,即给大语言模型“外挂”一个数据库,让它随时能通过查找资料来回答问题,而且由于这种数据库随时能更新,也不用担心重训的成本问题。

介绍完定义和背景之后,就是这个研究方向具体的架构、训练、多模态、应用和挑战了。

架构上,主要介绍了基于检索的语言模型检索的内容、检索的方式和检索的“时机”。

具体而言,这类模型主要会检索token、文本块和实体词语(entity mentions),使用检索的方式和时机也很多样性,是一类很灵活的模型架构。

训练方式上,则着重介绍了独立训练(independent training,语言模型和检索模型分开训练)、连续学习(sequential training)、多任务学习(joint training)等方法。

至于应用方面,这类模型涉及的也就比较多了,不仅可以用在代码生成、分类、知识密集型NLP等任务上,而且通过微调、强化学习、基于检索的提示词等方法就能使用。

应用场景也很灵活,包括长尾场景、需要知识更新的场景以及涉及隐私安全的场景等,都有这类模型的用武之地。

当然,不止是文本上。这类模型也存在多模态扩展的潜力,可以将它用于文本以外的任务上。

听起来这类模型优点很多,不过基于检索的语言模型,当下也存在一些挑战

陈丹琦在最后“收尾”的演讲中,着重提到了几点这个研究方向需要解决的几大难题。

其一,小语言模型+(不断扩张的)大数据库,本质上是否意味着语言模型的参数量依旧很大?如何解决这一问题?

例如,虽然这类模型的参数量可以做到很小,只有70亿参数量,但外挂的数据库却能达到2T……

其二,相似性搜索的效率。如何设计算法使得搜索效率最大化,是目前非常活跃的一个研究方向。

其三,完成复杂语言任务。包括开放式文本生成任务,以及复杂的文本推理任务在内,如何用基于检索的语言模型完成这些任务,也是需要持续探索的方向。

当然,陈丹琦也提到,这些话题是挑战的同时,也是研究机遇。还在寻找论文课题的小伙伴们,可以考虑是否把它们加进研究列表了~

值得一提的是,这次演讲也不是“凭空”找出的话题,4位演讲者贴心地在官网放出了演讲参考的论文链接。

从模型架构、训练方法、应用、多模态到挑战,如果对这些话题中的任何一部分感兴趣,都可以去官网找找对应的经典论文来看:

现场解答听众困惑

这么干货满满的演讲,四位主讲人也不是没有来头,在演讲中他们还耐心地对听众提出的问题进行了解答。

我们先来康康主讲人都是谁。

首先是主导这次演讲的普林斯顿大学计算机科学助理教授陈丹琦

她是计算机科学领域近来最受关注的华人青年学者之一,也是08级清华姚班校友。

在信息学竞赛圈,她颇具传奇色彩——CDQ分治算法就是以她的名字命名。2008年,她代表中国队斩获一枚IOI金牌。

而她的那篇长达 156 页的博士毕业论文《Neural Reading Comprehension and Beyond》,更是一度火爆出圈,不光获得当年斯坦福最佳博士论文奖,还成为了斯坦福大学近十年来最热门毕业论文之一。

现在,陈丹琦除了是普林斯顿大学计算机科学助理教授,也是该校从头搭建NLP小组的联合负责人、AIML小组成员。

她的研究方向主要聚焦于自然语言处理和机器学习,并且对在实际问题中具有可行性、可扩展性和可泛化性的简单而又可靠的方法饶有兴趣。

同样来自普林斯顿大学的,还有陈丹琦的徒弟钟泽轩(Zexuan Zhong)

钟泽轩是普林斯顿大学的四年级博士生。硕士毕业于伊利诺伊大学香槟分校,导师是谢涛;本科毕业于北京大学计算机系,曾在微软亚研院实习,导师是聂再清。

他的最新研究主要聚焦于从非结构化文本中提取结构化信息、从预训练语言模型中提取事实性信息、分析稠密检索模型的泛化能力,以及开发适用于基于检索的语言模型的训练技术。

此外,主讲人还有来自华盛顿大学的Akari Asai、Sewon Min。

Akari Asai是华盛顿大学主攻自然语言处理的四年级博士生,本科毕业于日本东京大学。

她主要热衷于开发可靠且适应性强的自然语言处理系统,提高信息获取的能力。

最近,她的研究主要集中在通用知识检索系统、高效自适应的NLP模型等领域。

Sewon Min是华盛顿大学自然语言处理小组的博士候选人,读博士期间,曾在Meta AI兼职担任研究员长达四年,本科毕业于首尔国立大学。

最近她主要关注语言建模、检索以及二者的交叉领域。

在演讲期间,听众也很热情地提出了众多问题,例如为啥要用perplexity(困惑度)来作为演讲的主要指标。

主讲人给出了细心解答:

在比较参数化的语言模型时,困惑度(PPL)经常被用到。但困惑度的改善能否转化为下游应用仍然是一个研究问题。

现已有研究表明,困惑度与下游任务(尤其是生成任务)有很好的相关性,并且困惑度通常可提供非常稳定的结果,它可以在大规模评估数据上进行评估(相对于下游任务来说,评估数据是没有标签的,而下游任务可能会受到提示的敏感性和缺乏大规模标记数据的影响,从而导致结果不稳定)

还有网友提出了这样的疑问:

关于“语言模型的训练成本高昂,而引入检索可能会解决这个问题”的说法,你只是将时间复杂度替换为空间复杂度(数据存储)了吗?

主讲人给出的解答是酱婶的:

我们讨论的重点是如何将语言模型缩减到更小,从而减少时间和空间的需求。然而,数据存储实际上也增加了额外的开销,这需要仔细权衡和研究,我们认为这是当前的挑战。

与训练一个拥有一百亿以上参数的语言模型相比,我认为目前最重要的是降低训练成本。

想找这次演讲PPT,或是蹲具体回放的,可以去官网看看~

官方网址:
https://acl2023-retrieval-lm.github.io/

参考链接:
[1]https://twitter.com/AkariAsai/status/1677455831439384582

[2]https://twitter.com/cosmtrek/status/1678077835418955781
[3]https://app.sli.do/event/ok8R2jMMvNjp9uMkxi63Qi/live/questions

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
干货满满这场在河南举办的科技大会,干货满满!|甲子光年上山下海,360收获AI大模型「第一桶金」逐浪硬科技丨干货满满,量子科学最实用的解读都在这里为防大模型作恶,斯坦福新方法让模型「遗忘」有害任务信息,模型学会「自毁」了陈丹琦重新定义了文本相似性问题,提出C-STS,GPT-4也不能很好解决大模型「上车」关键一步:全球首个语言+自动驾驶全栈开源数据集来了致命幻觉问题、开发GPU替代品,大模型还面临这10大挑战大模型外挂知识库优化-大模型辅助向量召回并非所有向量数据库都生来平等 - 找到属于你的向量数据库陈丹琦 ACL'23 Tutorial - 基于检索的大语言模型 学习笔记我要离婚程序员「求生宝典」!AI大发展下的程序员求生指南,干货满满【三小时干货直播】北美资深UX面试官解析2023下半年UX求职趋势,手把手教你攻破求职难关 | 08月14日晚 | 报名已开启只给大模型LeetCode编号,也能解题!大模型表现好是源于对训练数据的记忆吗?请不要迷信大模型详解大模型RLHF过程(配代码解读)破解大模型「涌现」之谜:新奇性搜索是AI腾飞的踏脚石晨跑,小羊,emplyee appreciation day的BBQ干货满满!景顺长城基金20周年多资产策略会,共话市场新格局!智能周报|OpenAI发布ChatGPT企业版,预计今年营收10亿美元;首批11家国产大模型「获批」,不包括阿里巴巴通义大模型干货满满!美国销售税全解析2023年,消费领域的3大方向大模型持续技术升级,你需要这样一场干货满满的技术论坛万水千山 一起走遍: 台湾海涅:焚书的地方,最终也会烧人糖尿病肾病中国指南解读,干货满满!快手自研大模型「快意」亮相,在多个大模型榜单上表现优异陈丹琦团队提出低内存高效零阶优化器MeZO,单卡A100可训练300亿参数模型度小满CTO许冬亮:金融行业是大模型落地应用的高潜场景,但有三大挑战需解决大模型时代,「幕后主力军」数据中心走向何方?大咖云集,干货满满,来亚马逊云科技中国峰会深度解读AIGC的现在和未来大温情侣必看! 520约会来这就对了! 对象直接哭死! 干货满满!ChatGPT 和 OpenAI 都在用的 Redis,是如何从传统数据库升级为向量数据库的?数字资产,数字货币,过去以及未来穷途末路!在英留学生恐面临巨大挑战,而解决方法竟然是这个?
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。