直播预告 | ACL 2023原作解读:自查纠错—知识增强的思维链框架
报告介绍
大型语言模型(LLMs)逐渐成为自然语言处理(NLP)中的常态,并在生成和推理任务中展现出良好的性能。然而其最致命的缺点之一是生成的内容缺乏事实正确性。思维链(CoT)通过生成可解释的推理链,进一步在复杂的推理任务中提高了模型性能,但在知识密集型任务中仍存在事实性错误问题。在本文中,我们提出了自查纠错(Verify-and-Edit)框架,通过根据外部知识对推理链进行准确性检验和后期编辑,以提高模型的任务性能。我们的框架基于 GPT-3 构建,并在多个开放域的问答任务中提高了准确性。
论文信息
Verify-and-Edit: A Knowledge-Enhanced Chain-of-Thought Framework
收录会议:
论文链接:
代码链接:
文章解读:
ACL 2023 | 自查纠错:给大模型的“思考过程”注入知识以提高事实正确度
李星漩
新加坡南洋理工大学和阿里达摩院联培博士生
李星漩,新加坡南洋理工大学和阿里达摩院联培博士生,师从Shafiq Joty和邴立东老师。其研究方向为自然语言处理,主要包括大语言模型知识增强,模型鲁棒性和安全性等。其在AI顶级会议ACL发表了3篇文章。曾获新加坡政府奖学金,NUS创业奖等荣誉。
扫码下方二维码
进入直播间观看
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
微信扫码关注该文公众号作者
戳这里提交新闻线索和高质量文章给我们。
来源: qq
点击查看作者最近其他文章