字节跳动 Al Lab、北京大学、华盛顿大学、加州大学学洛杉矶分校知名学者重磅来袭!
MLNLP 2023学术研讨会 是由 MLNLP社区 和 中国中文信息学会青年工作委员会 联合举办的学术活动。 社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外同学们之间的交流。
会议概况
召开时间:
2023年05月28日 9:00-12:00(北京时间)
主办单位:
MLNLP社区
中国中文信息学会青年工作委员会
大会主席:
杨敏:中国科学院深圳先进技术研究院副研究员
程序委员会主席:
李北:东北大学博士生
林禹臣:Allen Institute for AI博士后青年研究员
组委会:
MLNLP社区秘书处(刘洪宇、段然、陈麒光、张钰迪)
社区支持 :
智源社区
直播平台:
哔哩哔哩:http://live.bilibili.com/23872620
微信视频号:请点击下方卡片预约
会议日程
嘉宾介绍
一、主持人:
李北
东北大学博士生
嘉宾简介:李北,东北大学自然语言处理实验室三年级博士生,导师是肖桐教授。研究方向为机器翻译,序列生成,语言建模等自然语言处理任务,以及多模态建模、预训练等。在ACL/ICML/EMNLP/AAAI/WMT等会议上发表十余篇论文,曾荣获EMNLP2021杰出审稿人,获得4次国家奖学金,辽宁省优秀毕业硕士论文等荣誉。个人主页:https://libeineu.github.io/
林禹臣
Allen Institute for AI博士后青年研究员
嘉宾简介:林禹臣是Allen Institute for AI(AI2)博士后青年研究员,师从Yejin Choi教授。他于2022年获得南加州大学博士学位,导师是Xiang Ren教授。他的研究专注于常识知识推理(Commonsense Reasoning)与大语言模型(Large Language Models)旨在构建具有人类思考和交流模式的智能系统。此外,他还对持续学习和联邦学习感兴趣。他曾于上海交通大学IEEE试点班获得学士学位,曾在Google AI,FAIR担任实习研究生。他一直担任 ACL、EMNLP、ICML、NeurIPS、ICLR、AAAI会议审稿人。他曾多次组织了研讨会(Workshop),并在ACL 2022和2023参与讲习(Tutorial),曾任ACL 2023的领域主席 (Area Chair)。个人主页:https://yuchenlin.xyz/
二、大会主席致辞:
杨敏
中国科学院深圳先进技术研究院副研究员
嘉宾简介:杨敏,中国科学院深圳先进技术研究院副研究员,数据挖掘实验室主任,博士生导师,中国科学院青年创新促进会成员, 深圳市海外高层次人才,入选美国斯坦福大学发布的2021/2022年度全球前2%顶尖科学家, 入选百度2022年度AI华人青年学者榜单。研究方向为自然语言处理、对话系统、智慧司法等。发表CCF-A/B类论文100余篇,引用超过5300余次,H-index 38(据谷歌学术统计)。多次担任自然语言顶级会议ACL、EMNLP、COLING、NAACL的(高级)领域主席,担任中国中文信息学会青年工作委员会执行委员、深圳人工智能学会法律人工智能专业委员会主任。
三、分享嘉宾:
郑在翔
字节跳动 AI Lab 研究员
嘉宾简介:郑在翔,字节跳动 AI Lab 研究员。他于 2021 年博士毕业于南京大学 NLP 组,博士期间曽在爱丁堡大学和字节跳动 AI Lab 访问和实习。他的主要研究兴趣为深度概率生成模型(如 Diffusion Models & LLMs),并以此来解决自然语言处理(如机器翻译、文本生成)和 AI for Science(如蛋白质设计)中的重要挑战。他在ICML/ICLR/NeurIPS/ACL/TACL/EMNLP/IJCAI/TASLP 等顶级学术会议和期刊上发表论文10余篇,并同时担任审稿人。他获得中国中文信息学会优秀博士论文奖,所参与和指导学生的论文分别获得 ACL 21 和 INLG 22 最佳论文奖项,并作为主要带头人获得 WMT 21 国际机器翻译大赛第一名。个人主页:https://zhengzx-nlp.github.io
报告题目:Deep generative sequence modeling for human languages and proteins
报告简介:近年来,深度生成模型(deep generative models)展现了前所未有的强大生成能力,可以合成逼真的图像、用人类的语言对话,以及设计小分子和蛋白质药物,掀起了当前这股生成式 AI 的浪潮。本次分享将介绍我们在面向序列数据的深度概率生成模型来学习生成自然语言以及设计蛋白质上的探索:我们将介绍深度均衡非自回归序列建模和扩散概率模型,用于学习文本生成;此外,还将介绍我们最近基于大规模蛋白质语言模型进行蛋白质设计的工作。
王一栋
北京大学软件工程国家工程中心博士生
嘉宾简介:王一栋,北京大学软件工程国家工程中心博士生,师从张世琨与叶蔚。现任西湖大学科研助理,师从张岳。研究方向包括半监督学习,自然语言处理。个人主页:https://qianlanwyd.github.io/
报告题目:自动及可复现的评估大模型PandaLM
报告简介:大模型的发展可谓一日千里,指令微调方法犹如雨后春笋般涌现,大量所谓的 ChatGPT “平替” 大模型相继发布。在大模型的训练与应用开发中,开源、闭源以及自研等各类大模型真实能力的评测已经成为提高研发效率与质量的重要环节。来自北京大学、西湖大学等机构的研究者联合提出了一种全新的大模型评估范式——PandaLM。PandaLM 通过训练一个专门用于评估的大模型,对大模型能力进行自动化且可复现的测试验证。PandaLM 于 4 月 30 日在 GitHub 上发布,是全球首个评估大模型的大模型。相关论文会在近期公布。
刘嘉程
华盛顿大学艾伦计算机科学与工程学院博士研究生
嘉宾简介:刘嘉程,华盛顿大学艾伦计算机科学与工程学院博士研究生,师从Yejin Choi和Hanna Hajishirzi,现任Meta AI访问研究员。研究方向包括常识推断与推理(commonsense inference and reasoning)以及数学推理。个人主页:https://liujch1998.github.io/。
报告题目:检验常识叙述的正确性
报告简介:大规模语言模型生成的文本依然会包含简单的常识性错误。我们提出Vera模型,它能够评估关于常识的陈述句的可信度。Vera的训练数据包含从知识仓库和问答数据集衍生出的约700万条陈述句,使得它可以有效地区分正确和错误的常识叙述。在解决常识问题的基准上,Vera的效果显著优于用于叙述检验的ChatGPT,GPT-4和Flan-T5,并且展示出很好的泛化性和校准性。我们发现Vera可用于过滤其它语言模型生成的错误常识知识,并可以在现实场景中检测ChatGPT犯的常识性错误。我们希望类似Vera的检验器可以帮助提高语言模型的常识能力。
鲁盼
加州大学洛杉矶分校在读博士生
嘉宾简介:鲁盼是加州大学洛杉矶分校的在读博士生,师从朱松纯教授,学术委员会成员为Kai-Wei Chang、Ying Nian Wu和Nanyun (Violet) Peng。他的研究兴趣包括大型语言模型、数学推理、可信赖模型、对话生成和多模态学习。他在ICLR、NeurIPS、ACL、EMNLP、CVPR、AAAI和KDD等会议上发表了多篇论文。他是NeurIPS 2021和NeurIPS 2022数学推理研讨会的主要组织者,并将担任IJCAI 2023数学推理教程的主讲人。他曾获得过清华大学优秀毕业论文、徐特立校长奖学金和微软优秀实习生等荣誉。
报告题目:基于大型语言模型的即插即用组合推理
报告简介:尽管大型语言模型(LLMs)在各种自然语言处理任务中取得了显著进步,但它们仍存在一些局限性,比如无法获取实时信息、利用外部工具、或进行精确的数学推理。为此,我们提出了Chameleon(变色龙)模型,一种可即插即用的组合推理框架。Chameleon可以组合并利用多种工具,包括LLM模型、视觉模型、网络搜索引擎、Python函数,以及基于规则的模块。通过LLM规划器,Chameleon能够生成自然语言形式的程序来推断合适的工具组合,然后逐一执行这些工具得到最终的预测结果。我们在ScienceQA和TabMWP两个任务中展示了Chameleon的有效性。Chameleon (GPT-4) 在ScienceQA任务上取得了86.54%的准确率,比当前最优的少样本模型提高了11.37%。在TabMWP任务上,它比当前最优的模型提升了17.0%。进一步的研究表明,使用GPT-4作为规划器可以得到更加准确的工具选择表现。
4
直播平台
直播平台
视频号
B站
会议报名
扫描二维码添加小助手微信
关于我们
微信扫码关注该文公众号作者