CCF-NLP走进高校之“走进哈尔滨工业大学(深圳)”
活动介绍
2 活动流程
活动流程
活动流程(含10分钟Q&A)
09:00-09:15 | 万小军:开场介绍 主持人:张岳 |
09:15-09:20 | 聂礼强: 哈尔滨工业大学(深圳)介绍 主持人:张岳 |
09:20-10:05 | 张岳:机器翻译泛化性研究与思考 主持人:陈科海 |
10:05-10:50 | |
10:50-11:35 | |
11:35-12:20 | |
12:20-12:25 | 活动总结 |
3 嘉宾介绍
嘉宾介绍
张岳
西湖大学教授
陈科海
哈尔滨工业大学(深圳)助理教授
二、开场介绍:
万小军
北京大学教授
万小军,北京大学王选计算机研究所博士生导师。研究兴趣包括自动文摘与文本生成、情感分析与语义计算、多语言与多模态NLP等。曾担任计算语言学重要国际期刊Computational Linguistics编委、国际会议EMNLP 2019程序委员会主席,现任CCF-NLP专委会秘书长、中文信息学会理事与NLGIW专委会副主任、TACL与ARR执行编委、NLE编委、JCST编委,多次担任相关领域重要国际会议(ACL、NAACL、EMNLP、EACL,AACL)高级领域主席或领域主席。荣获ACL2017杰出论文奖、IJCAI 2018杰出论文奖。研制推出多款AI写作机器人,如小明、小南、小柯等,应用于多家媒体单位。
三、哈尔滨工业大学(深圳)介绍:
聂礼强
哈尔滨工业大学(深圳)
计算机科学与技术学院执行院长
四、分享嘉宾:
张岳
西湖大学教授
嘉宾简介:西湖大学教授。主要研究领域为自然语言处理、文本挖掘及相关的机器学习方法。研究成果包括自左向右处理文本的结构预测算法、多任务融合学习的联合模型、文本表示神经网络和图神经网络的创新算法、自然语言处理和人类常识研究。发表国际期刊论文50余篇,CCF列表 A、B 类国际会议论文二百余篇。担任国内外顶级会议CCL 2020、EMNLP 2022程序委员会共同主席。获CCF2018中文计算与自然语言处理青年新锐奖、COLING2018、IALP2017、SemEval2020(Honorable Mention)等国际会议的最佳论文奖。
报告题目:机器翻译泛化性研究与思考
报告简介:机器翻译是语言处理的一个重要应用。随着深度学习技术的发展,机器翻译取得了长足的进步。然而,当前主流机器翻译系统还存在着稳定性、跨领域迁移性等不足。在这次报告中,我将分享机器翻译模型泛化性的定量评估,并介绍一种自动的方法缓解上述问题。最后,我将分享一些人机结合的机器翻译工作,通过干预提升翻译质量。
王瑞
上海交通大学计算机系副教授、博士生导师
嘉宾简介:王瑞,上海交通大学计算机系副教授、博士生导师,此前在日本国立情报通信研究机构(NICT)担任长聘研究员,研究方向是机器翻译。他在ACL, EMNLP, ICLR, AAAI, IJCAI, TPAMI, TASLP等国际权威会议和期刊发表论文60余篇,在EACL和 EMNLP上开设了机器翻译前沿讲习班。他担任了国际权威会议MT Summit的程序委员会主席和NeuRIPS/ICLR/EMNLP/NAACL的机器翻译领域主席,领导的团队在国际权威机器翻译测评WMT中获得多次第一名。其相关技术被广泛应用在东京奥运会官方机器翻译软件VoiceTra上,累计下载超过700万次。
报告题目:无监督机器翻译
报告介绍:机器翻译是一个经典的人工智能和自然语言处理任务,它的发展经历了基于规则、基于模板、基于统计和基于深度神经网络的四个阶段。从2010年开始,伴随着计算资源和语料的不断提升,神经网络机器翻译性能得到了显著的提升。本次报告将从机器翻译的发展开始,介绍不同阶段机器翻译的特点,并总结目前机器翻译的发展现状及其面临的挑战。
谢军
阿里巴巴达摩院机器翻译算法负责人
嘉宾简介:谢军,博士,阿里巴巴达摩院机器翻译算法负责人,研究兴趣为机器翻译、自然语言处理、对话系统等,在CCF A/B类领域顶级会议/期刊(如ACL、EMNLP、COLING、AAAI等)发表论文近30篇。曾作为核心技术人员,参与包括863重大、国家自然科学基金在内的科研项目近十项;作为算法负责人,参与并指导多项商用智能对话系统和机器翻译系统的研发。
报告题目:神经机器翻译:模型增强、自我评估、统一质量评价
报告介绍:高质量、可信赖、易迁移的机器翻译是研究人员一直追求的目标,也是机器翻译在多领域、多场景广泛应用的保障。报告将介绍达摩院向这一目标努力的最新工作,包括连续语义增强机器翻译、具有自我评估能力的机器翻译、非参化在线学习用户反馈、统一译文评估方法UniTE、以及“模型即服务”的魔搭社区开源等。
张宁豫
浙江大学副教授,博士生导师
嘉宾简介:张宁豫,博士,浙江大学副教授,博士生导师。研究方向包括自然语言处理、知识图谱等,在自然语言处理和知识图谱领域已发表多篇顶级会议和期刊文章,包括NeurIPS、ICLR、ACL、EMNLP、NAACL、TASLP等,Google Scholar H-index 24,三篇论文入选Paper Digest高影响力论文;曾担任IJCAI高级程序委员会委员,ACL、EMNLP、NeurIPS、ICLR、ICML等会议程序委员会委员。
报告题目:知识提示学习:通过提示将知识“植入”预训练模型
报告介绍:近年以来,蓬勃发展的自然语言处理新范式“提示学习”(Prompt Learning)通过构造提示模板和标签映射,可显著提升模型的少样本、跨领域、多任务等能力。在提示学习中,如何针对具体任务,构建出最合适的模板提示和标签映射组合,是提升任务性能的关键。通过植入相关的任务和领域知识来构建提示模板,以“知识提示”指导预训练语言模型,可以提升模型对任务和领域的感知,充分的激发预训练语言模型的潜力。本次报告将介绍介绍一系列提示学习的前沿工作,并重点介绍知识提示学习,通过提示将知识“植入”预训练模型,并探讨不同类型的知识(知识图谱、文本演示、物理模拟等)、不同的“植入”方式(序列拼接、检索增强、思维链等)在提示学习中的作用。
4
直播平台
直播平台
视频号
B站
微信扫码关注该文公众号作者