香港科技大学、中国人民大学、浙江大学、香港大学等知名学者重磅来袭!
MLNLP 2024学术研讨会 是由 MLNLP社区 和 中国中文信息学会青年工作委员会 联合举办的学术活动。 社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外同学们之间的交流。
会议概况
召开时间:
2024年03月31日 9:00-12:00(北京时间)
主办单位:
MLNLP社区
中国中文信息学会青年工作委员会
大会主席:
陈科海:哈尔滨工业大学(深圳)教授
程序委员会主席:
李北:MLNLP学术委员会委员
胥栋宽:北卡州立大学助理教授
组委会:
MLNLP社区秘书处(刘洪宇、段然、陈麒光、鹿纯林)
直播平台:
哔哩哔哩:http://live.bilibili.com/23872620
微信视频号:请点击下方卡片预约
日程安排
嘉宾介绍
一、主持人:
李北
MLNLP学术委员会委员
嘉宾简介:李北,博士毕业于东北大学,导师是肖桐教授。研究方向为机器翻译,序列生成,语言建模等自然语言处理任务,以及多模态建模、大语言模型学习等。在ACL、ICML、ICLR、EMNLP、AAAI、WMT等会议上发表十余篇论文,曾荣获EMNLP2021杰出审稿人,获得4次国家奖学金,辽宁省优秀毕业硕士论文等荣誉。个人主页:https://libeineu.github.io/
胥栋宽
北卡州立大学助理教授
嘉宾简介:胥栋宽 (DK),北卡州立大学计算机系助理教授,领导北卡州立大学的生成式智能计算实验室 (NCSU Generative Intelligent Computing Lab)。他的研究是推进通用人工智能,特别是生成式人工智能系统的自动规划、可靠推理和高效计算。他曾荣获 2024年微软加速基础模型研究奖,2024年北卡州立大学Carla Savage奖和 ICCCN 2023会议最佳论文奖。DK 的研究成果多次发表在AI、NLP、CV、硬件等领域的顶级会议和期刊上。他担任 ACM SIGAI 时事通讯的专栏编辑,并将在 CVPR 2024上主持第一届计算机视觉数据集蒸馏研讨会。他曾主持AAAI 2023的第一届人工智能加速深度学习-硬件协同设计研讨会、KDD 2023的知识发现资源高效学习研讨会、以及KDD 2022的可扩展与可信任人工智能主题讨论会。此外,DK 担任过美国国家科学基金会和四十多个国际会议和期刊的项目小组成员、领域主席、资深程序委员会成员以及定期审稿人。DK 还拥有丰富的行业研究经验,并与谷歌 DeepMind、微软研究院、Moffett AI 和 NEC 美国实验室长期合作,拥有多项美国专利。DK 的长期研究目标是解放人工智能生产力,实现其应用的民主化,以平等、可持续和负责任的方式服务于更广泛的人群和现实世界应用。更多信息,请访问DK的个人主页 https://dongkuanx27.github.io/
二、大会主席:
陈科海
哈尔滨工业大学(深圳)教授
嘉宾简介:陈科海,哈尔滨工业大学(深圳)计算机学院教授,博士生导师,2022年入选国家级青年人才计划,2022年入选“鹏城孔雀计划”特聘岗位B档,获2021年北京市科技进步二等奖,获2020年中国中文信息学会“优秀博士学位论文”奖。2018年于哈尔滨工业大学取得博士学位,2018年至2021年在日本国立情报通信研究机构从事博士后研究,主要研究方向为自然语言处理、大语言模型、强化学习与机器翻译。在ACL、ICLR、EMNLP、AAAI、TPAMI、TASLP、TFS等国际会议和期刊发表论文40余篇。曾担任自然语言处理国际顶级会议ACL-2022/2024机器翻译领域共同主席、人工智能顶级会议AAAI-2021/2022、IJCAI-2024资深程序委员、IJCNLP-AACL-2022机器翻译领域共同主席、IJCNLP-AACL-2023研讨会共同主席、NAACL-2024自然语言处理领域共同主席、EACL-2024自然语言处理领域共同主席。个人主页:https://chenkehai.github.io
三、分享嘉宾:
胡旭明
香港科技大学(广州)助理教授
嘉宾简介:胡旭明,香港科技大学(广州)人工智能学域助理教授,博士生导师;香港科技大学计算机科学与技术系联署助理教授。胡旭明博士在清华大学以北京市优秀毕业生获得博士学位,导师为Philip S. Yu教授。研究方向包括大语言模型的可信探究、多模态大语言模型以及大语言模型的蒸馏和加速。近五年,胡旭明博士在KDD、ICLR、ACL、TKDE等数据挖掘、自然语言处理领域国际顶级期刊和会议上发表了20余篇第一作者文章。担任ACL、NAACL、EACL等国际顶级会议的领域主席以及ACL Rolling Review的执行编辑。个人主页:https://xuminghu.github.io/
报告题目:可信大语言模型的分析与探究
报告简介:在本次报告中,我们探讨了大语言模型(LLMs)中的幻觉现象,并从七个独特角度对其进行了深入分析。这些角度涵盖了LLMs在事实知识的储存、及时更新、多重事实推理、特定领域知识推理以及对抗性样本的抵抗能力等方面。
戴孙浩
中国人民大学博士生
嘉宾简介:戴孙浩,中国人民大学高瓴人工智能学院直博三年级研究生,导师为徐君教授。研究方向为可信信息检索和推荐系统,特别关注大语言模型和因果推断在上述方向的应用。
报告题目:源偏见:神经检索模型偏向于大模型生成文本
报告简介:大语言模型已经展示出了惊人的文本生成能力,随着大语言模型及其应用的快速发展,互联网上充斥着越来越多的大语言模型生成的文本,而这些自动生成的文档也纳入了搜索领域。我们的最新研究揭示了神经检索器在信息检索中对大语言模型生成文本的“源偏见”(Source Bias)问题。具体而言,我们首先构建了相应的基线和数据集,用于支持跟踪大语言模型时代对信息检索的影响。大量的实验表明神经检索模型更倾向于将大语言模型生成的文档排名更靠前,并且这个偏见不仅限于首阶段检索,还延伸到二阶段重新排序。进一步的,我们通过深度分析以及理论论证揭示了“源偏见”的产生原因,并提出了一种模型无关的缓解“源偏见”的方案。
姚云志
浙江大学博士生
嘉宾简介:姚云志,浙江大学计算机科学与技术学院在读博士研究生,师从陈华钧和张宁豫。研究兴趣是大语言模型的知识增强与知识编辑。
报告题目:大模型知识编辑方法与安全监管应用
报告简介:为了缓解大模型面临着过时的知识、幻觉、偏见以及不安全的回复等问题,知识编辑在近两年得到了非常多的关注。然而,现有的知识编辑方法仍然面临着可靠性一般,泛化性差,以及对其他任务造成破坏等问题。本次报告将系统地分析现有的知识编辑方法的优势与弊端。同时,将进一步介绍知识编辑在大模型安全监管领域的应用,探索使用知识编辑方法来提升大模型的安全性。
李磊
香港大学博士生
嘉宾简介:李磊,香港大学计算机科学系博士研究生,师从刘琦教授(主要导师)及孔令鹏教授,研究方向涵盖多模态大语言模型和大模型可解释性分析等领域。他在顶级会议和期刊如ACL、EMNLP、TASLP等发表多篇论文,相关工作曾获EMNLP 2023年度最佳长文奖。个人主页:https://lilei-nlp.github.io/
报告题目:通向GPT-4V之路: 多模态大语言模型的进展与未来
报告简介:GPT-4V的发布引起了广泛的关注,并在各个领域展现出了巨大的潜力。在本次分享中,我们将重点关注已有工作对多模态大语言模型的架构、数据和训练方案的探索,结合我们在指令微调数据集(M3IT)、多模态数学推理能力(Multimodal ArXiv)、偏好对齐(VLFeedback)以及模型安全性(Red Teaming VLM和 ImgTrojan)等工作,分享构建多模态大语言模型的经验,并探讨未来多模态大语言模型发展的可能方向。我们期待通过这次分享,与社区一起推动多模态大语言模型领域的研究和进步。
4
直播平台
直播平台
视频号
B站
会议报名
扫描二维码进入MLNLP交流群
关于我们
微信扫码关注该文公众号作者