中国中文信息学会《前沿技术讲习班》-大模型系列专题·成都站 开放注册!
讲习班介绍
为进一步普及最新大模型前沿动态,推动国内大模型技术发展,发展基础理论与应用,中国中文信息学会《前沿技术讲习班》(CIPSATT)推出大模型系列专题,本期将于2023年12月2日-12月3日在成都线下举办。讲习班以大模型为主题,邀请了来自国内研究第一线的知名青年专家学者,系统讲述基础大模型构建与增强、大模型安全与对齐、跨模态大模型等,为感兴趣的学者、学生和工程师提供系统学习和交流的机会,快速了解大模型前沿方向的基本概念、研究内容和发展趋势。
时间:2023年12月2日-12月3日
地点:四川省成都市四川大学望江校区
注册参会:http://reg.cipsc.org.cn/cipsatt41/index.html
12月2日 | |
8:50 - 9:00 | 开班仪式 |
9:00 - 9:10 | 全体合影 |
前言 | |
9:10 - 9:30 | 报告1:大模型能力概览 讲者:严睿(中国人民大学) |
主题1:基础大模型构建 | |
9:30 - 10:30 | 报告2:从模型预训练到面向应用的技术研究 讲者:李俊涛(苏州大学) |
主题2:检索增强的大模型 | |
10:30 - 12:00 | 报告3:Enhancement of Large Language Models through Retrieval Augmentation 讲者:宫叶云(微软亚洲研究院) |
12:00 - 14:00 | 午餐 + 休息 |
主题3:大模型安全与对齐 | |
14:00 - 15:00 | 报告4:大语言模型的安全对齐技术 讲者:崔淦渠(清华大学) |
15:00 - 15:30 | 报告5:大规模语言模型的可信与安全问题研究 讲者:李林阳(复旦大学) |
主题4:领域大模型构建 | |
15:30 - 16:30 | 报告6:大语言模型的领域实践之路 讲者:吴震(南京大学) |
16:30 - 17:30 | 报告7:当大模型遇上长文本:可行路线探索与长上下文模型介绍 讲者:黄曲哲、陶铭绪、张晨(北京大学) |
12月3日 | |
主题5:大模型智能体与工具学习 | |
9:00 – 10:30 | 报告8:大语言模型驱动下的自主智能体构建与应用 讲者:陈旭(中国人民大学) |
10:30 - 12:00 | 报告9:大模型工具学习 讲者:林衍凯(中国人民大学) |
12:00 - 14:00 | 午餐 + 休息 |
主题6:跨模态大模型 | |
14:00 – 15:30 | 报告10:从跨模态生成到跨模态系统 讲者:吴晨飞(微软亚洲研究院) |
15:30 – 17:00 | 报告11:多模态融合的大模型框架和建构技术 讲者:魏忠钰(复旦大学) |
特邀讲者
报告1:大模型能力概览
个人简介:严睿,中国人民大学高瓴人工智能学院长聘副教授,博士生导师。曾入选北京智源人工智能研究院青年科学家,微软亚洲研究院铸星学者,中国人民大学杰出学者。发表论文100余篇,引用10,000余次,主要研究方向为自然语言处理,文本挖掘,信息检索,机器学习和人工智能。曾多次担任多个顶级学术会议的领域审稿人/资深审稿人,也曾多次受邀于多个顶级学术会议宣讲tutorial报告。
主题1:基础大模型构建
报告2:从模型预训练到面向应用的技术研究
个人简介:李俊涛,苏州大学副教授(2020年至今),2020年博士毕业于北京大学王选所,主要研究文本生成和语言模型。入选第九届中国科协青年人才托举工程,入选2022年微软亚研“铸星计划”,CCF自然语言处理专委会执行委员,近5年发表CCF A/B论文45篇,出版FnTIR对话专著1部,在AAAI和IJCAI上做文本生成主题的Tutorial报告,主持参与横纵向项目10余项。作为项目带头人完成了苏大自研预训练大模型OpenBA的训练,并开发了多个变种版本,在多个场景得到了应用。
主题2:检索增强的大模型
报告3:Enhancement of Large Language Models through Retrieval Augmentation
个人简介:宫叶云,目前在微软亚洲研究院担任自然语言计算(NLC)组的首席研究员。研究兴趣主要集中在自然语言生成、稠密向量检索以及大语言模型应用等领域。至今已在ICLR、NeurIPS、ICML、ACL、EMNLP、NAACL、WWW、SIGIR、IJCAI、AAAI和CIKM等国际顶级会议上发表了超过60篇的学术论文,且研究成果在谷歌学术上的引用次数已超过2800次。提出的生成模型ProphetNet和BANG已被广泛应用于微软的广告业务和Bing搜索服务中。此外,提出的SimANS作为核心负样本采样方案,也已被应用于Bing搜索中。主导的Poolingformer, RikiNet, DKMR^2, APOLLO等研究项目在Google NQ, Google TyDiQA, CommonGen, FinQA等排行榜上多次获得第一名的成绩。曾在EMNLP 2021、2022,IJCAI 2023和ACL 2023担任领域主席。
报告摘要:This research investigates the enhancement of Large Language Models (LLMs) in knowledge-based open-domain tasks through retrieval augmentation. Two novel frameworks are introduced: Rewrite-Retrieve-Read and Iter-RetGen. The former focuses on query adaptation, prompting an LLM to rewrite queries before conducting retrieval-augmented reading. A small language model is applied as a trainable rewriter, fine-tuned using pseudo data and a reinforcement learning context. The latter framework, Iter-RetGen, synergizes retrieval and generation iteratively. It uses model output to provide context for retrieving more relevant knowledge, which in turn aids in generating a better output in the next iteration. Both methods were evaluated on multiple tasks, showing effectiveness, scalability, and competitive performance with state-of-the-art retrieval-augmented baselines. These frameworks offer promising solutions to the limitations of LLMs, such as outdated knowledge and hallucinations, by grounding model generation on external knowledge.
主题3:大模型安全与对齐
报告4:大语言模型的安全对齐技术
个人简介:崔淦渠,清华大学计算机系五年级博士生,导师为刘知远副教授。研究方向为大语言模型的安全攻防以及对齐技术。在NeurIPS, ACL, KDD等国际人工智能顶级会议与期刊上发表多篇论文。
报告5:大规模语言模型的可信与安全问题研究
个人简介:李林阳,复旦大学自然语言处理实验室博士生,师从邱锡鹏教授。主要研究方向为自然语言处理中大规模语言模型相关的安全、可信、对齐问题研究。在ACL, EMNLP, AAAI等国际学术会议上发表一作论文十余篇,谷歌引用超过900次。
主题4:领域大模型构建
报告6:大语言模型的领域实践之路
个人简介:吴震,南京大学人工智能学院副研究员,中文信息学会青年工作委员会委员。主要研究方向为情感分析和信息抽取,在ACL、NeurIPS、ICLR、AAAI等国际人工智能和自然语言处理顶级会议上发表高质量学术论文三十余篇,同时担任多个国际会议的程序委员会委员和审稿人。曾获2018年CCF大数据与计算智能大赛“细粒度情感分析”赛题冠军 (Top 1/1701)、CCF最佳创新价值奖、NLPCC 2020情感分析评测任务亚军、SMP 2023 ChatGLM金融大模型挑战赛亚军 (Top 2/2294) 等。目前主持和参与国家自然科学基金项目多项。
报告7:当大模型遇上长文本:可行路线探索与长上下文模型介绍
个人简介:黄曲哲、陶铭绪、张晨,北京大学王选计算研究所在读博士生,导师为冯岩松教授和赵东岩教授,主要研究方向包括模型预训练、信息抽取、机器问答、持续学习等,在ACL、EMNLP、NAACL等自然语言处理领域主流会议上发表多篇论文。主导参与了中英大模型全流程预训练,在数据收集清洗、模型训练调优、长文本扩展等方面有较多经验,研发了专业领域迁移框架并应用于法律领域,相关开源项目Lawyer LLaMA受到广泛的关注。
主题5:大模型智能体与工具学习
报告8:大语言模型驱动下的自主智能体构建与应用
个人简介:陈旭,博士毕业于清华大学,曾在英国伦敦大学学院进行博士后研究,于2020年加入中国人民大学。他的研究方向为大语言模型、因果推断、推荐系统等。曾在TheWebConf、AIJ、SIGIR、NeurIPS、ICML、TOIS等著名国际会议/期刊发表论文70余篇,Google Scholar引用4700余次。研究成果曾获得TheWebConf 2018最佳论文提名奖、CIKM 2022 最佳资源论文Runner Up 奖、AIRS 2017最佳论文奖、CCF自然科学二等奖(排名第二),ACM-北京新星奖等。他主持/参与了多项国家自然科学基金项目以及企业合作项目。
报告摘要:基于大语言模型的自主智能体研究近年来受到了人们的广泛关注,本次报告围绕该领域的基础知识展开,具体介绍如何构建大语言模型驱动下的自主智能体,包括如何刻画智能体,如何设计记忆机制和规划手段,如何让智能体执行动作等。同时报告人也将介绍其开发的基于自主智能体的用户行为模拟智能体。通过该报告,听者可以对大语言模型驱动下的自主智能体这一研究方向及其关键问题有较为系统的了解。
报告9:大模型工具学习
个人简介:林衍凯,中国人民大学高瓴人工智能学院准聘助理教授。2014年和2019年分别获得清华大学学士和博士学位。主要研究方向为预训练模型、自然语言处理。曾在ACL、EMNLP、NAACL、AAAI、IJCAI、NeurIPS等自然语言处理和人工智能顶级国际会议上发表论文50余篇,Google Scholar统计被引用次数(至2023年9月)达到10000余次。其知识指导的自然语言处理研究成果获评教育部自然科学一等奖和世界互联网领先成果。
主题6:跨模态大模型
报告10:从跨模态生成到跨模态系统
个人简介:吴晨飞,微软亚洲研究院高级研究员,2020年博士毕业于北京邮电大学。研究方向为大模型预训练、多模态理解和生成。主要研究工作包括多模态生成模型NUWA(女娲)系列(NUWA, NUWA-LIP, NUWA-Infinity, NUWA-3D, NUWA-XL,DragNUWA)、多模态理解模型Bridge Tower(桥塔)系列(Bridge-Tower, Manger-Tower)以及多模态对话系统Visual ChatGPT,TaskMatrix。在CVPR, NeurIPS, ACL, ECCV, AAAI, MM等会发表多篇论文,开源项目GitHub点赞三万余次。
报告11:多模态融合的大模型框架和建构技术
个人简介:魏忠钰,复旦大学大数据学院副教授,智能复杂体系实验室双聘研究员,博士生导师,复旦大学数据智能与社会计算实验室(Fudan DISC)负责人,复旦大学自然语言处理 (Fudan NLP)团队成员,香港中文大学博士,美国德州大学达拉斯分校博士后。现任中国中文信息学会情感计算专委会副秘书长,青年工作委员会执委会副主任等。担任多个重要国际会议包括EMNLP、ACL的高级领域主席和组织委员会成员。主要研究领域包括大模型技术,社会计算和多模态智能交互,在国内外相关领域高水平会议及期刊发表论文80余篇。曾获得2019年度中国中文信息学会社会媒体处理新锐奖,2021年上海市启明星计划和2022年中国计算机学会自然语言处理新锐学者奖等。
孙乐,中国科学院软件研究所
张家俊,中国科学院自动化研究所
宣传主席
金牌赞助商
北京八友科技有限公司
关于我们
微信扫码关注该文公众号作者