Redian新闻
>
本周日MLNLP第十二次学术研讨会内容前瞻

本周日MLNLP第十二次学术研讨会内容前瞻

公众号新闻

MLNLP(机器学习算法与自然语言处理)是国内外最大的自然语言处理社区之一,受众覆盖国内外NLP硕博生、高校老师以及企业研究人员。
社区的愿景是促进国内外自然语言处理,机器学习学术界、产业界和广大爱好者之间的交流和进步,特别是初学同学们的进步。

MLNLP 2022学术研讨会 是由 MLNLP(机器学习算法与自然语言处理)社区 和 中国中文信息学会青年工作委员会 联合举办的学术活动。社区会定期举办学术研讨会并邀请国内外机器学习与自然语言处理领域知名青年学者进行报告交流,旨在加强国内外同学们之间的交流。

MLNLP社区将在1030日于线上举办第十二次学术研讨会,由MLNLP学术委员会委员东北大学自然语言处理实验室三年级博士生李北南加州大学计算机系博士生林禹臣共同担任本期程序委员会主席。本期研讨会以线上报告的方式进行,分为上下两半场:上半场由李北同学主持;下半场由林禹臣同学主持。具体而言,社区很荣幸邀请到南京航空航天大学计算机科学与技术学院/人工智能学院教授李丕绩老师担任大会主席,并做开场致辞;爱丁堡大学博士张彪复旦大学计算机学院博士生孙天祥滑铁卢大学助理教授陈文虎,微软研究院研究员刘力源做专题报告。
以下是本次研讨会四场Talk的时间安排内容摘要
  • 召开时间:

    • 2022年10月30日 09:00-12:00(北京时间)

  • 主办单位:

    • MLNLP(机器学习算法与自然语言处理)社区

    • 中国中文信息学会青年工作委员会

  • 大会主席:

    • 李丕绩:南京航空航天大学计算机科学与技术学院/人工智能学院教授,博士生导师

  • 程序委员会主席:

    • 李北:东北大学自然语言处理实验室三年级博士生

    • 林禹臣:南加州大学计算机系博士生

  • 组委会:

    • MLNLP社区秘书处(魏福煊、王乐涵、陈麒光、黄仕爵、张钰迪、刘洪宇、段然)

  • 社区支持 :

    • 智源社区

  • 直播平台:

    • 哔哩哔哩:http://live.bilibili.com/23872620

    • 微信视频号:请点击下方卡片预约

1

『张彪@爱丁堡大学:《大规模多语言机器翻译中的挑战与机遇》』



10月30日北京时间早上09:05-09:45,张彪@爱丁堡大学为大家带来《大规模多语言机器翻译中的挑战与机遇》报告。

   报告摘要

机器翻译旨在利用计算机技术实现信息在不同语言之间的相互转换。近年来,基于深度学习的神经机器翻译系统突飞猛进,甚至达到了接近人工翻译的效果。然而,这样的成就仅仅局限于少数的数据资源丰富的语言。我们的世界存在7000多种语言,绝大多数语言资源十分匮乏,不足以训练高质量的双语系统。为了解决这一难题,科研人员提出多语言机器翻译,利用一个模型支持多个语言的翻译,通过联合训练实现不同语言间的知识迁移从而提升翻译的质量。在此基础上,本报告进一步探索大规模多语言机器翻译,研究如何用单个模型支持上百种语言间的互译,并介绍其在数据,模型和优化等方面面临的严峻挑战。同时,本报告将介绍我们在这一方向的相关工作,着重探讨如何引入语言特有的建模以促进知识迁移以及如何借助语言模型架构建模多语言翻译。

   讲者介绍

张飚,爱丁堡大学博士,师从Rico Sennrich和Ivan Titov教授,主攻机器翻译。研究兴趣在于提升机器翻译系统的运行效率和通用性,包括轻量级网络结构,低资源翻译,大规模多语言翻译,语音翻译以及文档级翻译等。在ACL/EMNLP/NeurIPS/ICML/ICLR/AAAI/IJCAI等国际自然语言处理和机器学习会议上发表多篇论文。


2

『孙天祥@复旦大学:《BBTv2: 为大模型实现梯度自由》』



10月30日北京时间早上09:45-10:25,孙天祥@复旦大学为大家带来《BBTv2: 为大模型实现梯度自由》报告。

   报告摘要

预训练语言模型已在各类常见自然语言处理任务上取得了与人类媲美的性能,而这一结果通常是通过梯度下降对预训练语言模型的全部或部分参数进行微调得到的。然而,梯度下降的优化复杂度与模型规模成正比,随着预训练模型规模的急剧增长,其优化成本也显著增加,成为实际落地中的一大困难。针对这一问题,我们在过去工作(Black-Box Tuning)的基础上提出了BBTv2,使用深层prompt代替原有的输入层prompt,并提出一种基于分治的无梯度优化方法对其进行交替优化,在多个少样本学习任务上仅优化千分之三的参数取得了和全参数微调相仿的性能。

   讲者介绍

孙天祥,复旦大学计算机学院博士生,师从邱锡鹏教授和黄萱菁教授,研究兴趣为自然语言处理、预训练语言模型。在ICML,AAAI,ACL,EMNLP,NAACL,COLING等领域顶会发表论文十余篇,被引用800余次,曾获复旦大学国家奖学金。个人主页:https://txsun1997.github.io/


3

『陈文虎@滑铁卢大学:《基于检索的图像生成扩散模型》』



10月30日北京时间早上10:25-11:05,陈文虎@滑铁卢大学为大家带来《基于检索的图像生成扩散模型》报告。

   报告摘要

近期文字->图片生成模型取得了巨大的进展,在近期的扩散模型的驱动下,目前的大规模图片生成模型比如Imagen,Parti,Dall-E 2等等已经可以生成非常逼真的图片。我们发现这类模型在生成常见的实体比如尤达,巴黎铁塔,寻回犬的时候效果很好,但是在生成相对比较罕见的实体的时候效果会非常差。模型会生成出了和事实不符合的“四不像”。于是,在我们最近的Re-Imagen中,我们研究如何通过信息检索的方式从大规模的数据库中找到类似的罕见实体的相关图像,然后通过将这些检索出来的图片作为额外的输入给扩散模型来影响生成过程。我们提出了Retrieval-Augmented的训练方法来引导模型学习如何利用检索输入来生成更加真是的图片。我们的模型Re-Imagen在提出的EntityDrawBench上显著好于现有SoTA模型,尤其是对于比较罕见的实体有非常突出的提升。

   讲者介绍

陈文虎,滑铁卢大学助理教授,多伦多向量学院,谷歌研究科学家。研究方向为自然语言处理,特别是如何将外部知识加入各种预训练模型中,如何让预训练模型更加能够懂得如何推理,同时也对如何构建多模态的系统感兴趣。相关工作发表于机器学习领域重要的国际期刊和会议,包括ACL,EMNLP,NAACL,ICLR,NeurIPS,CVPR等。自2018年发表过的30多篇顶会论文,其中十五篇一作,毕业时获得超过2000的谷歌引用量。获得过WACV21最佳学生论文提名奖,加州圣塔巴巴拉计算机学院优秀毕业论文奖,腾讯犀牛奖学金。主页:https://wenhuchen.github.io/


4

『刘力源@微软研究院:《深入理解Transformer的训练难点》』



10月30日北京时间早上11:05-11:45,刘力源@微软研究院为大家带来《深入理解Transformer的训练难点》报告。

   报告摘要

Transformer 模型为深度学习带来了许多新的机遇。与此同时,它也带来了许多挑战。我们观察到Transformer 模型的训练与之前的模型比,有很多不一样的特点和需求。比如说,对比其他residual network模型,常见的Transformer 模型一般会有较少的层数而变得宽而浅. 另一方面,深而窄的Transformer 训练经常会碰到收敛的困难。在这里,我们探索是什么让Transformer 训练变得更复杂,和如何能让Transformer 模型变得更容易训练。同时,我们的方法也为未来的研究带来了新的机会。

   讲者介绍

刘力源博士毕业于UIUC,导师为Prof. Jiawei Han。目前就职于微软研究院,担任研究员 (Senior Research Scientist at Microsoft Research Redmond). 力源致力于减少深度学习模型所需要的资源,从而使他们更容易被使用. 力源的研究获得了2000+ 引用,并在Github 上获得了4000+ star. 个人主页: https://liyuanlucasliu.github.io/


5

『会议报名』



会议报名还可以直接扫描下方二维码添加小助手微信进行报名,备注 单位-昵称-方向 (例如: 清华-张三-对话系统),小助手通过报名并会把你拉进交流群。 会议的观看地址等信息都会在群里通知。 已经加入MLNLP交流群的同学请 不要重复添加 

扫描二维码添加小助手微信


关于我们

MLNLP(机器学习算法与自然语言处理) 是由国内外自然语言处理学者联合构建的民间学术社区,目前已经发展为国内外最大的自然语言处理社区之一,旗下包括万人顶会交流群、AI臻选汇、AI英才汇以及AI学术汇等知名品牌,旨在促进机器学习,自然语言处理学术界、产业界和广大爱好者之间的进步。
社区可以为相关从业者的深造、就业及研究等方面提供开放交流平台。欢迎大家关注和加入我们。

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
上海市法学会国际法研究会2022年学术年会暨华东政法大学建校70周年国际法学术研讨会议程巴黎凡尔赛游记 (五)全球青年二十大研讨会线上召开,热议“全面建设社会主义现代化国家”目标中的青年力量MLNLP发布MyArxiv项目:定制你的专属Arxiv推荐活动|第五届界面财经年会内容回顾工农兵大学刀法「品效」峰会内容及嘉宾重磅更新!|机遇 · 品效年度峰会【闭门会议】9月29日——揭秘XR底层供应链系列研讨会之Pancake光学技术专场微信推出自研NLP大规模语言模型WeLM:零/少样本即可完成多种NLP任务,匹敌大其25倍的模型威廉王子将携星光熠熠的阵容前往波士顿参加地球卫士奖颁奖典礼EMNLP'22 | What and how?模型的学习内容和推理方式探究亚裔和妇女企业可以获得政府合约优先权!政府资源的秘密都在这里!请立即报名参加研讨会,地点在法拉盛天景中心大通银行!博士申请 | 美国弗吉尼亚理工大学Xuan Wang老师招收NLP/DM/ML方向博士生一文了解复旦大学NLP实验室的14篇EMNLP 2022长文内容易中天 龙应台等的著作都被禁了【网络研讨会】10x Genomics整体解决方案:一站式解锁单细胞、空间及原位新技术为报道G20峰会,小彭这次学起了印尼语!限时早鸟票!| 2022年微生物学者交叉论坛暨第八届肠道微生态与健康国际研讨会,11月深圳召开!杭州内推 | 阿里AliExpress广告算法团队招聘NLP/ML方向研究型实习生结束了,就这样疫情结束了卡戴珊家族被用AI技术还原整容前面孔,网友们褒贬不一...女生福利|2022多元研讨会申请倒计时!一年级MBA均可参加!华人企业获得政府资源的秘密有哪些?请参加少数族裔和妇女企业资源研讨会,就在法拉盛天景中心!免费网络研讨会 | 后疫情时代,如何借助最新科技优化工程师工作流程精彩活动 | 首届工业认知智能学术研讨会史上首次!“人造太阳”实现重大突破,背后站着一位华裔女科学家!入职LLNL十年,点火成功后,她泪流满面聚焦丨中国人民大学国有经济研究院重点课题研讨会成功举办MLNLP2022官宣!第一届机器学习算法与自然语言处理大会开始免费报名,29场报告,60余位学者等你来!首届中国颈动脉斑块学术研讨会将于线上举办,这些精彩内容等你来看网络研讨会 | 解答电子电气产品监管法规及测试疑问,助力出口欧盟MLNLP前沿综述分享第一期 | 美国Pinterest公司@吴凌飞:面向自然语言处理的图深度学习我校与上海市长宁区人民法院深化合作 共同推进法治人才培养及学术研究毛泽东时代工业化时的鞍钢宪法不用发论文也不教课的12名教授,为这个研究所拿下8次学界最高奖增加Matplotlib画图教程!MLNLP社区Paper Picture Writing Code项目最新更新!
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。