Redian新闻
>
ICLR 2023邀你加入精选论文讲解直播间

ICLR 2023邀你加入精选论文讲解直播间

公众号新闻


(本文阅读时间:12分钟)


深度学习国际顶级学术会议 ICLR 2023 刚刚落下帷幕,我们赶紧安排上了微软亚洲研究院入选本届大会的精选论文直播!此前的系列文章,已经分主题汇总了本年度 ICLR 值得关注的投稿,欢迎点击阅读原文进行回顾。


六位论文作者将于5月10日(本周三)14:00在微信视频号“微软亚洲研究院”“微软科技”的 B 站直播间带来精彩的主题报告,与大家共话深度学习研究的最前沿!


在每篇论文的分享过程中,参与弹幕或评论区互动,提出问题,讲者将在分享结束后亲自为你答疑解惑!


直播信息


直播时间:

2023年5月10日14:00-16:00


直播地址:


微信视频号“微软亚洲研究院

扫描二维码,直达直播间


B 站账号“微软科技”直播间

扫描二维码,直达直播间

论文及讲者介绍



Donggyun Kim

韩国科学技术院(KAIST)

在读博士


Donggyun Kim,就读于韩国科学技术院计算机学院,研究兴趣是小样本学习和通用人工智能,正致力于构建一个无需大量的特定训练任务的通用模型。他拥有韩国科学技术院数学和计算机科学双学士学位,并获得韩国科学技术院计算机学院硕士学位。


论文题目:

适配任意密集预测任务的通用小样本学习器

Universal Few-shot Learning of Dense Prediction Tasks with Visual Token Matching


论文摘要:

密集预测任务是计算机视觉领域的一类重要任务,如何从少量的标注数据中学习并作出准确预测,即小样本学习,是该领域备受关注的课题。然而,现有的计算机视觉小样本学习方法一般针对特定的某类任务,它们通常在设计模型架构和训练过程中利用特定于这些任务的先验知识和假设,因此不适合推广到任意的密集预测任务。微软亚洲研究院与韩国科学技术院的研究人员设计并实现了首个小样本学习器视觉令牌匹配 VTM(Visual Token Matching),其可用于任意的密集预测任务,VTM 为计算机视觉中密集预测任务的处理以及小样本学习方法打开了全新的思路。该工作获得了 ICLR 2023 杰出论文奖。


论文链接:

https://arxiv.org/abs/2303.14969




矣晓沅

微软亚洲研究院

研究员


矣晓沅,2021年博士毕业于清华大学,主要从事自然语言生成方向的研究,其主导开发的中文作诗系统“九歌”曾多次登上央视节目,发表学术论文二十余篇,担任多个顶级国际会议的程序委员会委员,曾获清华大学特等奖学金、西贝尔奖学金、CCF 优博等荣誉。


论文题目:

基于推理阶段自适应优化的语言模型统一去毒去偏

Unified Detoxifying And Debiasing In Language Generation Via Inference-time Adaptive Optimization


论文摘要:

预训练语言模型(PLMs)在文本生成(NLG)方面取得了长足进步,但却会将预训练语料中存在的有害内容(例如有毒语言和对少数群体的社会偏见等)内化、生成、传播,甚至放大。


为了应对现有去毒与去偏见技术中还未解决的挑战,微软亚洲研究院的研究员们首次提出了一个基于推理阶段自适应优化的去毒和去偏见统一框架 UDDIA。UDDIA 将去偏见和去毒形式化为统一的输出分布整流过程,以此来均衡不同群体相关内容的生成概率并最小化与毒性之间的关联。该框架等价于学习一个多属性(如性别、种族、毒性等)混合的文本分布。此外,UDDIA 仅在推理(生成)阶段通过优化极少量(~1%)参数进行干预,并动态地选择何时干预、更新哪些参数。


论文链接:

https://arxiv.org/pdf/2210.04492.pdf




张辉帅

微软亚洲研究院

主管研究员


张辉帅,微软亚洲研究院主管研究员。主要从事深度学习理论与算法、隐私保护机器学习、差分隐私方面的研究。研究成果发表于 ICML、NeurIPS、ICLR、JMLR、TIT 等会议及期刊数十篇。


论文题目:

探索差分隐私深度学习的极限

Exploring The Limits Of Differentially Private Deep Learning With Group-Wise Clipping


论文摘要:

近期的差分隐私(DP)深度学习研究已显著提高计算效率和隐私-效用权衡,其中的差分隐私随机梯度下降(DP-SGD)是一种通用算法。但 DP-SGD 会导致较高的内存和时间开销。文章作者探索出了更高效的逐层裁剪新方法,具体操作如下:在神经网络进行反向传播时,在某一层参数计算出每个样本梯度后,立即进行裁剪并计算平均梯度,接着释放每个样本梯度的空间,并继续向下一层参数进行反向传播。逐层裁剪,在将裁剪操作嵌入到反向传播的过程中,还允许梯度裁剪与反向传播同时进行,从而极大地提高了效率。这使得在许多实际任务中,隐私学习在内存效率和每次训练更新的时间效率上能够媲美非隐私学习。


论文链接:

https://arxiv.org/abs/2212.01539



任侃

微软亚洲研究院

主管研究员 


任侃,现就职于微软亚洲研究院并担任主管研究员。他主要的研究领域包括数据挖掘与机器学习,特别是时空数据建模与决策优化方法及其在医疗健康、推荐系统与金融等领域的应用。他在数据挖掘与机器学习领域顶级会议与期刊发表了三十余篇论文,著有《推荐系统:前沿与实践》。任侃在浙江大学获得计算机科学与技术工学学士学位,在上海交通大学获得计算机科学与技术博士学位。


论文题目:

SIMPLE:针对领域泛化问题的无需微调预训练模型匹配算法

SIMPLE: Specialized Model-Sample Matching for Domain Generalization


论文摘要:

在领域泛化任务中,大多数现有方法是通过对特定的预训练模型微调(fine-tuning),并开发领域泛化算法来解决该问题。微软亚洲研究院的研究员们详细研究了预训练模型和分布偏移之间的关系,发现对于领域泛化任务而言,并不存在单一最佳的预训练模型。根据广泛的实证和理论证据,研究员们论证了:(1)预训练模型在某种程度上具有普适性,但是不存在能够覆盖所有分布偏移且表现均佳的最佳预训练模型;(2)在分布偏移中的泛化误差取决于预训练模型与未见测试分布之间的匹配度。基于以上发现,研究员们提出了一种无需再微调的全新的领域泛化算法:SIMPLE。该方法基于模型-样本匹配策略,根据测试样本的特征,选择了合适的预训练模型来进行预测,显著提高了领域泛化的性能。


论文链接:

https://openreview.net/forum?id=BqrPeZ_e5P


项目主页:

https://seqml.github.io/simple/



王晋东

微软亚洲研究院

主管研究员 


王晋东,微软亚洲研究院主管研究员、中科院计算所博士。研究兴趣为迁移学习、鲁棒机器学习、半监督学习及相关的视觉和普适计算等应用。在国际知名会议和期刊如 NeurIPS、ICLR、CVPR、IJCAI、UbiComp、ACMMM、TKDE 等发表50余篇论文,谷歌学术被引5000余次。担任 IJCAI 2019 宣传主席、获得中科院优秀博士论文、IJCAI-19 联邦学习研讨会最佳应用论文奖、清华大学 AMiner 2012-2022十年最具影响力 AI 学者等荣誉。出版的《迁移学习导论》一书帮助众多研究人员快速入门该领域。


论文题目:

DIVERSIFY: 针对动态数据分布的OOD表征学习新范式

Out-of-distribution Representation Learning For Time Series Classification


论文摘要:

分布外泛化(Out-of-distribution generalization)是机器学习中的一个重要问题。有别于传统假设认为数据分布是给定的一个静态分布,真实生活中的数据是动态变化的。因此,本文尝试以时间序列为例,从分布的角度来看待此问题。因为分布动态变化的数据集的复杂性可能归因于存在未知的潜在分布。为此,研究员们提出了 DIVERSIFY,用于动态分布的泛化表示学习。在多个时间序列公开数据集上的实验结果表明,DIVERSIFY 获得的特征更多样、鲁棒,且所提出的方法对场景依赖度低,更加通用、容易拓展到其他非时间序列数据,如图像和视频中。


论文链接:

https://arxiv.org/abs/2209.07027


代码链接:

https://github.com/microsoft/robustlearn




夏文文

上海交通大学电子信息与电气工程学院

在读博士


夏文文,上海交通大学网络空间安全学院博士研究生。他的研究兴趣主要集中在图神经网络,包括其在时序图上的应用、理论表达能力以及可解释性等。他在重要学术会议和期刊如 KDD、ICLR、TKDE、ICDM、WSDM 等发表多篇论文,并曾在新加坡管理大学计算与信息系统学院和微软亚洲研究院进行交流与实习。


论文题目:

T-GNNExplainer:时序图上的解释器

Explaining Temporal Graph Models through an Explorer-Navigator Framework


论文摘要:

目前基于时序图的现有解释器往往是专注于静态图模型的设计,对时序图的预测解释仍然需要进一步探索。因此,微软亚洲研究院的研究员们提出了首个为时序图模型量身定制的解释器:T-GNNExplainer。为了解决寻找子集的组合优化问题,T-GNNExplainer 包含探索和导航模块。探索模块采用蒙特卡洛树搜索,搜集在候选事件集中找到的重要事件。导航模块负责学习候选事件之间的关联性,以帮助缩小搜索空间。相对于基准模型,T-GNNExplainer 的改进率高达约50%。


论文链接:

https://openreview.net/pdf?id=BR_ZhvcYbGJ


直播论文分享会时间表


14:00-14:20

论文题目:

适配任意密集预测任务的通用小样本学习器

分享者:

Donggyun Kim

14:20-14:40


论文题目:

基于推理阶段自适应优化的语言模型统一去毒去偏

分享者:

矣晓沅

14:40-15:00


论文题目:

探索差分隐私深度学习的极限

分享者:

张辉帅

15:00-15:20


论文题目:

SIMPLE:针对领域泛化问题的无需微调预训练模型匹配算法

分享者:

任侃

15:20-15:40


论文题目:

DIVERSIFY: 针对动态数据分布的OOD表征学习新范式

分享者:

王晋东

15:40-16:00


论文题目:

T-GNNExplainer:时序图上的解释器

分享者:

夏文文



请提前关注微信视频号“微软亚洲研究院”或 B 站账号“微软科技“,干货满满,内容多多,欢迎持续关注直播!





在进行计算机科研工作和学习的日日夜夜,你或许有些科研中的问题难以开口问询,或许有些焦虑与情绪无处安放,或许在感到迷茫时需要咨询与支持。微软亚洲研究院树洞计划现已开启。你在计算机领域科研、学习、生活中遇到的难题,都可以随时随地倾倒在树洞里。后台会从树洞收到的内容中选择具有代表性的问题匹配到最同频的频道,邀请微软亚洲研究院的研究员们帮忙回答。作为一个半透明的树洞,部分问题与回应会通过微软亚洲研究院账号公开发表。


快来点击上图链接,把你的难题倾倒在树洞里吧!让我们将这些困难封存在过去,轻装上阵,继续科研新旅途!










你也许还想看







微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
ICLR 2023 | 微软提出自动化模型训练剪枝框架OTO,一站式获得轻量级架构免费领 | 剑桥彩虹少儿英语分级阅读外教中英文讲解录播课90集,让孩子一步步从无到有,掌握阅读技巧!CB官方来啦!想选择AP却又一知半解,4月14日20:00来我们直播间一揽子收获AP课程权威讲解大礼包~明天直播|CVPR 2023 论文分享会邀你共话计算机视觉的前沿发展!ICLR 2023 | DM-NeRF:从2D图像中实现3D场景的几何分解与编辑(已开源)ICLR 2023杰出论文奖得主分享:用于密集预测任务的通用小样本学习器明天直播|Ada Workshop 2023邀妳云端相聚!论文插图也能自动生成了!用到了扩散模型,还被ICLR 2023接收!ICLR 2023 | PromptPG:当强化学习遇见大规模语言模型分享一篇最近5部热播剧的剧评论文插图也能自动生成了,用到了扩散模型,还被ICLR接收炸裂!最新CVPR2023、ICML2023、AAAI2023、ACL2023论文+Code大合集!华裔美国超过508万人!中国哪个省的人在美国最多?ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器好莱坞女演员,赤身裸体在洛杉矶街头游荡,被关入精神病院,曾是知名童星ICLR 2023 | 屠榜OGB-LSC!Uni-Mol超进化开拓材料设计新天地【附PDF】整理了114篇医疗论文,含cvpr2023医疗论文+经典论文+医疗论文综述等朴树,你变了……ICLR 2023 | MocoSFL: 低成本跨用户联邦自监督学习​ICLR 2023 | 用于类别不平衡图表示学习的统一数据模型稀疏性ICLR 2023 | 解决VAE表示学习问题,北海道大学提出新型生成模型GWAE等你加入!2023军校招生计划公布iWanna国际心理人2023年招募,期待你加入充满心理人爱和理想的团队北大获奖,清华、人大等提名,ICLR 2023杰出论文奖出炉招生!|| 巴蜀中学高中体育艺术后备人才队伍邀你加入!7 Papers & Radios | ICLR 2023杰出论文奖;微软GPT-4完整测评AI驱动运筹优化「光刻机」!中科大等提出分层序列模型,大幅提升数学规划求解效率|ICLR 2023解直锟260亿遗产,让毛阿敏和女儿过的很好ICLR 2023 | 基于视觉语言预训练模型的医疗图像小样本学习及零样本推理性能研究CVPR 2023论文分享会讲者公开,邀你一起攀登科技“瞭望塔”!留学生请进!邀请你加入23Fall行李准备分享大会!| 送现金红包人工智能(机器人)之梦浣溪沙: 斑斓如画忆中存ICLR 2023杰出论文奖得主分享:适配任意密集预测任务的通用小样本学习器无惧大规模GNN,用子图也一样!中科大提出首个可证明收敛的子图采样方法 | ICLR 2023 Spotlight
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。