Redian新闻
>
科学匠人 | 胡瀚:成功用Swin Transformer连接CV和NLP主流架构的“破壁人”

科学匠人 | 胡瀚:成功用Swin Transformer连接CV和NLP主流架构的“破壁人”

公众号新闻

(本文阅读时间:9分钟)

编者按:计算机视觉和自然语言处理分别是计算机科学的重要研究方向,然而长久以来,两个领域遵循着截然不同的研究范式。在 Transformer 架构出现后,能否让其强大的通用性从自然语言处理拓展至计算机视觉的研究与应用中,打破两个领域间的“次元壁”成为了研究者们不断探索的问题。

微软亚洲研究院高级研究员胡瀚,成为了首个“破壁人”。他所提出的 Swin Transformer 促进了视觉 Transformer 取代长期统治视觉骨干网络的卷积神经网络,让计算机能够像理解语言一样看懂世界。凭借这一里程碑式的开创性成果,胡瀚作为“远见者”入选了2022年度《麻省理工科技评论》“35岁以下科技创新35人”中国榜单。

语言翻译、回答问题、生成文本……最近大热的 ChatGPT 可以被看作是大型语言模型的里程碑式进步,其展现出来的通用性和可靠性令人赞叹,可以说其基本上解决了自然语言处理领域的所有问题,也让人看到了实现通用人工智能的曙光。

这让计算机视觉领域的相关研究人员不禁设想,是否可以利用类似的方式来解决通用的视觉问题?如果能同样解决视觉问题,那将为现在强大的语言模型装上眼睛,让它能去更广阔的物理世界进行探索。

要想实现这一目标,一个重要的基础是视觉和语言在建模和学习上的统一。然而,长期以来,研究人员一般采用 Transformer 架构解决自然语言领域的问题,而采用卷积神经网络处理各种视觉任务。

由于 Transformer 具有很强的通用性,所以能否让 Transformer 在计算机视觉中得到应用,推动这两个领域甚至更广阔的人工智能应用朝着统一的方向发展,助力解决更为广泛的智能问题呢?

微软亚洲研究院研究员胡瀚,长期从事计算机视觉的研究工作,致力于推进计算机视觉与自然语言处理建模和学习的融合和统一。他所提出的 Swin Transformer [1],成为了推动视觉 Transformer 取代长期统治视觉骨干网络的卷积神经网络的一个里程碑工作。凭借这一开创性的成果,他成为2022年度《麻省理工科技评论》“35岁以下科技创新35人”中国入选者之一。

2022年度《麻省理工科技评论》“35岁以下科技创新35人”中国入选者胡瀚


提出 Swin Transformer,助推视觉 Transformer 的大规模研究


在清华大学自动化系读博期间,胡瀚就开始了对计算机视觉的研究。当时,他受到人类视觉机制的启发,尝试使用更全局系统的方式来解决视觉分割问题,并在视觉的基本原则方面有了一些掌握。

博士毕业后,他继续从事计算机视觉研究。在很早的时候,他就坚信要想实现更通用的人工智能,不同领域在建模方面的统一将是一个重要的基础。在2017年 Transformer 出现后不久,他就看好这一架构的强大通用性,并开始积极尝试将 Transformer 引入到视觉领域中。他早期的尝试包括基于 Transformer 实现学界首个端到端的物体检测器(2017年)[2],以及在2019年首次将 Transformer 用于视觉骨干建模[3],尽管效果不错,但这一神经网络遇到了实现效率问题而不太实用,也没有成为主流。

两年后,他于2021年提出的 Swin Transformer 解决了其中的效率难题,从而推进了这一网络在视觉领域走向实用。在这个工作中,他创造性地提出了“移位窗口”方法,该方法无需同时处理数以千计的局部窗口,可以将需要处理的窗口数量降低50倍,这大大提升了计算的并行性,在 GPU 上取得了3倍的速度提升。
         
Swin Transformer 中的一个关键技术:移位窗口方法

胡瀚和团队首次证明了 Transformer 网络能够在非常广泛的视觉问题中大幅超越卷积神经网络,推动该领域大规模兴起了对视觉 Transformer 的研究。“当时我们很快做了开源,把一些实现细节分享给了整个领域。有了这个基础,其他研究者才能更快地去追随并开展进一步研究,进而共同推进该领域的发展。”他说。

作为项目负责人,他以《Swin Transformer:使用移位窗口的分层视觉 Transformer》(Swin Transformer: Hierarchical Vision Transformer using Shifted Windows)为题发布在预印本平台 arXiv[1]。

据悉,该成果获得了计算机视觉国际大会的最佳论文(马尔奖),这一奖项被视为国际计算机视觉领域的最高荣誉之一。同时,相关论文在一年多时间获得超过5000次引用和超过10000次 GitHub 标星。

目前,Swin Transformer 正作为骨干网络广泛地应用于计算机视觉领域,并为全球亿万人的工作和生活带来了很大的改变。比如,其已在微软产品 PowerPoint 的视觉素材推荐中获得应用,正在帮助用户制作更具美观性的设计和演示文稿。另外,其还被应用于图像搜索、元宇宙、自动驾驶和机器人等诸多领域。

与此同时,Swin Transformer 所代表的大一统趋势,有利于大大简化芯片设计,也有利于更通用的人工智能模型的开发。

Swin Transformer

“Swin Transformer 所解决的计算机视觉长期与自然语言的主流架构不匹配的问题是一个更宏大目标中的第一步,即实现和人脑一样用一个通用模型和类似的学习机制去解决各种各样智能问题。”胡瀚表示,目前他正在继续攻克这个更宏大目标上的各种挑战,比如如何有效地扩展计算机视觉和多模态模型并将其稀疏化的问题。

人脑具有的强大智能,以及能从少量样本中学习新智能的能力,很大程度上来自于其海量的百万亿级的神经连接。同时,需要说明的是,连接的稀疏性,又能让大脑变得非常节能。因此,开发有效的视觉大模型和稀疏模型,对实现强大而通用的智能来说非常关键。

他通过解决训练稳定性、视觉任务分辨率鸿沟,以及基于自监督预训练解决海量标注数据需求的问题,成功地训练了拥有30亿参数的稠密视觉模型 Swin Transformer v2.0 版本[4]。作为截止2022年8月世界最大的稠密视觉模型,Swin Transformer v2.0 版本当时在多个重要的代表性视觉评测集中取得了新的记录。此外,胡瀚还参与开发了目前 GPU 上最高效的混合专家框架 Tutel 和用于计算机视觉的 Swin-MoE 模型。

促进 AI 不同领域实现大一统和大融合,赋能人类美好生活


回顾自小的成长背景和求学经历,胡瀚感恩于父母对教育的重视。“小时候尽管家境清贫,而且当地辍学率比较高,但他们仍旧支持我一路读到博士。”他喜欢没日没夜地看书,有时也会睡在图书馆,很小就意识到知识的无边界以及世界之大。

在他看来,到北京也是冥冥之中的缘分驱使。“记得高考完找班主任老师给自己写寄语,他写了‘北上’这两个字,后来真的有幸北上到北京求学。后来,博士期间的导师周杰教授,给我们创造了引导为主,鼓励自由探索的氛围。这很适合我,让我的思维自主创新和自我求索方面的能力有了很大的提升。”

他认为,走上研究之路,是命运的安排。他觉得自己遇上了三个转折点:第一个是能够有幸从小乡村考入清华,和最优秀的同学一起学习生活,接受国内最好的教育。第二个是在读研时选择了人工智能方向,也遇到了适合自己的导师,亲眼见证当时发展不算最火热的人工智能,逐渐变得越来越重要,并不断地改变着世界的面貌。第三个是进入微软亚洲研究院工作,与国内人工智能方向最优秀的研究员和前辈合作,在一个适合做研究的土壤下生根发芽,做出了具有代表性的工作。

作为一个科研工作者,他将自己的主要目标定为研究新的生产力工具和突破性技术,从而赋能每个人、每个机构和整个社会。因此,他希望能够推动人工智能不同领域之间的大一统和大融合,让其在未来能像人脑一样,用一个强大通用的模型,就能解决各种复杂的智能任务。“这样的人工智能系统将有望和100年前的电力革命一样,改变整个人类社会的生活和生产方式,促进社会进步,让每一个人的生活都能更加美好。”胡瀚说。

对于未来,他也给自己制定了新的研究目标,他希望攻克通用视觉问题,为实现对图像的可靠(几乎不出现错误)而全面理解和生成而努力。“对于这一个目标来说,我们此前的工作已经从某种程度上验证了在解决视觉和语言问题上,方法论并没有本质区别。既然 ChatGPT 可以几乎可靠地解决几乎所有自然语言处理方面的问题,那么我相信,通用的视觉问题也是能够得到可靠解决的。”胡瀚如是说。


参考资料:

1. Z., Liu. et al. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. arXiv(2021). https://arxiv.org/abs/2103.14030

2. H., Hu.et al. Relation Networks for Object Detection. arXiv(2017). https://arxiv.org/abs/1711.11575

3. H., Hu. et al. Local Relation Networks for Image Recognition. arXiv (2019). https://arxiv.org/abs/1904.11491

4. Z., Liu. et al. Swin Transformer V2: Scaling Up Capacity and Resolution. arXiv (2022). https://arxiv.org/abs/2111.09883




在进行计算机科研工作和学习的日日夜夜,你或许有些科研中的问题难以开口问询,或许有些焦虑与情绪无处安放,或许在感到迷茫时需要咨询与支持。微软亚洲研究院树洞计划现已开启。你在计算机领域科研、学习、生活中遇到的难题,都可以随时随地倾倒在树洞里。后台会从树洞收到的内容中选择具有代表性的问题匹配到最同频的频道,邀请微软亚洲研究院的研究员们帮忙回答。作为一个半透明的树洞,部分问题与回应会通过微软亚洲研究院账号公开发表。


快来点击上图链接,把你的难题倾倒在树洞里吧!让我们将这些困难封存在过去,轻装上阵,继续科研新旅途!









你也许还想看:




微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
CVPR 2023 | 正则化方法DropKey: 两行代码高效缓解视觉Transformer过拟合CVPR 2023 | 结合Transformer和CNN的多任务多模态图像融合方法科学匠人 | 王希廷:做自己的最优指标创造者大模型的好伙伴,浅析推理加速引擎FasterTransformer五年时间被引用3.8万次,Transformer宇宙发展成了这样清华朱军团队开源首个基于Transformer的多模态扩散大模型,文图互生、改写全拿下汪曾祺:小说的思想和语言2023·二月的冰雨ChatGPT的“底座”Transformer诞生六周年:在它之后世界地覆天翻新农业的“破壁人”上篇 | 使用 🤗 Transformers 进行概率时间序列预测清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型PackedBert:如何用打包的方式加速Transformer的自然语言处理任务Transformer:一种图灵完备的神经网络史上最全Transformer合集!LeCun力推:给60个模型建目录,哪篇论文你错过了?​NeurIPS 2022 | 仅需3分钟!开源Transformer快速训练后剪枝框架来了ICLR 2023 | Specformer: 基于Transformer的集合到集合图谱滤波器日常CVPR 2023|两行代码高效缓解视觉Transformer过拟合,美图&国科大联合提出正则化方法DropKey科学匠人 | 李琨:执著于高性能计算研究的“别人家的孩子”10行代码搞定图Transformer,图神经网络框架DGL迎来1.0版本在Transformer时代重塑RNN,RWKV将非Transformer架构扩展到数百亿参数招聘 | 百度大搜-GNN/Transformer/图网络+问答+搜索-实习生/社招-北京清华朱军团队开源UniDiffuser:首个基于Transformer的多模态扩散大模型!文图互生、改写全拿下!ICLR 2023 | DIFFormer: 扩散过程启发的Transformer此「错」并非真的错:从四篇经典论文入手,理解Transformer架构图「错」在何处有道周枫谈ChatGPT:让Transformer在智能硬件里更高效运行无自注意力照样高效!RIFormer开启无需token mixer的Transformer结构新篇章五年引用3.8万次,Transformer宇宙发展成了这样,ChatGPT只是其中之一Agustín Hernández:中美洲建筑背景下的未来主义巨构ICLR 2023 | Edgeformers: 基于Transformer架构的表征学习框架科学匠人 | 对话陈卫:为什么AI大模型时代更需要计算机理论研究?闲话人生(232)“漏划的地主”是地主吗?女性、身份与离散:我们在柏林电影节看什么?比Transformer快4成!Meta发布全新Megabyte模型,解决算力损耗硬伤
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。