Redian新闻
>
强的离谱,Transformer 杀疯了

强的离谱,Transformer 杀疯了

公众号新闻

前段时间 Transformer已席卷计算机视觉领域,并获得大量好评,如『基于Swin-Transformer』、『美团提出具有「位置编码」的Transformer,性能优于ViT和DeiT』、『Lifting Transformer』、『TimeSformer』等等

Transformer为什么这么有实力?

因为它在分类、检测等任务上展现了极其强劲的性能。而且骨干网络上的发展也推动了下游任务的发展,Swin Transformer 更是成了屠榜般的存在,在工业界具有广阔的应用前景。所以引起了人工智能研究生的强烈兴趣。

另一方面,近小半年,Transformer+CV的论文就已经有40多篇。学术研究更新之快,与脱发速度成正比。Transformer 作为最近热起来的方向,卷起来了但是又不是那么卷,在这个方向可探索的空间还很大,获得一个好的idea,写出一篇好论文的概率相对就大得多。

毕竟能发论文没有谁会拒绝……

那么剩下的问题就是,怎么发(水)论文?

想要快速发论文有两点至关重要。

1.紧跟风口。

想发文章最容易的方法就是紧跟风口,顺着领域内的研究趋势确定自己的方向,毕竟在热门领域内,创新点和idea远比其他非热门领域多。

2.有一位有经验有能力的前辈指导。

大家都在努力的设计新网络、新策略、新training算法,只要能够在某一问题上做到一个很好的performance,论文就水到渠成。

而想要快速达到,来自前辈的指点不可或缺。

咕泡科技特别邀请、唐宇迪老师通过讲解transformer最新前沿论文,全方位解读transformer发展应用、可创新方向。

扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利


请大家务必根据页面提示,添加老师后才能领取课程和完课资料哦!


01
PART
主讲老师

直播内容
02
PART

直播时间 :11月16日-11月17日,20:00-22:30
 Day1:深度学习CNN卷积神经网络算法精讲 
  • 神经网络模型知识点分析
  • 神经网络模型整体架构解读
  • 卷积神经网络整体架构及参数设计

Day2:AI领域最火模块Transformer实例解读

  • 2022AI领域大杀器--Transformer架构思想分析
  • 论文刷点创新必备模块--注意力机制解读
  • 2022各大厂项目如何与Transformer结合与落地
  • Transformer前沿研究方向分析与探索

这次课程尤其适合对AI有一定了解,但是没有明确选题目标;或者已经明确自己选题,但是找不到改进方向的同学;当然也适合对transformer感兴趣的从业者。

创新点和idea不可能凭空生成,好的performance 也绝不可能一蹴而就。

所以,如果你对自己的选题和研究方向还有疑问,这节课你一定不能错过。唐宇迪老师,一定能给出你专业的意见和指导。

扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利


请大家务必根据页面提示,添加老师后才能领取课程和完课资料哦!

咕泡小班制学习服务
03
PART

讲师带练,伴随式编程环境

你将获得伴随式的编程环境。

讲师带练、运用科学的方法引导,帮你消化疑难知识点

同时还有@唐宇迪老师将会分享 , 一线热门技术和行业经验,众多学员亲测有效的一套技术提升方案,帮你摆脱迷茫明确成长方向


三位一体跟踪服务,项目实战驱动 , 深刻理解原理

只要报名,就能收获讲师、助教、班班全程三位一体跟踪式服务,24H为你答疑解惑。

同时还有来自五湖四海的大牛做同学,技术氛围浓厚,想不进步都难!


扫描下方二维码

报名学习课程

获得完整版学习规划和课后福利

咕泡科技 ~ 让每个人的职业生涯不留遗憾


Q&A



  Q:课程内容具体有什么?
A:包括但不限于:基于transformer的应用及研究进展分析+名师1V1答疑+专业提升技巧

Q:上课方式是什么?
A:扫码添加老师微信,领取课程链接!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
7 Papers & Radios | 谷歌开源机器人领域transformer;DeepMind推出剧本写作AINeurlPS 2022 | 用于医学图像分割的类感知生成对抗TransformerDeepMind新作:无需权重更新、提示和微调,transformer在试错中自主改进DeepMind新作!无需权重更新、微调,Transformer在试错中自主改进!我的一九七六: 小伙伴之死无需微调!微软亚研院:高效加速大规模视觉 Transformer 密集预测任务的方法Transformer作者创业的公司,想从老东家谷歌再拿2亿美元融资!7 Papers & Radios | 推理速度比Stable Diffusion快2倍;视觉Transformer统一图像文本频频出圈的Transformer,到底有什么魅力!火爆的Transformer,可能是目前最好发论文的神器!(文末附顶会合集)Transformer如何做扩散模型?伯克利最新《transformer可扩展扩散模型》论文NeurIPS 2022 | 清华提出首个退化可感知的展开式TransformerTransformer检测神器!detrex:面向DETR系列的目标检测开源框架Fast and Effective!一文速览轻量化Transformer各领域研究进展平价买到高级感!IKEA全新 OBEGRÄNSAD系列,全系列都好看!Meta发布ConvNeXt V2!仅用最简单的卷积架构,性能不输Transformer火爆的Transformer,可能是目前最好发论文的神器!一个病人走了超越ConvNeXt!Conv2Former:用于视觉识别的Transformer风格的ConvNet更快更强!EfficientFormerV2来了!一种新的轻量级视觉TransformerPyTorch 创始人:Transformer 太火很不好,AI 易撞墙比尔的故事。MICCAI 2022 | 基于对比学习和视觉Transformer的弱监督视频肠息肉检测强的离谱,华为AI挑战赛 杀疯了!7 Papers & Radios | 无残差连接训练深度transformer;DeepMind写代码AI登Science封面习近平最近内部讲话曝光,触目惊心“居然还活着”— 醒来方知是报应IKEA x OBEGRÄNSAD联名!宜家22年最受瞩目系列开售!Transformer作者离职创业的公司,想从老东家谷歌再拿2亿美元融资超越ConvNeXt!Transformer 风格的卷积网络视觉基线模型Conv2Former清华提出首个退化可感知的展开式Transformer|NeurIPS 20227 Papers & Radios | ECCV 2022最佳论文;Transformer在试错中自主改进
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。