Redian新闻
>
当你使用Transformer时,张小斐告诉你:适合我们的才是最好的!

当你使用Transformer时,张小斐告诉你:适合我们的才是最好的!

财经


量化投资与机器学习微信公众号,是业内垂直于量化投资、对冲基金、Fintech、人工智能、大数据领域的主流自媒体公众号拥有来自公募、私募、券商、期货、银行、保险、高校等行业30W+关注者,曾荣获AMMA优秀品牌力、优秀洞察力大奖,连续4年被腾讯云+社区评选为“年度最佳作者”。


在今年的热播剧《好好事成双》中,竟然追起了Transformer热点,编剧看来是下了功夫啊!

当甲方指责女主公司为什么没有采用当下最新最热门最强的Transformer模型,而采用了“过时的LSTM模型”时,女主是这样说服甲方的:

选择模型是不能迷信

最新最强最热门的

适合我们的才是最好的

这编剧应该是请教过业内人士研究过的哈,搞得还挺专业!

Attention is all you need》Transformer的图例都用上了

要知道,谷歌当年的这篇论文,不仅让NLP变了天,成为自然语言领域的主流模型,还成功跨界CV等领域。

截止今日,这篇论文被引数高达9万+。

这篇论文最大的亮点就是提出了一种Transformer的结构,这种结构是完全依赖注意力机制来刻画输入和输出之间的全局依赖关系,而不使用递归运算的RNN网络了。

不过有点小瑕疵,PPT图中的LSTM写错了,方框里写的好像是LTSM模型。不过跟这几年的国产剧相比,起码算是用心不少

至于说Transformer在量化投资领域直接或者间接的应用,公众号之前推过几篇文章,大家可以看看:

Transformer在量化投资中的应用


ChatGPT:搞『量化投资』我是认真的!


今天的内容就到这里啦!

微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
【2023坛庆】 ※ 小茉莉 ※ 太阳出来了 我会来看望你彻底抛弃Transformer,八金刚之一再创业!联手前谷歌Brain大佬创建自然启发智能模型ICCV 2023 | 通向3D感知大模型的必由之路!UniTR:统一多模态Transformer Encoder!最动听的生日歌!谷歌最后一位Transformer论文作者离职创业,野心不小,要颠覆当前生成AI范式起底PC新机皇:高通4nm芯片,Arm架构Windows系统,内置Transformer加速,还配了5G和WiFi7特斯拉为什么全力押注Transformer?MIT研究人员将Transformer与图神经网络结合,用于设计全新蛋白质Transformer+强化学习,DeepMind让大模型成为机器人感知世界的大脑Meta对Transformer架构下手了:新注意力机制更懂推理围绕 transformers 构建现代 NLP 开发环境Transformer的上下文学习能力是哪来的?Transformer出逃八子最后一人正式创业!坐标日本搞AI“群”模型,本人:在谷歌有被困住的感觉ViLT: 没有卷积和区域监督的视觉-语言Transformer模型Transformer+强化学习,谷歌DeepMind让大模型成为机器人感知世界的大脑山风一样自由Transformer 一起动手编码学原理NeurIPS 2023 | 结合脉冲神经网络和Transformer的纯加法Transformer病毒羔羊第十七章小皮鞋大灾难又锤爆一个渣男,张小斐觉醒了卢涛:后登纳德时代,IPU架构引领Transformer向高阶版演进NeurIPS 2023 | MixFormerV2:基于Transformer的高效跟踪器Transformer变革3D建模!MeshGPT来了!效果惊动专业建模师。。。Transformer变革3D建模,MeshGPT生成效果惊动专业建模师,网友:革命性ideaNeurIPS 2023 | MCUFormer: 可在内存有限微控制器上部署的Vison Transformer模型南开&山大&北理工团队开发trRosettaRNA:利用Transformer网络自动预测RNA 3D结构Yann LeCun点赞!Meta对Transformer架构下手了:新注意力机制更懂推理中国人不再愿意生小孩, 为何?随性又松弛,张小斐演妈真不如她…听我说,Transformer它就是个支持向量机用 Transformer 评估蛋白质结合界面,区分天然蛋白复合物和不正确构象Transformer就是个支持向量机ICCV 2023 | 新注意力!清华黄高团队提出FLatten Transformer视觉新主干马斯克让盗梦空间成真?初创公司用Transformer诱导清醒梦,Neuralink技术操控梦境效果惊人ICML 2023 | 神经网络大还是小?Transformer模型规模对训练目标的影响
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。