Redian新闻
>
RNNsearch、Multi-task、attention-model...你都掌握了吗?一文总结机器翻译必备经典模型(一)

RNNsearch、Multi-task、attention-model...你都掌握了吗?一文总结机器翻译必备经典模型(一)

公众号新闻

 机器之心专栏

本专栏由机器之心SOTA!模型资源站出品,每周日于机器之心公众号持续更新。

 

本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务,并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。


本文将分 3 期进行连载,共介绍 18 机器翻译任务上曾取得 SOTA 的经典模型。


  • 第 1 期:RNNsearch、Multi-task、attention-model、Convolutional Encoder、Attention、Value-Network


  • 第 2 期:Unsupervised NMT、PBSMT、coarse-to-fine、two-pass decoder translation、XLMs、MASS


  • 第 3 期:FlowSeq、mBART、BERT-fused、mRASP、mRASP2、CeMAT


您正在阅读的是其中的第 1 期。前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及 API 等资源。


本期收录模型速览


模型SOTA!模型资源站收录情况模型来源论文
RNNsearchhttps://sota.jiqizhixin.com/project/rnn-search50
收录实现数量:6
支持框架:PyTorch、TensorFlow等
Neural machine translation by jointly learning to align and translate
Multi-taskhttps://sota.jiqizhixin.com/project/multi-task-3Multi-task Learning for Multiple Language Translation
attention-modelhttps://sota.jiqizhixin.com/project/attention-model
收录实现数量:5
支持框架:PyTorch、TensorFlow等
Effective Approaches to Attention-based Neural Machine Translation
Convolutional Encoderhttps://sota.jiqizhixin.com/project/convolutional-encoderA Convolutional Encoder Model for Neural Machine Translation
Attentionhttps://sota.jiqizhixin.com/project/attention-2
收录实现数量:5
支持框架:PyTorch、TensorFlow等
Attention is All You Need
Value-Networkhttps://sota.jiqizhixin.com/project/value-networkDecoding with Value Networks for Neural Machine Translation

机器翻译(MT)是利用机器的力量「自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)」。机器翻译方法通常可分成三大类:基于规则的机器翻译(RBMT)、统计机器翻译(SMT)和神经机器翻译(NMT)。


一般而言,RBMT分析一段文字,通常会先建立目标语言中介的、象征性的表义字词。再根据中介的表义字词来决定使用人工国际语言(interlingual)化的机器翻译,或是使用转化原则法的机器翻译(transfer-based machine translation)。这些方法都必须拥有具备足够形态学的、语句学的以及语义学的资讯以及大量的字词规则所建构的辞汇。常见RBMT的难处在于无法给于适当且足够庞大的资讯,来满足不同领域或是不同法则的机器翻译法。


统计机器翻译(SMT)的首要任务是为语言的产生构造某种合理的统计模型,并在此统计模型基础上,定义要估计的模型参数,并设计参数估计算法。早期的基于词的统计机器翻译采用的是噪声信道模型,采用最大似然准则进行无监督训练,而近年来常用的基于短语的统计机器翻译则采用区分性训练方法,一般来说需要参考语料进行有监督训练。


2014年Dzmitry Bahdanau和Yoshua Bengio等学者提出了神经机器翻译。神经机器翻译(NMT)基于深度神经网络,为机器翻译提供了端到端的解决方案,在研究社区中受到了越来越多的关注,且近几年已被逐渐应用到了产业中。NMT 使用基于 RNN 的编码器-解码器框架对整个翻译过程建模,编码器是把源语言经过一系列的神经网络的变换之后,表示成一个高维向量。解码器负责把这个高维向量再重新解码(翻译)成目标语言。在训练过程中,它会最大化目标语句对给定源语句的似然度。在测试的时候,给定一个源语句 x,它会寻找目标语言中的一个语句 y,以最大化条件概率 P(y|x)。由于目标语句的可能数目是指数量级的,找到最优的 y 是 NP-hard 的。因此通常会使用束搜索(beam search)以找到合理的 y。束搜索是一种启发式搜索算法,会以从左向右的形式保留得分最高的部分序列扩展。特别是,它保存了一群候选的部分序列。在每个时间步长上,该算法都会通过添加新词的方法扩展每一个候选部分语句,然后保留由 NMT 模型评分最高的新候选语句。当达到最大解码深度或者所有的语句都完全生成的时候(即所有的语句都包含 EOS 符号后缀的时候),算法就会终止。

我们在这篇报告中总结了神经机器翻译中的经典TOP模型。

RNNsearch


RNNsearch是编码器-解码器模型的扩展,该模型学习联合对齐和翻译,每次在翻译中生成单词时,都会(软)搜索源句子中最相关信息集中的一组位置。然后,模型基于与这些源位置和所有先前生成的目标词关联的上下文向量来预测目标词。与基本的编码器/解码器相比,RNNsearch最重要的区别在于,它不会尝试将整个输入语句编码为单个固定长度的向量。取而代之的是,它将输入的句子编码为一系列向量,并在解码翻译时自适应地选择这些向量的子集。这使得神经翻译模型不必将源句子的所有信息压缩为固定长度的向量。

RNNsearch架构包括一个(双向RNN)编码器和一个解码器,在解码过程中模拟搜索源句。在解码翻译过程中通过源句进行搜索。

解码器。条件概率如下:



与经典的编码器-解码器方法不同,这里的概率是以每个目标词y_i的不同上下文向量c_i为条件的。上下文向量c_i取决于注释序列(h_1, ..., h_Tx),编码器将输入句子映射到该注释中。每个注释h_i包含整个输入序列的信息,主要集中在输入序列的第i个词的周围部分。c_i为这些注释h_i的加权和:



其中,e_ij是一个对齐模型,对位置j附近的输入和位置i的输出的匹配程度进行评分。将比对模型a参数化为前馈神经网络,该神经网络与系统的所有其他组件共同训练。与传统机器翻译不同,对齐方式不被视为潜在变量。取而代之的是,对齐模型直接计算软对齐,从而实现了反向传播成本函数的梯度。该梯度可用于联合训练对齐模型以及整个翻译模型。

编码器。实现每个词的注释不仅要总结前面的词,而且要总结后面的词。RNNsearch用编码器所有hidden state的加权平均来表示上下文,权重表示解码器中中各state与编码器各state的相关性,简单的seq2seq认为解码器中每一个state都与输入的全部信息(用last state表示)有关,而本文则认为只与相关的state有关系,即在解码器部分中,模型只将注意力放在了相关的部分,对其他部分注意很少,这一点与人类的行为很像,当人看到一段话或者一幅图的时候,往往会将注意力放在一个很小的局部,而不是全部。如图1所示。



图1. RNNsearch模型在给定的源句(x_1, x_2, ..., x_T)中生成第t个目标词y_t的图形说明

RNNsearch的编码器是一个双向RNN(biRNN)。一个biRNN包括前向和后向RNN。前向RNN 按顺序读取输入向量并计算前向隐状态序列  。后向RNN 逆序读取序列,得到一个后向隐状态序列。将前向隐状态和后向隐状态联系起来,得到每个单词的注释。用这样的方法,注释既能总结前面的单词又能总结后面的单词。注释序列被解码器和排列模型之后用来计算文本向量。


当前 SOTA!平台收录 RNNsearch 共 6 个模型实现资源。

项目SOTA!平台项目详情页

RNNsearch

前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/rnn-search50


Multi-task


Multi-task是百度提出的用来解决语料稀疏问题的多任务学习框架。在这项研究中,百度翻译提出了共享编码器的多任务学习神经网络翻译模型,建立了基于神经网络的多语言翻译统一框架。如图2所示。


图2. 用于多目标语言翻译的多任务学习框架

给定一对训练句子{x, y},基于标准的循环神经网络的编码器-解码器机器翻译模型适合一个参数化的模型,以最大化给定源句子x的目标句子y的条件概率,即argmax p(y|x)。可以将此扩展到多语言设置。特别是,假设想从英语翻译成许多不同的语言,例如,法语(Fr)、荷兰语(Nl)、西班牙语(Es)。训练前收集平行训练数据,即En-Fr、En-NL、En-Es平行句子。由于三个语言对的英文表述是在一个编码器中共享的,优化的目标函数是以同一编码器产生的表述为条件的几个条件概率项的总和:



假设我们有几个语言对。对于一个特定的语言对,给定一个源句子输入序列,目标是共同最大化每个生成的目标词的条件概率。估计生成第t个目标词的概率为:



g可以被看作是一个具有神经网络的概率预测器。(s_t)^Tp是时间t的循环神经网络隐状态,可以被估计为:




上下文向量(c_t)^Tp取决于一连串的注释(h_1, ..., h_Lx),编码器将输入句子映射到这些注释上,其中,Lx是x中的标记数量。每个注释h_i是一个双向的循环表示,围绕着第i个词前向和后向的序列信息:



计算h_j 时,也使用了一个双向的循环神经网络。


从概率的角度来看,该模型能够在相同的源语料库中学习几种目标语言的条件分布。因此,循环编码器-解码器是用几个条件概率加在一起进行联合训练的。至于双向循环神经网络模块,采用门控递归神经网络。在多任务学习框架中,编码器中门控递归神经网络的参数是共享的,其表述如下:





循环计算的过程如图3所示,其中,x_t表示序列中第t个词的独热向量。



图3. 门控循环神经网络计算,其中,r_t是负责记忆单元消除的复位门,z_t可以看作是当前状态信息和历史信息之间的软权重。

项目SOTA!平台项目详情页

Multi-task

前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/multi-task-3


attention-model


这篇论文主要是提出了Global attention 和 Local attention, 即两种attention 机制:一种始终关注所有源词的全局方法和一种每次仅查看源词子集的局部方法。这两种类型模型的共同之处在于,在解码阶段的每个时间步长t 中,两种方法都首先在堆叠LSTM的顶层将隐状态h_t 作为输入。目标是获得一个上下文向量c_t,捕获相关的源端信息以帮助预测当前目标单词y_t。虽然这些模型在获得上下文向量c_t 的方式上有所不同,但它们共享相同的后续步骤。

图4. : 全局注意力模型—在每个时间步长t,该模型根据当前目标状态h_t和所有源状态h¯s推导出一个可变长度的对齐权重向量a_t。然后,根据a_t计算出一个全局上下文向量c_t,即所有源状态的加权平均数


图5. 局部注意力模型—该模型首先预测出当前目标词的单一对齐位置p_t。然后用一个以源位置p_t为中心的窗口来计算上下文向量c_t,即窗口中源隐状态的加权平均。权重是由当前目标状态h_t和窗口中的源状态h¯s推断出来的


在给定目标隐状态h_t和源侧上下文向量c_t的情况下,采用一个简单的连接层来结合这两个向量的信息,生成一个注意力隐状态,如下所示:




注意力向量h˜t通过softmax层反馈,生成预测分布,表述为:



全局注意力。全局注意力模型的思路是在推导上下文向量c_t时考虑编码器的所有隐状态。在这种模型类型中,通过比较当前的目标隐状态h_t和每个源隐状态h¯s,得出一个可变长度的排列向量a_t,其大小等于源侧的时间步长数:



这里,score被称为基于内容的函数,考虑三种不同的选择:



此外,使用了一个基于位置的函数,其中对齐分数仅从目标隐状态h_t计算出来,具体如下:



考虑到对齐矢量作为权重,上下文矢量c_t计算为所有源隐状态的加权平均。

局部注意力。全局注意力有一个缺点,即它必须为每个目标词关注源头的所有单词,而且有可能使它在翻译较长的序列,如段落或文件时不切实际。为了解决这一缺陷,提出了一种局部注意力机制,即选择只关注每个目标词的一小部分源位置。局部注意力机制有选择地集中在一个小的背景窗口上,并且是可区分的。这种方法的优点是避免了软注意力中所需的昂贵的计算消耗,同时,比硬注意力方法更容易训练。具体而言,该模型首先为每个目标词在时间t生成一个对齐的位置p_t。然后,推导上下文向量c_t为窗口[pt-D, pt+D]内源隐状态集合的加权平均;D是根据经验选择的。与全局方法不同,现在的局部排列向量a_t是固定维度的,即∈R^2D+1。考虑该模型的以下两种变体。
单调对齐(local-m) — 简单地设置p_t = t,假设源和目标大体上是单调对齐的。
可预测的对齐(local-p) — 模型不再假设单调对齐,而是预测一个对齐位置,如下所示:



W_p 和v_p 是模型的参数,它们用于学习来预测位置。S 为源语句的长度。sigmoid 的结果使得p_t ∈ [0,S ]。为了使对齐点靠近p_t,放置一个以p_t为中心的高斯分布。具体而言,对齐权重定义为:


 


Input-feeding 方法。在全局和局部方法中,attention 的决策是独立进行的。在标准机器翻译中,在翻译过程中经常保持一个coverage 集以跟踪哪些源词已被翻译。同样,在attention NMT中,应该考虑到过去的对齐信息共同作出决定。为了解决这个问题,提出了一种input-feeding 方法,其中,attention 向量h_t 在下一个时间步长与输入串联,如图6所示。这种联接有两重效果:(a)希望使得模型更完整地关注前面对齐的选择;(b) 创建一个非常深的网络,在水平和垂直方向同时扩展。


图6. input-feeding—将注意力向量h˜t输入到下一个时间步长中,以告知模型过去的排列决定。


当前 SOTA!平收录 attention-model 共 5 个模型实现资源。

项目SOTA!平台项目详情页
attention-model前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/attention-model


Convolutional Encoder


Convolutional Encoder 是基于卷积层的模型,与循环神经网络计算受时间依赖性约束不同,Convolutional Encoder能够实现同时编码。

非循环编码器的一个简单基准是Ranzato提到的池化模型,即将K个连续词的词嵌入进行简单的平均。除了输入中的单词彼此接近之外,平均单词嵌入不会表达位置信息。因此,引入位置嵌入来对句子中每个词的绝对位置进行编码。因此,源语句中的每个嵌入e_j都包含一个位置嵌入l_j和一个词嵌入w_j。与循环编码器类似,注意力分数a_ij从池化表示z_j中计算得到,条件输入c_i是嵌入e_j的加权和:



池化的一个直接扩展是学习卷积神经网络(CNN)中的核。编码器的输出z_j包含一个固定大小的上下文信息,取决于核的宽度k,但所需的上下文宽度可能会变化。这可以通过堆叠几层卷积和非线性来解决:额外的层增加了总的上下文大小,而非线性可以根据需要调节上下文的有效大小。例如,用内核宽度k=3堆叠5个卷积会产生11个字的输入域,即每个输出取决于11个输入字,非线性允许编码器利用全部输入域,或根据需要集中于较少的字。为了便于深度编码器的学习,将每个卷积的输入的残差连接添加到输出,然后将非线性激活函数应用到输出。多层CNN是通过将几个区块堆叠在一起构建的。CNN不包含通常用于下采样的池化层,也就是说,在网络应用后,保留完整的源序列长度。与池化模型类似,卷积编码器使用位置嵌入法。

最后的编码器由两个堆叠的卷积网络组成(图7)。CNN-a生成编码器输出z_j来计算注意力分数a_i,而解码器的条件输入c_i是通过CNN-c的输出相加来计算的:



图7. 带有单层卷积编码器网络的神经机器翻译模型。CNN-a在左边,CNN-c在右边。没有显示嵌入层


当前 SOTA!平台收录 Convolutional Encoder 共 1 个模型实现资源。

项目SOTA!平台项目详情页
Convolutional Encoder前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/convolutional-encoder


Attention


2017 年,Google 机器翻译团队发表的《Attention is All You Need》完全抛弃了RNN和CNN等网络结构,而仅仅采用Attention机制来完成机器翻译任务,并且取得了很好的效果,注意力机制也成为了研究热点。大多数竞争性神经序列转导模型都有一个编码器-解码器结构。编码器将输入的符号表示序列(x1, ..., xn)映射到连续表示的序列z=(z1, ..., zn)。给定z后,解码器每次生成一个元素的符号输出序列(y1, ..., ym)。在每个步骤中,该模型是自动回归的,在生成下一个符号时,将先前生成的符号作为额外的输入。Transformer遵循这一整体架构,在编码器和解码器中都使用了堆叠式自注意力和点式全连接层,分别在图8的左半部和右半部显示。



图8. Transformer架构


编码器

编码器是由N=6个相同的层堆叠而成。每层有两个子层。第一层是一个多头自注意力机制,第二层是一个简单的、按位置排列的全连接前馈网络。在两个子层的每一个周围采用了一个残差连接,然后进行层的归一化。也就是说,每个子层的输出是LayerNorm(x + Sublayer(x)),其中,Sublayer(x)是子层本身实现的函数。为了方便这些残差连接,模型中的所有子层以及嵌入层都会生成尺寸为dmodel=512的输出。

解码器

解码器也是由N=6个相同的层组成的堆栈。除了每个编码器层的两个子层之外,解码器还插入了第三个子层,它对编码器堆栈的输出进行多头注意力。与编码器类似,在每个子层周围采用残差连接,然后进行层归一化。进一步修改了解码器堆栈中的自注意力子层,以防止位置关注后续位置。这种masking,再加上输出嵌入偏移一个位置的事实,确保对位置i的预测只取决于小于i的位置的已知输出。

Attention。注意力函数可以描述为将一个查询和一组键值对映射到一个输出,其中,查询、键、值和输出都是向量。输出被计算为值的加权和,其中分配给每个值的权重是由查询与相应的键的兼容性函数计算的。在Transformer中使用的Attention是Scaled Dot-Product Attention, 是归一化的点乘Attention,假设输入的query q 、key维度为dk,value维度为dv , 那么就计算query和每个key的点乘操作,并除以dk ,然后应用Softmax函数计算权重。Scaled Dot-Product Attention的示意图如图9(左)。


图9. (左)按比例的点乘法注意力。(右)多头注意力由几个平行运行的注意力层组成


如果只对Q、K、V做一次这样的权重操作是不够的,这里提出了Multi-Head Attention,如图9(右)。具体操作包括:


  1. 首先对Q、K、V做一次线性映射,将输入维度均为dmodel 的Q、K、V 矩阵映射到Q∈Rm×dk,K∈Rm×dk,V∈Rm×dv;

  2. 然后在采用Scaled Dot-Product Attention计算出结果;

  3. 多次进行上述两步操作,然后将得到的结果进行合并;

  4. 将合并的结果进行线性变换。

在图8架构中,有三处Multi-head Attention模块,分别是:

  1. Encoder模块的Self-Attention,在Encoder中,每层的Self-Attention的输入Q=K=V , 都是上一层的输出。Encoder中的每个位置都能够获取到前一层的所有位置的输出。

  2. Decoder模块的Mask Self-Attention,在Decoder中,每个位置只能获取到之前位置的信息,因此需要做mask,其设置为−∞。

  3. Encoder-Decoder之间的Attention,其中Q 来自于之前的Decoder层输出,K、V 来自于encoder的输出,这样decoder的每个位置都能够获取到输入序列的所有位置信息。

在进行了Attention操作之后,encoder和decoder中的每一层都包含了一个全连接前向网络,对每个位置的向量分别进行相同的操作,包括两个线性变换和一个ReLU激活输出:



因为模型不包括recurrence/convolution,因此是无法捕捉到序列顺序信息的,例如将K、V按行进行打乱,那么Attention之后的结果是一样的。但是序列信息非常重要,代表着全局的结构,因此必须将序列的token相对或者绝对位置信息利用起来。这里每个token的position embedding 向量维度也是dmodel=512, 然后将原本的input embedding和position embedding加起来组成最终的embedding作为encoder/decoder的输入。其中,position embedding计算公式如下:



其中,pos表征位置,i表征维度。也就是说,位置编码的每个维度对应于一个正弦波。波长形成一个从2π到10000-2π的几何级数。选择这个函数是因为假设它可以让模型很容易地学会通过相对位置来参加,因为对于任何固定的偏移量k,PE_pos+k可以被表示为PE_pos的线性函数。


当前 SOTA!平台收录 Attention  共 4 个模型实现资源。

项目SOTA!平台项目详情页
Attention前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/attention-2


Value-network


Value-network的思路是:使用预测网络来改进波束搜索。将源句x、当前可用的解码输出y1,..., yt-1和步长t的候选词w作为输入,预测部分目标句的长期价值(例如BLEU分数),按照强化学习的惯例,把这个预测网络命名为价值网络(Value-network)。具体来说,为价值网络提出了一个循环结构,并通过双语数据训练其参数。在测试期间,当选择一个单词w进行解码时,同时考虑NMT模型给出的条件概率和价值网络预测的长期价值。

在传统的强化学习中,价值函数描述了遵循某种策略π可以从状态s中获得多少累积奖励。在机器翻译中,可以将任何输入句子x与部分输出句子y_<t配对视为状态,并将翻译模型π_Θ视为策略,可以在任何状态下生成一个词(动作)。给定策略π_Θ,价值函数的特点是,如果使用π_Θ来翻译x,前t-1个词是y_<t,那么预期的翻译性能(例如BLEU得分)是什么。将v(x, y_<t)表示为价值函数,y^∗(x)表示为基础ground-truth翻译,然后有:



其中Y是完整句子的空间。

第一个重要的问题是如何设计输入和价值函数的参数化形式。由于翻译模型是建立在编码器-解码器框架之上的,我们也在这个架构之上建立了价值网络。为了充分利用编码器-解码器框架中的信息,开发了一个带有两个新模块的价值网络,即语义匹配模块和上下文覆盖模块。


图10. Value-network架构

语义匹配(Semantic Matching,SM)模块。在语义匹配模块中,在时间步长t,在解码器RNN隐状态上使用均值池化法:



作为部分目标句的摘要句子。此外,使用上下文状态的平均集合法:




作为源语言中的上下文总结。把r¯t和c¯t连接起来,并使用一个如下的前馈网络评估源句和目标句之间的语义信息:



上下文覆盖(Context-Coverage,CC)模块。人们观察到,注意力模型中覆盖的上下文越多,翻译的结果就越好。因此,构建一个上下文覆盖模块来衡量编码器-解码器框架中使用的信息覆盖率。在上下文层和编码状态上使用均值池化能提供一些有效的知识。令:




我们使用另一个前馈网络来处理这些信息:




最后,将µSM和µCC串联起来,然后使用另一个带有sigmoid激活函数的全连接层来输出一个标量作为预测值。整个架构如图10所示。

项目SOTA!平台项目详情页
Value-Network 前往SOTA!模型平台获取实现资源:https://sota.jiqizhixin.com/project/value-network

前往 SOTA!模型资源站(sota.jiqizhixin.com)即可获取本文中包含的模型实现代码、预训练模型及API等资源。 


网页端访问:在浏览器地址栏输入新版站点地址 sota.jiqizhixin.com ,即可前往「SOTA!模型」平台,查看关注的模型是否有新资源收录。 


移动端访问:在微信移动端中搜索服务号名称「机器之心SOTA模型」或 ID 「sotaai」,关注 SOTA!模型服务号,即可通过服务号底部菜单栏使用平台功能,更有最新AI技术、开发资源及社区动态定期推送。



微信扫码关注该文公众号作者

戳这里提交新闻线索和高质量文章给我们。
相关阅读
FastTrack Universität 2023莱比锡大学公立语言项目招生简章WGAN、CSGAN、ADC-GAN…你都掌握了吗?一文总结图像生成必备经典模型(二)ProGAN、StyleGAN、Diffusion GAN…你都掌握了吗?一文总结图像生成必备经典模型(一)EeSen、FSMN、CLDNN、BERT、Transformer-XL…你都掌握了吗?一文总结语音识别必备经典模型(二)[电脑] Intel + Intel + Intel: Arc 750 Limited Edition + 13700KF 开箱观点丨夏璐等:Making sense of China's new pattern of developmentI2A、MBMF、MVE、DMVE…你都掌握了吗?一文总结强化学习必备经典模型(二)Tacotron2、GST、Glow-TTS、Flow-TTS…你都掌握了吗?一文总结语音合成必备经典模型(二)WMT 2022 国际机器翻译大赛发榜,微信翻译获对话翻译和生物医学领域翻译共三项冠军太神奇了!小白必学的CHIRP、miRNA-qPCR实验、transwell 、MTT增殖等30+实验史上最全的LED点灯程序,你都掌握了吗?译者课堂131 | Are management consultants useful?会计事务所 | Deloitte 2024 Full Time Tax Consultant,火热投递中文学城,老中们的精神养老院TGANv2、VideoGPT、DVG…你都掌握了吗?一文总结视频生成必备经典模型(二)新发!华裔女演员头像银币FlowSeq、mBART、BERT-fused、mRASP、mRASP2...你都掌握了吗?一文总结机器翻译必备经典模型(三)GPT、BERT、XLM、GPT-2、BART…你都掌握了吗?一文总结文本生成必备经典模型(二)BLSTM-RNN、Deep Voice、Tacotron…你都掌握了吗?一文总结语音合成必备经典模型(一)精选SDE岗位 | TripActions、Autodesk、Steelcase发布最新岗位!昨天上课的大妈的不寻常故事球场不速客,圆头大尾狸内资会计所 | RSM 2023 Technology Risk Consulting Intern,持续热招中复星医药、Moderna、BioNTech,有没有机会再爆发?|直播预告NNLM、RNNLM、LSTM-RNNLM、Bi-lstm、GPT-1…你都掌握了吗?一文总结语音识别必备经典模型(一)Seq2Seq、SeqGAN、Transformer…你都掌握了吗?一文总结文本生成必备经典模型(一)能成事的人,都掌握了这4大法则从打倒土豪劣绅到人人斗私批修顶级咨询|BCG Consulting Internship正在进行中!博士后申请 | 西湖大学张岳课题组招收基础自然语言处理、机器翻译、机器学习等方向的博士后bāo huā shēng?bō huā shēng?杀出重围的企业,都掌握了3个秘密Kubernetes 中 Ceph、LINSTOR、Mayastor 和 Vitastor 存储性能对比视频生成经典模型资源(一):TGAN、VGAN、MoCoGAN、SVG、vid2vid、VideoVAE、DVD-GANUnsupervised NMT、PBSMT、coarse-to-fine...你都掌握了吗?一文总结机器翻译必备经典模型(二)
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。