递归神经网络RNN,rnn神经网络结构
http://blog.itpub.net/29829936/viewspace-2643868/
2019-05-09 22:51:03
目录:
前言RNN知识结构简单循环神经网络RNN的基本结构RNN的运算过程和参数更新RNN的前向运算RNN的参数更新一前言
前馈神经网络不考虑数据之间的相关性,网络的输出只与当前时刻网络的输入有关。但是在解决很多实际问题时,我们发现现实问题中存在大量的串行数据,比如文本、语音、视频等。这些时序数据往往是按时间顺序相关的,即网络在某一时刻的输出不仅与当前时刻的输入相关,还与前一时刻或前几个时刻的输出相关。前馈神经网络不能很好地处理这种相关性,因为它没有记忆能力,所以前一时刻的输出不能传递到后一时刻。
另外,我们做语音识别或者机器翻译的时候,输入输出数据是不定长的,而前馈神经网络的输入输出数据格式是固定的,不能改变。因此,需要一个更强大的模型来解决这些问题。
在过去的几年里,递归神经网络的实力得到了很好的证明。在许多序列问题中,如文本处理、语音识别和机器翻译等,递归神经网络已经取得了令人瞩目的成就。递归神经网络也越来越多地应用于其他领域。
二 RNN知识结构
本章将从最简单的递归神经网络入手,通过实例掌握递归神经网络如何解决序列化数据的问题,以及递归神经网络的正向计算和参数优化的过程和方法。在此基础上,我们将介绍几种常见的递归神经网络结构,即双向递归神经网络、深度递归神经网络和递归神经网络。我们将使用TensorFlow实现循环神经网络,掌握使用TensorFlow构建简单循环神经网络的方法。
此外,我们还将学习一种更复杂的循环神经网络3354门控循环神经网络,包括长短期记忆网络(LSTM)和门控循环单元(GRU),这是目前最常用的两种循环神经网络结构。最后,我们将介绍一种注意力模型:基于注意力的模型(Attention-basedmodel),这是近两年来的研究热点。在下一章的实际项目中,我们将使用前面提到的基于注意力的模型和LSTM模型来解决一些实际问题。
本章的内容结构如下:
图1本章的内容结构
三 简单循环神经网络
简单递归网络(SRN),也称为Elman网络,是由Jeff Elman于1990年提出的。Elman在Jordan网络(1986)的基础上进行创新,简化了其结构,最终提出了Elman网络。乔丹和埃尔曼网络的网络结构如下图所示。
图2乔丹网络(左)和埃尔曼网络(右)
图片引自ResearchGate:https://www . ResearchGate . net/figure/a-recurrent-neural-network-as-proposed-by-Jordan-1986 _ fig 5 _ 277603865
从图2中可以直观地看出,两种网络结构的主要区别在于存储单元中存储的内容不同。Jordan网络的记忆胞存储的是整个网络的最终输出,而Elmannetwork的记忆胞只存储中间循环层,所以如果是基于Elman网络的深度循环神经网络,那么每次循环中间都会有一个对应的记忆胞。对进一步研究感兴趣的读者可以查阅埃尔曼和乔丹的论文:https://crl.ucsd.edu/~elman/Papers/fsit.pdf,http://ceweb.ucsd.edu/~sq DDT/paper-suggestions/Jordan-TR-8604 . pdf
Jordan网络和Elman网络都可以扩展应用到深度学习中,但是由于Elman网络的结构更容易扩展(Elman网络的各个回路层相互独立,网络结构的设计可以更加灵活。另外,当Jordan网络的输出层尺寸与循环层尺寸不一致时,需要进行额外的调整,而Elmannetwork不存在这个问题。),所以目前主流的循环神经网络都是基于Elman网络,比如我们后面要介绍的LSTM。因此,递归神经网络(RNN)通常默认是指具有Elman网络结构的递归神经网络。本书提到的循环神经网络,除非特别说明,都是指具有Elman网络结构的循环神经网络。
四 RNN的基本结构
递归神经网络的基本结构如下图所示(注:为清晰起见,图中未示出所有连接线。):
图3循环神经网络的基本结构
关于递归神经网络的结构有许多不同的图形描述,但它们的含义都与图1中的相同。将循环神经网络的结构与一般的全连接神经网络进行比较,可以发现循环神经网络只多了一个记忆单元,而这个记忆单元就是循环神经网络的关键。
从图3可以看出,递归神经网络的记忆单元在时刻会保持递归层(即图3中的隐藏层)的状态,在时刻t 1输入记忆单元的内容和时刻t 1的输入。
一起给流通层。为了更直观地表达,我们将递归神经网络按时间展开,如图4所示。
如图4,左边部分是循环神经网络的简化示意图,右边部分是整个网络按时间展开的效果。左边部分,X是神经网络的输入,U是输入层和隐含层之间的权重矩阵,W是记忆单元和隐含层之间的权重矩阵,V是隐含层和输出层之间的权重矩阵,S是隐含层的输出,也存储在记忆单元中,与X一起作为下一时刻的输入,O是神经网络的输出。
从右边展开的部分可以更清楚的看到,RNN隐层的输出在每个时刻都会传输到下一个时刻,所以每个时刻的网络都会保留前一个时刻的一定历史信息,然后和当前时刻的网络状态一起传输到下一个时刻。
图4循环神经网络及其时间扩展后的效果图。
来自大自然的图像
理论上,RNN可以记忆任意长度序列的信息,即RNN的记忆单元可以存储很久以前网络的状态。但是在实际使用中,我们发现RNN的记忆能力总是有限的,它只能记住最后几个瞬间的网络状态。在本章第4节,我们将详细讨论这个问题。
五 RNN的运算过程和参数更新
1. RNN的前向运算
在全连接的递归神经网络中,假设只有一个隐藏层。当神经网络此刻接收到一个输入时,隐层的输出为:
上式中,函数f()是隐藏层的激活函数,在TensorFlow中默认为tanh函数。前面已经介绍了参数u和w,它们分别是输入层与隐含层之间的权重矩阵和存储单元与隐含层之间的权重矩阵。参数b1是一个偏移项。神经网络训练初期,记忆单元中没有最后时刻的网络状态。此时此刻
是初始值。
获得隐含层的输出后,神经网络的输出为:
在上式中,函数g()是输出层的激活函数。我们在做分类问题时,通常选择函数g()作为Softmax函数。参数v是从隐藏层到输出层的参数矩阵,参数b2是偏移项。
我们先来看看TensorFlow源代码中RNN隐藏层的计算。此代码在TensorFlow源代码中的位置是:https://github . com/tensor flow/tensor flow/Tree/Master/tensor flow/Python/OPS/RNN _ Cell _ impl . py
在文件RNN _ cell _ impl.py中定义了一个抽象类RNNCell,其他实现RNN的类都会继承这个类,比如BasicRNNCell、BasicLSTMCell、GRUCell等。我们以BasicrnCell类为例。所有继承RNNCell的类都需要实现一个call方法。BasicrnCell类中的call方法实现如下:
从上面的TensorFlow源代码可以看出,TensorFlow隐层的计算结果是这一层的输出,同时也作为当前时刻的状态和下一时刻的输入。第2行和第3行的注释解释了“call”方法的功能:
,其实就是为了实现我们前面给出的公式6.1。“自我。_kernel”是权重矩阵,而“self。第6行中的“bias”是偏置项。
这里有一点需要注意。这段代码实现了
,W *输入和U *状态不是分开计算,然后加在一起。而是用“concat”方法将之前的状态“state”和当前的输入“inputs”拼接起来,然后将拼接后的矩阵和拼接后的权重矩阵相乘。可能有些读者一开始看不懂,但效果是一样的。让我们看看下面的例子:
我们有四个矩阵:A,B,C和D:
假设我们要计算,有:
如果我们首先分别将矩阵A和B、C和D拼接在一起,我们得到两个矩阵E和F:
进行计算,你会得到同样的结果:
让我们用一段代码来实现递归神经网络中完整的正向计算过程。
上述代码中使用的RNN结构如下:
图5代码中使用的RNN网络结构
在上面的示例代码中,我们使用了一个简单的递归神经网络,如图5所示。该网络结构在输入层有两个单元,在隐藏层有两个神经元,在输出层有一个神经元。所有激活函数都是双曲正切函数。在第四行代码中,我们定义了输入数据,总共有三个时间步长,每个时间步长处理一个输入。在我们的程序运行过程中,参数和输入输出的值以表格的形式显示如下(读者可以用下表的数据查看RNN的正向运行,加深印象):
2. RNN的参数更新
有两种主要方法来更新神经网络中的参数:通过时间的反向传播(BPTT)和实时递归学习(RTRL)。两种算法都基于梯度下降。不同的是,BPTT算法通过反向传播来更新梯度,而RTRL算法通过正向传播来更新梯度。目前,BPTT是RNN训练中最常用的参数更新算法。
除了RNN中的参数共享时间之外,BPTT算法和我们在前馈神经网络上使用的BP算法之间本质上没有区别,因此当计算梯度时,RNN中的参数沿着时间向后传播。所以RNN的参数梯度是时间展开后各级参数梯度的总和。
原文:https://mp.weixin.qq.com/s? _ _ biz=MzAxMjMwODMyMQ==mid=2456338385 idx=1sn=8e 9194 c 87d 3 AC 6 f 9134 c 112 b 28724 e 0 cchksm=8 C2 fc 5 dfbb 584 cc 9 dddbcaea 7a 7da 77157437 f 59637 f 189 F2 d 40 f 76606 C4 f 52 be 4b 886973 BF 91 scene=21
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。