好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

零基础入门深度学习长短时记忆网络(lstm).pdf

13页
  • 卖家[上传人]:第***
  • 文档编号:60793083
  • 上传时间:2018-11-18
  • 文档格式:PDF
  • 文档大小:1.89MB
  • / 13 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • [关闭] 零基础入门深度学习(6) - 长短时记忆网络(LSTM) 机器学习 深度学习入门 无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追 求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就out了?现在救命稻草来了,《零基础入门深 度学习》系列文章旨在讲帮助爱编程的你从零基础达到入门级水平零基础意味着你不需要太多的数学知识,只要会写程序就行 了,没错,这是专门为程序员写的文章虽然文中会有很多公式你也许看不懂,但同时也会有更多的代码,程序员的你一定能看 懂的(我周围是一群狂热的Clean Code程序员,所以我写的代码也不会很差) 文章列表 零基础入门深度学习(1) - 感知器 零基础入门深度学习(2) - 线性单元和梯度下降 零基础入门深度学习(3) - 神经网络和反向传播算法 零基础入门深度学习(4) - 卷积神经网络 零基础入门深度学习(5) - 循环神经网络 零基础入门深度学习(6) - 长短时记忆网络(LSTM) 零基础入门深度学习(7) - 递归神经网络 往期回顾 在上一篇文章中,我们介绍了循环神经网络以及它的训练算法。

      我们也介绍了循环神经网络很难训练的原因,这导致了它在实际应用中, 很难处理长距离的依赖在本文中,我们将介绍一种改进之后的循环神经网络:长短时记忆网络(Long Short Term Memory Network, LSTM),它成功的解决了原始循环神经网络的缺陷,成为当前最流行的RNN,在语音识别、图片描述、自然语言处理等许多领域中成功应用 但不幸的一面是,LSTM的结构很复杂,因此,我们需要花上一些力气,才能把LSTM以及它的训练算法弄明白在搞清楚LSTM之后,我们再介 绍一种LSTM的变体:GRU (Gated Recurrent Unit) 它的结构比LSTM简单,而效果却和LSTM一样好,因此,它正在逐渐流行起来最 后,我们仍然会动手实现一个LSTM 长短时记忆网络是啥 我们首先了解一下长短时记忆网络产生的背景回顾一下零基础入门深度学习(5) - 循环神经网络中推导的,误差项沿时间反向传播的公 式: 我们可以根据下面的不等式,来获取的模的上界(模可以看做对中每一项值的大小的度量): 我们可以看到,误差项 从t时刻传递到k时刻,其值的上界是的指数函数分别是对角矩阵和矩阵W模的上界。

      显 然,除非乘积的值位于1附近,否则,当t-k很大时(也就是误差传递很多个时刻时),整个式子的值就会变得极小(当乘积小于 1)或者极大(当乘积大于1),前者就是梯度消失,后者就是梯度爆炸虽然科学家们搞出了很多技巧(比如怎样初始化权重),让 的值尽可能贴近于1,终究还是难以抵挡指数函数的威力 梯度消失到底意味着什么?在零基础入门深度学习(5) - 循环神经网络中我们已证明,权重数组W最终的梯度是各个时刻的梯度之和,即: 假设某轮训练中,各时刻的梯度以及最终的梯度之和如下图: 我们就可以看到,从上图的t-3时刻开始,梯度已经几乎减少到0了那么,从这个时刻开始再往之前走,得到的梯度(几乎为零)就不会对 最终的梯度值有任何贡献,这就相当于无论t-3时刻之前的网络状态h是什么,在训练中都不会对权重数组W的更新产生影响,也就是网络事实 上已经忽略了t-3时刻之前的状态这就是原始RNN无法处理长距离依赖的原因 既然找到了问题的原因,那么我们就能解决它从问题的定位到解决,科学家们大概花了7、8年时间终于有一天,Hochreiter和 Schmidhuber两位科学家发明出长短时记忆网络,一举解决这个问题。

      其实,长短时记忆网络的思路比较简单原始RNN的隐藏层只有一个状态,即h,它对于短期的输入非常敏感那么,假如我们再增加一个状 态,即c,让它来保存长期的状态,那么问题不就解决了么?如下图所示: 新增加的状态c,称为单元状态(cell state)我们把上图按照时间维度展开: 上图仅仅是一个示意图,我们可以看出,在t时刻,LSTM的输入有三个:当前时刻网络的输入值、上一时刻LSTM的输出值、以及上一时 刻的单元状态;LSTM的输出有两个:当前时刻LSTM输出值、和当前时刻的单元状态注意 、 、 都是向量 LSTM的关键,就是怎样控制长期状态c在这里,LSTM的思路是使用三个控制开关第一个开关,负责控制继续保存长期状态c;第二个开 关,负责控制把即时状态输入到长期状态c;第三个开关,负责控制是否把长期状态c作为当前的LSTM的输出三个开关的作用如下图所示: 接下来,我们要描述一下,输出h和单元状态c的具体计算方法 长短时记忆网络的前向计算 前面描述的开关是怎样在算法中实现的呢?这就用到了门(gate)的概念门实际上就是一层全连接层,它的输入是一个向量,输出是一 个0到1之间的实数向量假设W是门的权重向量, 是偏置项,那么门可以表示为: 门的使用,就是用门的输出向量按元素乘以我们需要控制的那个向量。

      因为门的输出是0到1之间的实数向量,那么,当门输出为0时,任何向 量与之相乘都会得到0向量,这就相当于啥都不能通过;输出为1时,任何向量与之相乘都不会有任何改变,这就相当于啥都可以通过因为 (也就是sigmoid函数)的值域是(0,1),所以门的状态都是半开半闭的 LSTM用两个门来控制单元状态c的内容,一个是遗忘门(forget gate),它决定了上一时刻的单元状态有多少保留到当前时刻;另 一个是输入门(input gate),它决定了当前时刻网络的输入有多少保存到单元状态LSTM用输出门(output gate)来控制单元状 态有多少输出到LSTM的当前输出值 我们先来看一下遗忘门: 上式中,是遗忘门的权重矩阵,表示把两个向量连接成一个更长的向量,是遗忘门的偏置项, 是sigmoid函数如果输入的 维度是,隐藏层的维度是,单元状态的维度是(通常),则遗忘门的权重矩阵维度是事实上,权重矩阵 都是两个矩阵拼接而成的:一个是,它对应着输入项,其维度为;一个是,它对应着输入项,其维度为可 以写为: 下图显示了遗忘门的计算: 接下来看看输入门: 上式中,是输入门的权重矩阵,是输入门的偏置项。

      下图表示了输入门的计算: 接下来,我们计算用于描述当前输入的单元状态,它是根据上一次的输出和本次输入来计算的: 下图是的计算: 式 式 式 现在,我们计算当前时刻的单元状态它是由上一次的单元状态按元素乘以遗忘门,再用当前输入的单元状态按元素乘以输入门 ,再将两个积加和产生的: 符号 表示按元素乘下图是的计算: 这样,我们就把LSTM关于当前的记忆和长期的记忆组合在一起,形成了新的单元状态由于遗忘门的控制,它可以保存很久很久之 前的信息,由于输入门的控制,它又可以避免当前无关紧要的内容进入记忆下面,我们要看看输出门,它控制了长期记忆对当前输出的影 响: 下图表示输出门的计算: LSTM最终的输出,是由输出门和单元状态共同确定的: 下图表示LSTM最终输出的计算: 式 式 式 式1到式6就是LSTM前向计算的全部公式至此,我们就把LSTM前向计算讲完了 长短时记忆网络的训练 熟悉我们这个系列文章的同学都清楚,训练部分往往比前向计算部分复杂多了LSTM的前向计算都这么复杂,那么,可想而知,它的训练算 法一定是非常非常复杂的现在只有做几次深呼吸,再一头扎进公式海洋吧 LSTM训练算法框架 LSTM的训练算法仍然是反向传播算法,对于这个算法,我们已经非常熟悉了。

      主要有下面三个步骤: 1. 前向计算每个神经元的输出值,对于LSTM来说,即 、 、、、五个向量的值计算方法已经在上一节中描述过了 2. 反向计算每个神经元的误差项 值与循环神经网络一样,LSTM误差项的反向传播也是包括两个方向:一个是沿时间的反向传播,即从 当前t时刻开始,计算每个时刻的误差项;一个是将误差项向上一层传播 3. 根据相应的误差项,计算每个权重的梯度 关于公式和符号的说明 首先,我们对推导中用到的一些公式、符号做一下必要的说明 接下来的推导中,我们设定gate的激活函数为sigmoid函数,输出的激活函数为tanh函数他们的导数分别为: 从上面可以看出,sigmoid和tanh函数的导数都是原函数的函数这样,我们一旦计算原函数的值,就可以用它来计算出导数的值 LSTM需要学习的参数共有8组,分别是:遗忘门的权重矩阵和偏置项、输入门的权重矩阵和偏置项、输出门的权重矩阵和偏置 项,以及计算单元状态的权重矩阵和偏置项因为权重矩阵的两部分在反向传播中使用不同的公式,因此在后续的推导中,权重矩阵 、、、都将被写为分开的两个矩阵:、、、、、、、 我们解释一下按元素乘 符号当 作用于两个向量时,运算如下: 当 作用于一个向量和一个矩阵时,运算如下: 当 作用于两个矩阵时,两个矩阵对应位置的元素相乘。

      按元素乘可以在某些情况下简化矩阵和向量运算例如,当一个对角矩阵右乘一个 矩阵时,相当于用对角矩阵的对角线组成的向量按元素乘那个矩阵: 当一个行向量右乘一个对角矩阵时,相当于这个行向量按元素乘那个矩阵对角线组成的向量: 上面这两点,在我们后续推导中会多次用到 在t时刻,LSTM的输出值为我们定义t时刻的误差项为: 注意,和前面几篇文章不同,我们这里假设误差项是损失函数对输出值的导数,而不是对加权输入的导数因为LSTM有四个加权输入, 分别对应 、 、、,我们希望往上一层传递一个误差项而不是四个但我们仍然需要定义出这四个加权输入,以及他们对应的误差项 误差项沿时间的反向传递 沿时间反向传递误差项,就是要计算出t-1时刻的误差项 我们知道,是一个Jacobian矩阵如果隐藏层h的维度是N的话,那么它就是一个矩阵为了求出它,我们列出的计算公式,即 前面的式6和式4: 显然,、 、 、都是的函数,那么,利用全导数公式可得: 下面,我们要把式7中的每个偏导数都求出来根据式6,我们可以求出: 根据式4,我们可以求出: 因为: 式 我们很容易得出: 将上述偏导数带入到式7,我们得到: 根据、、、的定义,可知: 式8到式12就是将误差沿时间反向传播一个时刻的公式。

      有了它,我们可以写出将误差项向前传递到任意k时刻的公式: 将误差项传递到上一层 我们假设当前为第l层,定义l-1层的误差项是误差函数对l-1层加权输入的导数,即: 本次LSTM的输入由下面的公式计算: 上式中,表示第l-1层的激活函数 因为、、、都是的函数,又是的函数,因此,要求出E对的导数,就需要使用全导数公式: 式14就是将误差传递到上一层的公式 权重梯度的计算 对于、、、的权重梯度,我们知道它的梯度是各个时刻梯度之和(证明过程请参考文章零基础入门深度学习(5) - 循环神经 网络),我们首先求出它们在t时刻的梯度,然后再求出他们最终的梯度 式 式 式 式 式 式 式 我们已经求得了误差项、、、,很容易求出t时刻的、的、的、的: 将各个时刻的梯度加在一起,就能得到最终的梯度: 对于偏置项、、、的梯度,也是将各个时刻的梯度加在一起下面是各个时刻的偏置项梯度: 下面是最终的偏置项梯度,即将各个时刻的偏置项梯度加在一起: 对于、、、的权重梯度,只需要根据相应的误差项直接计算即可: 以上就是LSTM的训练算法的全部公式因为这里面存在很多重复的模式,仔细看看,会发觉并不是太复杂 当然,LSTM存在着相当多的变体,读者可以在互联网上找到很多资料。

      因为大家已经熟悉了基本LSTM的算法,因此理解这些变体比较容易, 因此本文就不再赘述了 长短时记忆网络的实现 在下面的实现中,LSTMLayer的参数包括输入维度、输出维度、隐藏层维度,单元状态维度等于隐藏层维度gate的激活函数为sigmoid函 数,输出的激活函数为tanh 激活函数的实现 我们先实现两个激活函数:sigmoid和tanh 1 . c l a s s S 。

      点击阅读更多内容
      相关文档
      Unit2 Health and Fitness语法课件-(高教版2023·基础模块2).pptx 九年级数学提升精品讲义 用配方法求解一元二次方程(原卷版).docx 九年级数学提升精品讲义 一元二次方程的根与系数的关系(解析版).docx 2025学年九年级化学优学讲练(人教版) 化学实验与科学探究(解析版).docx 九年级数学提升精品讲义 一元一次不等式与一元一次不等式组(原卷版).docx 九年级数学提升精品讲义 因式分解(解析版).docx 九年级数学提升精品讲义 相似三角形的性质(原卷版).docx 2025年 初中七年级数学 相交线与平行线 知识突破速记与巧练(原卷版).docx 九年级数学提升精品讲义 中点模型之斜边中线、中点四边形(解析版).docx 2025学年九年级化学优学讲练(人教版) 分子和原子(解析版).docx 九年级数学提升精品讲义 正方形的性质(原卷版).docx 九年级数学提升精品讲义 用因式分解法求解一元二次方程(解析版).docx 2025年 初中七年级数学 实数 知识突破速记与巧练(原卷版).docx 九年级数学提升精品讲义 应用一元二次方程(原卷版) (2).docx 2025年 初中七年级数学 相交线与平行线 压轴专练速记与巧练(解析版).docx 九年级数学提升精品讲义 用公式法求解一元二次方程(解析版).docx 2025学年九年级化学优学讲练(人教版) 化学方程式的书写(原卷版).docx 九年级数学提升精品讲义 应用一元二次方程(解析版) (2).docx 2025年 初中七年级数学 数据的收集、整理与描述 综合测试速记与巧练(解析版).docx 九年级数学提升精品讲义 中点模型之斜边中线、中点四边形(原卷版).docx
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.