好文档就是一把金锄头!
欢迎来到金锄头文库![会员中心]
电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本

稀疏自动编码器学习笔记ppt课件.ppt

26页
  • 卖家[上传人]:pu****.1
  • 文档编号:577276429
  • 上传时间:2024-08-21
  • 文档格式:PPT
  • 文档大小:1MB
  • / 26 举报 版权申诉 马上下载
  • 文本预览
  • 下载提示
  • 常见问题
    • Sparse AutoencoderSparse Autoencoder 稀疏自动编码器稀疏自动编码器 杨明洋,王鹏宇杨明洋,王鹏宇 目录目录l自动编码器l神经网络中的损失函数以及残差l稀疏自动编码器l程序实现l附录 AutoencoderAutoencoderl在讲稀疏自动编码器之前,我们先看看自动编码器 自动编码器,非监督 模式识别,要求得到 的输出近似于原始输 入,提取其主要特征 AutoencoderAutoencoder如果我们输入一张10*10的图像,这样就有100个像素,所以输入层和输出层的节点数量就是100。

      而我们取隐藏层节点数量为25这样就会迫使隐藏层节点学习得到输入数据的压缩表示方法,逼得隐藏层要用25维数据重构出100维的数据这样也就完成了学习过程 神经网络的损失函数和神经网络的损失函数和残残差差定义: 为第L层第j个单元的节点激活量 为第L层的节点数目具体表达式:其中f(x)函数为sigmoid函数或则为tanh(x)函数当L=1时, 为输入,即 神经网络的损失函数和神经网络的损失函数和残残差差定义: 为第L层节点j激活量的输入具体表达式: = 最终的表达式就用 , ,以及偏置 表示 神经网络的损失函数和神经网络的损失函数和残残差差在逆向算法更新权值时,假设有一共m个训练集定义:J(w,b)为损失函数,其中第一项称为平均平方和误差,第二项为调整项第二项是为了减少权值的量级以及防止过度拟合 神经网络的损失函数和神经网络的损失函数和残残差差为了使J(w,b)这个包含W和b的函数最小化(误差最小),我们使用梯度下降法来进行求解 神经网络的损失函数和神经网络的损失函数和残残差差梯度下降法,基于这样的观察:如果实值函数F(x) 在点a处可微且有定义,那么函数 F(x)在 a点沿着梯度相反的方向 下降最快。

      如果 对于γ>0 为一个够小数值时成立,那么 F(a)> F(b)考虑到这一点,我们可以从函数 F 的局部极小值的初始估计x0 出发,并考虑如下序列 x1,x2,x3......使得因此可得到F(x0)>F(x1)>F(x2)>.....最终收敛. 神经网络的损失函数和神经网络的损失函数和残残差差对于每一次迭代其中 神经网络的损失函数和神经网络的损失函数和残残差差定义: 为第L层的第i个节点对最终输出值的残差贡献值,称之为残差计算方法:1.计算前向过程中的节点激活量2.计算最终层的残差, 此时 为输出 神经网络的损失函数和神经网络的损失函数和残残差差3.根据上面的算式,让这个式子可以这么理解,对比最终层的节点误差,当 括弧里的算子实际上是逆向算法,是最终层的残差与权重的乘积和即上图中的这个节点产生的总残差.证明. 神经网络的损失函数和神经网络的损失函数和残残差差4.通过梯度下降法,求得证明 神经网络的损失函数和神经网络的损失函数和残残差差获得损失函数及其偏导数之后,便可以采用梯度下降法求网络最优化的参数,整个流程如下: Sparse Autoencoder自动编码器中当隐层节点数过少,隐层节点则需要对原始输入进行压缩,当输入为随机高斯序列的时候,对原始输入提取特征则会变得困难。

      如果隐藏层节点数量很大,甚至比输入层节点数量还要多时,我们仍然可以使用自编码算法,但是这时需要加入 稀疏性限制 这就是稀疏自编码器核心思想:将隐层进行约束,使其变得稀疏 Sparse Autoencoder定义: 为隐含层节点j的平均激活量(也有的翻译为平均输出值),也就是对应m个不同训练集的平均激活量具体表达式:因为我们要让隐含层约束为稀疏的,那么当大多数的 接近于0时(0.05),大多数隐含节点变为非激活状态,整个隐含层变为稀疏具体表现就是sigmoid函数的输出大多数状态是0,tanh函数的输出大多数状态是-1这样有什么好处?这样能够迫使隐藏神经元发挥最大的潜力,在很不利的条件下学习到真正的特征 Sparse Autoencoder为了迫使 是接近于0,引入一个额外项KL divergence(相对熵)来惩罚 偏离 的情况 这里给定了 为0.2,实际 我们需要 为更小的值 当 为0.2时整个KL为0. Sparse Autoencoder于是损失函数就变为同时,残差也相对应更新为再优化网络参数,得到训练好的稀疏自动编码器 sigmoid函数函数与与tanh(x)函数函数 sigmoid函数 tanh函数 残差的证明残差的证明1 返回 残差证明残差证明2 返回 最终推论最终推论 最终推论最终推论 最终推论最终推论 最终推论最终推论 反向算法反向算法 返回 。

      点击阅读更多内容
      关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
      手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
      ©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.