电子文档交易市场
安卓APP | ios版本
电子文档交易市场
安卓APP | ios版本
换一换
首页 金锄头文库 > 资源分类 > DOCX文档下载
分享到微信 分享到微博 分享到QQ空间

常见26种深度学习模型的实现

  • 资源ID:145715446       资源大小:1.04MB        全文页数:30页
  • 资源格式: DOCX        下载积分:5金贝
快捷下载 游客一键下载
账号登录下载
微信登录下载
三方登录下载: 微信开放平台登录   支付宝登录   QQ登录  
二维码
微信扫一扫登录
下载资源需要5金贝
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
如填写123,账号就是123,密码也是123。
支付方式: 支付宝    微信支付   
验证码:   换一换

 
账号:
密码:
验证码:   换一换
  忘记密码?
    
1、金锄头文库是“C2C”交易模式,即卖家上传的文档直接由买家下载,本站只是中间服务平台,本站所有文档下载所得的收益全部归上传人(卖家)所有,作为网络服务商,若您的权利被侵害请及时联系右侧客服;
2、如你看到网页展示的文档有jinchutou.com水印,是因预览和防盗链等技术需要对部份页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有jinchutou.com水印标识,下载后原文更清晰;
3、所有的PPT和DOC文档都被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;下载前须认真查看,确认无误后再购买;
4、文档大部份都是可以预览的,金锄头文库作为内容存储提供商,无法对各卖家所售文档的真实性、完整性、准确性以及专业性等问题提供审核和保证,请慎重购买;
5、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据;
6、如果您还有什么不清楚的或需要我们协助,可以点击右侧栏的客服。
下载须知 | 常见问题汇总

常见26种深度学习模型的实现

本文首先从4个方面(张量、生成模型、序列学习、深度强化学习)追踪深度学习几十年的发展史,然后再介绍主流的26个深度学习模型。1.深度学习发展史深度学习的发展史主要是我几个月前看的唐杰老师的学生整理的一个博文,现在找不到博文了。凭借记录加上我的理解,简单写一写吧。如果还有人知道这个博文,欢迎告知,我把链接放上来,供大家更好的学习。主要按最早研究出现的时间,从4个方面来追踪深度学习的发展史。1.1 张量1958年Frank提出感知机,但后来被一些学者发现因算力的不足,制约了较大神经网络的计算,导致很长时间发展缓慢。Fukushima在1979年左右提出Neocognitron,感觉这是卷积和池化的雏形。Hinton在1986年提出反向传播的思想和多层感知机(BPNN/MLP),有非常大的意义,对未来几十年(可以说直到现在)影响深远。接下来比较重要的发展是,LeCun在1998年提出LeNet-5,7层的CNN做数字识别。然后AlexNet在12年在ImageNet夺冠,主要是CNN+Dropout+Relu,又是Hinton极大的带动了DL的发展,大佬的地位毋庸置疑。另外相似的还有15年的GoogLeNet。总算有华人大佬作出大贡献了,16年何恺明(CV领域应该无人不知)提出Resnet,还拿了best paper,影响较大,当然效果也很好。另外相似的还有17年的DenseNet。17年Capsule Network登场了,又是Hinton。我比较看好胶囊网络在NLP领域的发展,虽然现在还没太明显的效果。因为用胶囊网络来做文本的特征表示的话,可以极大的丰富特征,更适合处理文本这种比较灵活的数据。1.2 生成模型上世纪80年代提出RBM,06年叠加成Deep Belief Network(DBN),这算是重新叠加网络的一个比较重要的开始吧。上世纪80年代Hinton提出Auto-Encode,过了较长时间Bengio在08年提出Denoise Auto-Encode。Welling在13年提出Variational Auto-Encode。接下来,在14年Goodfellow和Bengio等提出GAN,从此生成网络不仅是AE以及其变种(Denoise Auto-Encode、Variational Auto-Encode等)了,可以这么说:GAN的出现极大的提高了生成模型的地位和热点,GAN也是席卷NLP、CV、AI等领域的各大顶会,甚至是一些best paper。另外,陆续出现很多很多GAN的变种,比如DCGAN、CGAN、PGGAN、LAPGAN、InfoGAN、WGAN、F-GAN、SeqGAN、LeakGAN等。1.3 序列学习1982年提出hopfield network,1997年 Schmidhuber提出LSTM。Hinton组在13年把RNN用在语音识别上取得巨大突破,RNN立马爆火。03年提出LM(语言模型),13年提出w2v,佩服Bengio,这也是我为啥千里迢迢跑去找Bengio合影的原因之一。w2v带来的影响不言而喻,目前NLP领域基本上所有Paper都会用到词向量,包括也影响了后面出现的Glove、FastText、ELMo(18年2月)、Transformer(18年6月)、Bert(18年10月提出,Jacob一战封神,我感觉至少是18年NLP领域最大的发展,甚至可以说是近几年最大的发展)等。Bert的出现,很可能改变所有主流NLP任务的打法和Baseline。还有一个分支,14年出现Seq2Seq,这个重要性也无需赘述了,NLP领域的都知道。然后15年出现Charater CNN,17年出现self-attention。1.4 深度强化学习提到强化学习就不得不提这Deep Mind、AlphaGo以及其变种、Silver。13年提出Deep Q-learning,15年提出Double DQN,16年提出Dueling Net。 15年的DDPG和16年的A3C都是NN+Policy Gradient,也应用在不少领域。16年的AlphaGo(除了AI领域,很多不懂AI的人都知道,甚至可以说是AI爆火的最大助力),17年出现更疯狂的Alpha Zero。2.深度学习模型2.1 Feed forward neural networks (FF or FFNN) and perceptrons (P)前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。算是一种监督学习。对应的paper。2.2 Radial basis function (RBF)径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。对应的paper。2.3 Hopfield network (HN)Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。对应的paper。2.4 Markov chains (MC or discrete time Markov Chain, DTMC)马尔可夫链 或离散时间马尔可夫链,算是BMs和HNs的雏形。对应的paper。2.5 Boltzmann machines (BM)玻尔兹曼机,和Hopfield网络很类似,但是:一些神经元作为输入神经元,剩余的是隐藏层。对应的paper。2.6 Restricted Boltzmann machines (RBM)受限玻尔兹曼机,和玻尔兹曼机以及Hopfield网络都比较类似。对应的paper。2.7 Autoencoders (AE)自动编码,和FFNN有些类似,它更像是FFNN的另一种用法,而不是本质上完全不同的另一种架构。对应的paper。2.8 Sparse autoencoders (SAE)稀疏自动编码,跟自动编码在某种程度比较相反。对应的paper。2.9 Variational autoencoders (VAE)变分自动编码,和AE架构相似,不同的是:输入样本的一个近似概率分布。这使得它跟BM、RBM更相近。对应的paper。2.10 Denoising autoencoders (DAE)去噪自动编码,也是一种自编码机,它不仅需要训练数据,还需要带噪音的训练数据。对应的paper。2.11 Deep belief networks (DBN深度信念网络,由多个受限玻尔兹曼机或变分自动编码堆砌而成。对应的paper。2.12 Convolutional neural networks (CNN or deep convolutional neural networks, DCNN)卷积神经网络,这个不解释也都知道。对应的paper。2.13 Deconvolutional networks (DN)去卷积网络,又叫逆图形网络,是一种逆向的卷积神经网络。对应的paper。2.14Deep convolutional inverse graphics networks (DCIGN)深度卷积逆向图网络,实际上是VAE,且分别用CNN、DNN来作编码和解码。对应的paper。2.15 Generative adversarial networks (GAN)生成对抗网络,Goodfellow的封神之作,这个模型不用解释也都知道。对应的paper。2.16 Recurrent neural networks (RNN)循环神经网络,这个更不用解释,做语音、NLP的没有人不知道,甚至非AI相关人员也知道。对应的paper。2.17 Long / short term memory (LSTM)长短期记忆网络,RNN的变种,解决梯度消失/爆炸的问题,也不用解释,这几年刷爆各大顶会。对应的paper。2.18 Gated recurrent units (GRU)门循环单元,类似LSTM的定位,算是LSTM的简化版。对应的paper。2.19 Neural Turing machines (NTM)神经图灵机,LSTM的抽象,以窥探LSTM的内部细节。具有读取、写入、修改状态的能力。对应的paper。2.20 Bidirectional recurrent neural networks, bidirectional long / short term memory networks and bidirectional gated recurrent units (BiRNN, BiLSTM and BiGRU respectively)双向循环神经网络、双向长短期记忆网络和双向门控循环单元,把RNN、双向的LSTM、GRU双向,不再只是从左到右,而是既有从左到右又有从右到左。对应的paper。2.21 Deep residual networks (DRN)深度残差网络,是非常深的FFNN,它可以把信息从某一层传至后面几层(通常2-5层)。对应的paper。2.22 Echo state networks (ESN)回声状态网络,是另一种不同类型的(循环)网络。对应的paper。2.23 Extreme learning machines (ELM)极限学习机,本质上是随机连接的FFNN。对应的paper。2.24 Liquid state machines (LSM)液态机,跟ESN类似,区别是用阈值激活函数取代了sigmoid激活函数。对应的paper。2.25 Support vector machines (SVM)支持向量机,入门机器学习的人都知道,不解释。对应的paper。2.26 Kohonen networks (KN, also self organising (feature) map, SOM, SOFM)Kohonen 网络,也称之为自组织(特征)映射。对应的paper。本文包括简介、练手项目和我的建议(建议最好看看这部分)。1.简介本篇是一文看懂深度学习发展史和常见26个模型的姐妹篇,建议先那篇再看本篇。2. 练手项目2.1 Feed forward neural networks (FF or FFNN) and perceptrons (P)前馈神经网络和感知机,信息从前(输入)往后(输出)流动,一般用反向传播(BP)来训练。算是一种监督学习。对应的代码danijar/layered;civisanalytics/muffnn。2.2 Radial basis function (RBF)径向基函数网络,是一种径向基函数作为激活函数的FFNNs(前馈神经网络)。对应的代码eugeniashurko/rbfnnpy。2.3 Hopfield network (HN)Hopfield网络,是一种每个神经元都跟其它神经元相连接的神经网络。对应的代码yosukekatada/Hopfield_network。2.4 Markov chains (MC or discrete time Markov Chain, DTMC)马尔可夫链 或离散时间马尔可夫链,算是BMs和HNs的雏形。对应的代码Markov chains:jsvine/markovify, DTMC:AndrewWalker/dtmc。2.5 Bol

注意事项

本文(常见26种深度学习模型的实现)为本站会员(一***)主动上传,金锄头文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即阅读金锄头文库的“版权提示”【网址:https://www.jinchutou.com/h-59.html】,按提示上传提交保证函及证明材料,经审查核实后我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




关于金锄头网 - 版权申诉 - 免责声明 - 诚邀英才 - 联系我们
手机版 | 川公网安备 51140202000112号 | 经营许可证(蜀ICP备13022795号)
©2008-2016 by Sichuan Goldhoe Inc. All Rights Reserved.