
bp神经网络算法83889.doc
9页BP神经网络算法三层BP神经网络如图:目标输出向量传递函数输出层,输出向量输入层,输入向量隐含层,隐含层输出向量权值为传递函数设网络的输入模式为,隐含层有h个单元,隐含层的输出为,输出层有m个单元,他们的输出为,目标输出为设隐含层到输出层的传递函数为,输出层的传递函数为g于是::隐含层第j个神经元的输出;其中:输出层第k个神经元的输出此时网络输出与目标输出的误差为,显然,它是的函数下面的步骤就是想办法调整权值,使减小由高等数学的知识知道:负梯度方向是函数值减小最快的方向因此,可以设定一个步长,每次沿负梯度方向调整个单位,即每次权值的调整为:精品.,在神经网络中称为学习速率可以证明:按这个方法调整,误差会逐渐减小BP神经网络(反向传播)的调整顺序为:1)先调整隐含层到输出层的权值设为输出层第k个神经元的输入-------复合函数偏导公式若取,则于是隐含层到输出层的权值调整迭代公式为:2)从输入层到隐含层的权值调整迭代公式为:其中为隐含层第j个神经元的输入:注意:隐含层第j个神经元与输出层的各个神经元都有连接,即涉及所有的权值,因此于是:因此从输入层到隐含层的权值调整迭代为公式为:精品.例:下表给出了某地区公路运力的历史统计数据,请建立相应的预测模型,并对给出的2010和2011年的数据,预测相应的公路客运量和货运量。
时间人数(单位:万人)机动车数(单位:万辆)公路面积(单位:万平方公里)公路客运量(单位:万人)公路货运量(单位:万吨)199020.550.60.0951261237199122.440.750.1162171379199225.370.850.1177301385199327.130.90.1491451399199429.451.050.2104601663199530.11.350.23113871714199630.961.450.23123531834199734.061.60.32157504322199836.421.70.32183048132199938.091.850.34198368936200039.132.150.362102411099200139.992.20.361949011203200241.932.250.382043310524200344.592.350.492259811115200447.32.50.562510713320200552.892.60.593344216762200655.732.70.593683618673200756.762.850.674054820724200859.172.950.694292720803200960.633.10.794346221804201073.39003.96350.9880201175.55004.09751.0268function main()clc % 清屏clear all; %清除内存以便加快运算速度close all; %关闭当前所有figure图像SamNum=20; %输入样本数量为20TestSamNum=20; %测试样本数量也是20ForcastSamNum=2; %预测样本数量为2HiddenUnitNum=8; %中间层隐节点数量取8,比工具箱程序多了1个InDim=3; %网络输入维度为3OutDim=2; %网络输出维度为2%原始数据 %人数(单位:万人)sqrs=[20.55 22.44 25.37 27.13 29.45 30.10 30.96 34.06 36.42 38.09 39.13 39.99 ... 41.93 44.59 47.30 52.89 55.73 56.76 59.17 60.63];精品.%机动车数(单位:万辆)sqjdcs=[0.6 0.75 0.85 0.9 1.05 1.35 1.45 1.6 1.7 1.85 2.15 2.2 2.25 2.35 2.5 2.6... 2.7 2.85 2.95 3.1];%公路面积(单位:万平方公里)sqglmj=[0.09 0.11 0.11 0.14 0.20 0.23 0.23 0.32 0.32 0.34 0.36 0.36 0.38 0.49 ... 0.56 0.59 0.59 0.67 0.69 0.79];%公路客运量(单位:万人)glkyl=[5126 6217 7730 9145 10460 11387 12353 15750 18304 19836 21024 19490 20433 ... 22598 25107 33442 36836 40548 42927 43462];%公路货运量(单位:万吨)glhyl=[1237 1379 1385 1399 1663 1714 1834 4322 8132 8936 11099 11203 10524 11115 ... 13320 16762 18673 20724 20803 21804];p=[sqrs;sqjdcs;sqglmj]; %输入数据矩阵t=[glkyl;glhyl]; %目标数据矩阵[SamIn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始样本对(输入和输出)初始化rand('state',sum(100*clock)) %依据系统时钟种子产生随机数 rand是产生0到1的均匀分布,randn是产生均值为0,方差为1的正态分布 rand(n)或randn(n)产生n*n阶矩阵,rand(m,n)或randn(n)产生m*n的随机数矩阵 NoiseVar=0.01; %噪声强度为0.01(添加噪声的目的是为了防止网络过度拟合)Noise=NoiseVar*randn(2,SamNum); %生成噪声SamOut=tn + Noise; %将噪声添加到输出样本上TestSamIn=SamIn; %这里取输入样本与测试样本相同因为样本容量偏少TestSamOut=SamOut; %也取输出样本与测试样本相同MaxEpochs=50000; %最多训练次数为50000lr=0.035; %学习速率为0.035E0=0.65*10^(-3); %目标误差为0.65*10^(-3)W1=0.5*rand(HiddenUnitNum,InDim)-0.1; %初始化输入层与隐含层之间的权值B1=0.5*rand(HiddenUnitNum,1)-0.1; %初始化输入层与隐含层之间的阈值W2=0.5*rand(OutDim,HiddenUnitNum)-0.1; %初始化输出层与隐含层之间的权值 B2=0.5*rand(OutDim,1)-0.1; %初始化输出层与隐含层之间的阈值ErrHistory=[]; %给中间变量预先占据内存for i=1:MaxEpochs HiddenOut=logsig(W1*SamIn+repmat(B1,1,SamNum)); % 隐含层网络输出 NetworkOut=W2*HiddenOut+repmat(B2,1,SamNum); % 输出层网络输出 Error=SamOut-NetworkOut; % 实际输出与网络输出之差精品. SSE=sumsqr(Error) %能量函数(误差平方和) ErrHistory=[ErrHistory SSE]; if SSE
