
人工神经元网络控制论PPT精选文档.ppt
153页《《《《智能控制基础智能控制基础智能控制基础智能控制基础》》》》 清华大学出版社清华大学出版社清华大学出版社清华大学出版社第第3章 人工神经元网络控制论章 人工神经元网络控制论3.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录23.1 引言引言v 人工神经网络就是模拟人脑细胞的分布式工作人工神经网络就是模拟人脑细胞的分布式工作人工神经网络就是模拟人脑细胞的分布式工作人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现特点和自组织功能,且能实现特点和自组织功能,且能实现特点和自组织功能,且能实现并行处理并行处理并行处理并行处理、、、、自学习自学习自学习自学习和和和和非线性映射非线性映射非线性映射非线性映射等能力的一种系统模型。
等能力的一种系统模型等能力的一种系统模型等能力的一种系统模型 3发展历史发展历史vv 1943 1943年,心理学家年,心理学家年,心理学家年,心理学家McCullochMcCulloch和数学家和数学家和数学家和数学家PittsPitts合作提出形式合作提出形式合作提出形式合作提出形式神经元数学模型神经元数学模型神经元数学模型神经元数学模型(MP)(MP),揭开了神经科学理论的新时代揭开了神经科学理论的新时代揭开了神经科学理论的新时代揭开了神经科学理论的新时代vv 1944 1944年年年年HebbHebb提出了改变神经元连接强度的提出了改变神经元连接强度的提出了改变神经元连接强度的提出了改变神经元连接强度的HebbHebb规则vv 1957 1957年年年年RosenblattRosenblatt首次引进了感知器概念首次引进了感知器概念首次引进了感知器概念首次引进了感知器概念(Perceptron)(Perceptron)vv 1976 1976年,年,年,年,GrossbergGrossberg提出了自适应共振理论提出了自适应共振理论提出了自适应共振理论提出了自适应共振理论vv 1982 1982年,美国加州工学院物理学家年,美国加州工学院物理学家年,美国加州工学院物理学家年,美国加州工学院物理学家HopfieldHopfield提出了提出了提出了提出了HNNHNN模型,他引入了模型,他引入了模型,他引入了模型,他引入了“ “计算能量函数计算能量函数计算能量函数计算能量函数” ”的概念,给出了网络的概念,给出了网络的概念,给出了网络的概念,给出了网络的稳定性判据。
的稳定性判据的稳定性判据的稳定性判据vv 1986 1986年,年,年,年,RumelhartRumelhart等等等等PDPPDP研究小组提出了多层前向传播研究小组提出了多层前向传播研究小组提出了多层前向传播研究小组提出了多层前向传播网络的网络的网络的网络的BPBP学习算法学习算法学习算法学习算法4主要内容主要内容53.1.1 3.1.1 神经元模型神经元模型神经元模型神经元模型3.1.2 3.1.2 神经网络的模型分类神经网络的模型分类神经网络的模型分类神经网络的模型分类3.1.3 3.1.3 神经网络的学习算法神经网络的学习算法神经网络的学习算法神经网络的学习算法 3.1.4 3.1.4 神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力 3.1 引言引言63.1.1 神经元模型神经元模型 v 神经元模型是生物神经元的抽象和模拟可看神经元模型是生物神经元的抽象和模拟可看神经元模型是生物神经元的抽象和模拟可看神经元模型是生物神经元的抽象和模拟可看作多输入作多输入作多输入作多输入/ /单输出的非线性器件单输出的非线性器件单输出的非线性器件单输出的非线性器件 。
x xi i 输入信号,输入信号,输入信号,输入信号,j=1,2,…,n; j=1,2,…,n; w wij ij 表示从单元表示从单元表示从单元表示从单元u uj j 到单元到单元到单元到单元u ui i 的的的的 连接权值连接权值连接权值连接权值; ;s si i 外部输入信号;外部输入信号;外部输入信号;外部输入信号;u ui i 神经元的内部状态;神经元的内部状态;神经元的内部状态;神经元的内部状态;θ θi i 阈值;阈值;阈值;阈值; y yi i 神经元的输出信号;神经元的输出信号;神经元的输出信号;神经元的输出信号;v 通常假设通常假设通常假设通常假设y yi i=f(Net=f(Neti i) ),而,而,而,而激励函数激励函数激励函数激励函数f f有有有有4 4种类型7激励函数类型激励函数类型v 阈值型阈值型阈值型阈值型 v 分段线性型分段线性型分段线性型分段线性型8激励函数类型激励函数类型v Sigmoid Sigmoid 函数型函数型函数型函数型v Tan Tan函数型函数型函数型函数型 93.1.1 3.1.1 神经元模型神经元模型神经元模型神经元模型3.1.2 3.1.2 神经网络的模型分类神经网络的模型分类神经网络的模型分类神经网络的模型分类3.1.3 3.1.3 神经网络的学习算法神经网络的学习算法神经网络的学习算法神经网络的学习算法 3.1.4 3.1.4 神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力 3.1 引言引言103.1.2 神经网络的模型分类神经网络的模型分类前向网络前向网络前向网络前向网络反馈网络反馈网络反馈网络反馈网络(c)(c)相互结合型网络相互结合型网络相互结合型网络相互结合型网络(d)(d)混合型网络混合型网络混合型网络混合型网络113.1.1 3.1.1 神经元模型神经元模型神经元模型神经元模型3.1.2 3.1.2 神经网络的模型分类神经网络的模型分类神经网络的模型分类神经网络的模型分类3.1.3 3.1.3 神经网络的学习算法神经网络的学习算法神经网络的学习算法神经网络的学习算法 3.1.4 3.1.4 神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力 3.1 引言引言123.1.3 神经网络的学习算法神经网络的学习算法 有导师学习有导师学习有导师学习有导师学习无导师学习无导师学习无导师学习无导师学习v 有导师学习:直接利用误差信息有导师学习:直接利用误差信息有导师学习:直接利用误差信息有导师学习:直接利用误差信息v 无导师学习:建立间接的评价函数无导师学习:建立间接的评价函数无导师学习:建立间接的评价函数无导师学习:建立间接的评价函数图图图图 按连接方式分类按连接方式分类按连接方式分类按连接方式分类13学习规则学习规则图图图图 按权系数的改变方式分类按权系数的改变方式分类按权系数的改变方式分类按权系数的改变方式分类14v 仅仅根据连接间的激活水平改变权系数。
它常仅仅根据连接间的激活水平改变权系数它常仅仅根据连接间的激活水平改变权系数它常仅仅根据连接间的激活水平改变权系数它常用于自联想网络用于自联想网络用于自联想网络用于自联想网络 v 最常见的学习算法是最常见的学习算法是最常见的学习算法是最常见的学习算法是HebbHebb规则规则规则规则若第i i个与第个与第个与第个与第j j个神经元同时处于兴奋状态,它们之间的连接个神经元同时处于兴奋状态,它们之间的连接个神经元同时处于兴奋状态,它们之间的连接个神经元同时处于兴奋状态,它们之间的连接应加强,即应加强,即应加强,即应加强,即 表示神经元表示神经元表示神经元表示神经元j j到神经元到神经元到神经元到神经元i i的连接权值,的连接权值,的连接权值,的连接权值,η η表示表示表示表示学习步长,学习步长,学习步长,学习步长,OOj j表示神经元表示神经元表示神经元表示神经元j j的输出,的输出,的输出,的输出,y yi i表示神经表示神经表示神经表示神经元元元元i i的输出v相关学习法相关学习法相关学习法相关学习法 t ti i表示期望输出值表示期望输出值表示期望输出值表示期望输出值相关学习相关学习15纠错学习纠错学习v 有导师学习方法有导师学习方法有导师学习方法有导师学习方法 ,依赖关于输出节点的外部反,依赖关于输出节点的外部反,依赖关于输出节点的外部反,依赖关于输出节点的外部反馈改变权系数。
它常用于感知器网络、多层前向馈改变权系数它常用于感知器网络、多层前向馈改变权系数它常用于感知器网络、多层前向馈改变权系数它常用于感知器网络、多层前向传播网络和传播网络和传播网络和传播网络和BoltzmannBoltzmann机网络其学习的方法是机网络其学习的方法是机网络其学习的方法是机网络其学习的方法是梯度下降法梯度下降法梯度下降法梯度下降法 v 最常见的学习算法有最常见的学习算法有最常见的学习算法有最常见的学习算法有δ δ规则、模拟退火学习规则规则、模拟退火学习规则规则、模拟退火学习规则规则、模拟退火学习规则 v DeltaDelta规则规则规则规则定义指标函数定义指标函数定义指标函数定义指标函数 连接权阵的更新规则为连接权阵的更新规则为连接权阵的更新规则为连接权阵的更新规则为16无导师学习无导师学习v 学习表现为自适应实现输入空间的检测规则学习表现为自适应实现输入空间的检测规则学习表现为自适应实现输入空间的检测规则学习表现为自适应实现输入空间的检测规则它常用于它常用于它常用于它常用于ARTART、、、、KohonenKohonen自组织网络。
自组织网络自组织网络自组织网络 v 在这类学习规则中在这类学习规则中在这类学习规则中在这类学习规则中, ,关键不在于实际节点的输出关键不在于实际节点的输出关键不在于实际节点的输出关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参数怎样与外部的期望输出相一致,而在于调整参数怎样与外部的期望输出相一致,而在于调整参数怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布以反映观察事件的分布以反映观察事件的分布以反映观察事件的分布 v 例如例如例如例如Winner-Take-All Winner-Take-All 学习规则学习规则学习规则学习规则 基本思想是,基本思想是,基本思想是,基本思想是,假设输出层有假设输出层有假设输出层有假设输出层有n no o个输出神经元,且当输入为个输出神经元,且当输入为个输出神经元,且当输入为个输出神经元,且当输入为x x时,时,时,时,第第第第mm个神经元的输出值最大,则称此神经元为胜个神经元的输出值最大,则称此神经元为胜个神经元的输出值最大,则称此神经元为胜个神经元的输出值最大,则称此神经元为胜者,并将与此胜者神经元相连的权系数进行更新。
者,并将与此胜者神经元相连的权系数进行更新者,并将与此胜者神经元相连的权系数进行更新者,并将与此胜者神经元相连的权系数进行更新其更新公式为其更新公式为其更新公式为其更新公式为173.1.1 3.1.1 神经元模型神经元模型神经元模型神经元模型3.1.2 3.1.2 神经网络的模型分类神经网络的模型分类神经网络的模型分类神经网络的模型分类3.1.3 3.1.3 神经网络的学习算法神经网络的学习算法神经网络的学习算法神经网络的学习算法 3.1.4 3.1.4 神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力神经网络的泛化能力 3.1 引言引言183.1.4 神经网络的泛化能力神经网络的泛化能力 v 当输入矢量与样本输入矢量存在差异时,其神当输入矢量与样本输入矢量存在差异时,其神当输入矢量与样本输入矢量存在差异时,其神当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出经网络的输出同样能够准确地呈现出应有的输出经网络的输出同样能够准确地呈现出应有的输出经网络的输出同样能够准确地呈现出应有的输出这种能力就称为神经网络的泛化能力这种能力就称为神经网络的泛化能力。
这种能力就称为神经网络的泛化能力这种能力就称为神经网络的泛化能力v 在有导师指导下的学习中,泛化能力可以定义在有导师指导下的学习中,泛化能力可以定义在有导师指导下的学习中,泛化能力可以定义在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差为训练误差和测试误差之差为训练误差和测试误差之差为训练误差和测试误差之差 v 与输入矢量的个数、网络的节点数、权值和训与输入矢量的个数、网络的节点数、权值和训与输入矢量的个数、网络的节点数、权值和训与输入矢量的个数、网络的节点数、权值和训练样本集数目之间存在密切的关系练样本集数目之间存在密切的关系练样本集数目之间存在密切的关系练样本集数目之间存在密切的关系 193.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录203.2.1 3.2.1 网络结构网络结构网络结构网络结构 3.2.2 3.2.2 多层传播网络的多层传播网络的多层传播网络的多层传播网络的BPBP学习算法学习算法学习算法学习算法3.2.3 3.2.3 快速的快速的快速的快速的BPBP改进算法改进算法改进算法改进算法3.2 前向神经网络模型前向神经网络模型213.2.1 网络结构网络结构 单一神经元12322单一神经元单一神经元 w w0 0 为阈值,为阈值,为阈值,为阈值, w wj j 决定第决定第决定第决定第j j个输入的突触权系数。
个输入的突触权系数个输入的突触权系数个输入的突触权系数23单层神经网络结构单层神经网络结构 x x0 0=1=1阈值未画出阈值未画出阈值未画出阈值未画出24多层神经网络结构多层神经网络结构 v 以单隐含层网络为例:以单隐含层网络为例:以单隐含层网络为例:以单隐含层网络为例:OOj j为隐含层的激励为隐含层的激励为隐含层的激励为隐含层的激励253.2.1 3.2.1 网络结构网络结构网络结构网络结构 3.2.2 3.2.2 多层传播网络的多层传播网络的多层传播网络的多层传播网络的BPBP学习算法学习算法学习算法学习算法3.2.3 3.2.3 快速的快速的快速的快速的BPBP改进算法改进算法改进算法改进算法3.2 前向神经网络模型前向神经网络模型263.2.2 多层传播网络的多层传播网络的BP学习算法学习算法v 有导师学习的基本思想有导师学习的基本思想有导师学习的基本思想有导师学习的基本思想v 单层网络的学习算法单层网络的学习算法单层网络的学习算法单层网络的学习算法v 多层前向网络学习算法多层前向网络学习算法多层前向网络学习算法多层前向网络学习算法27v 性能指标为性能指标为 φ(·)是一个正定的、可微的凸函数是一个正定的、可微的凸函数 ,常取,常取 1. 有导师学习的基本思想有导师学习的基本思想 v 神经网络可以通过对合适样本集来进行训练。
神经网络可以通过对合适样本集来进行训练网络的训练实质上是根据对所有样本的误差网络的训练实质上是根据对所有样本的误差指标指标Ep达到极小的方法来实现突触权阵的调达到极小的方法来实现突触权阵的调整,以满足当输入为整,以满足当输入为Xp时其输出为时其输出为Tp 28v 激励函数为线性函数时,可通过最小二乘法来激励函数为线性函数时,可通过最小二乘法来激励函数为线性函数时,可通过最小二乘法来激励函数为线性函数时,可通过最小二乘法来 学习 v 激励函数为非线性函数时,可采用激励函数为非线性函数时,可采用激励函数为非线性函数时,可采用激励函数为非线性函数时,可采用DeltaDelta规则,规则,规则,规则,即梯度法,有即梯度法,有即梯度法,有即梯度法,有2. 单层网络的学习算法单层网络的学习算法 α α是学习因子是学习因子是学习因子是学习因子 293. 多层前向网络的学习算法多层前向网络的学习算法v 网络模型网络模型网络模型网络模型n n 第第第第1 1个隐含层:个隐含层:个隐含层:个隐含层: n n 第第第第r r++++1 1个隐含层:个隐含层:个隐含层:个隐含层:n n 输出层输出层输出层输出层30v 采用梯度法:采用梯度法:采用梯度法:采用梯度法:v 其中:其中:其中:其中:v 定义广义误差定义广义误差定义广义误差定义广义误差 ::::v 可得:可得:可得:可得:BP学习算法学习算法第第第第r r层的第层的第层的第层的第j j个神经元个神经元个神经元个神经元31v 输出层时,有:输出层时,有:输出层时,有:输出层时,有:v 隐含层时,有:隐含层时,有:隐含层时,有:隐含层时,有:反向误差传播反向误差传播32v 假设对于输入假设对于输入假设对于输入假设对于输入 期望的输出期望的输出期望的输出期望的输出网络权系数的初始值见图。
试用网络权系数的初始值见图试用网络权系数的初始值见图试用网络权系数的初始值见图试用BPBP算法训练此网算法训练此网算法训练此网算法训练此网络(只给出一步迭代学习过程)这里,取神经元络(只给出一步迭代学习过程)这里,取神经元络(只给出一步迭代学习过程)这里,取神经元络(只给出一步迭代学习过程)这里,取神经元激励函数:激励函数:激励函数:激励函数: ,学习步长为,学习步长为,学习步长为,学习步长为 例例3-1 33当前输出当前输出34计算广义误差计算广义误差 35连接权系数更新连接权系数更新 36学习流程学习流程37(1) 初始化初始化v 设置学习因子设置学习因子设置学习因子设置学习因子η>0η>0n n较大时,收敛快,但易振荡较大时,收敛快,但易振荡较大时,收敛快,但易振荡较大时,收敛快,但易振荡n n较小时,反之较小时,反之较小时,反之较小时,反之v 最大容许误差最大容许误差最大容许误差最大容许误差E Emaxmax用于判断学习是否结束用于判断学习是否结束。
用于判断学习是否结束用于判断学习是否结束v 随机赋网络初始权值随机赋网络初始权值随机赋网络初始权值随机赋网络初始权值一般选择比较小的随机数一般选择比较小的随机数一般选择比较小的随机数一般选择比较小的随机数 38v 增量型学习:保证最近样本的逼近精度,速度快增量型学习:保证最近样本的逼近精度,速度快增量型学习:保证最近样本的逼近精度,速度快增量型学习:保证最近样本的逼近精度,速度快v 累积型学习:累积型学习:累积型学习:累积型学习:保证所有样本的学习精度,速度慢保证所有样本的学习精度,速度慢保证所有样本的学习精度,速度慢保证所有样本的学习精度,速度慢2) 学习方式学习方式39v 激励函数如用激励函数如用激励函数如用激励函数如用SigmoidSigmoid函数,应增大斜率,减少函数,应增大斜率,减少函数,应增大斜率,减少函数,应增大斜率,减少饱和的情况,来提高训练速度饱和的情况,来提高训练速度饱和的情况,来提高训练速度饱和的情况,来提高训练速度v 调节学习因子:学习速率越大,收敛越快,但调节学习因子:学习速率越大,收敛越快,但调节学习因子:学习速率越大,收敛越快,但调节学习因子:学习速率越大,收敛越快,但容易产生振荡;而学习速率越小,收敛越慢。
容易产生振荡;而学习速率越小,收敛越慢容易产生振荡;而学习速率越小,收敛越慢容易产生振荡;而学习速率越小,收敛越慢v 增加增加增加增加MomentumMomentum项项项项 (3) 学习速率学习速率40v 目标函数:目标函数:目标函数:目标函数:例例3-2:非线性函数逼近非线性函数逼近41学习设置学习设置v 采用传统的采用传统的采用传统的采用传统的BPBP学习算法学习算法学习算法学习算法n n激励函数都为激励函数都为激励函数都为激励函数都为SigmoidSigmoid函数n n初始权系数阵由(初始权系数阵由(初始权系数阵由(初始权系数阵由(0 0,,,,1 1)之间的随机数组成之间的随机数组成之间的随机数组成之间的随机数组成n n学习步长学习步长学习步长学习步长 η η = 0.09= 0.09v 学习样本取学习样本取学习样本取学习样本取2020点,即:点,即:点,即:点,即: v 校验样本取校验样本取校验样本取校验样本取3030点,即:点,即:点,即:点,即:42两种两种MLP模型的学习效果模型的学习效果433.2.1 3.2.1 网络结构网络结构网络结构网络结构 3.2.2 3.2.2 多层传播网络的多层传播网络的多层传播网络的多层传播网络的BPBP学习算法学习算法学习算法学习算法3.2.3 3.2.3 快速的快速的快速的快速的BPBP改进算法改进算法改进算法改进算法3.2 前向神经网络模型前向神经网络模型44v Fahlman Fahlman在在在在19881988年首先提出年首先提出年首先提出年首先提出v 当问题满足以下条件时:当问题满足以下条件时:当问题满足以下条件时:当问题满足以下条件时:n n误差表面呈抛物面、极值点附近凹面向上;误差表面呈抛物面、极值点附近凹面向上;误差表面呈抛物面、极值点附近凹面向上;误差表面呈抛物面、极值点附近凹面向上;n n某一权系数的梯度变化与其它权系数变化无关。
某一权系数的梯度变化与其它权系数变化无关某一权系数的梯度变化与其它权系数变化无关某一权系数的梯度变化与其它权系数变化无关v 可采取如下的更新公式可采取如下的更新公式可采取如下的更新公式可采取如下的更新公式1. 快速快速BP算法算法452. 共轭梯度学习算法共轭梯度学习算法v 共轭梯度学习算法具有坚实的理论基础共轭梯度学习算法具有坚实的理论基础共轭梯度学习算法具有坚实的理论基础共轭梯度学习算法具有坚实的理论基础v 特点:使用特点:使用特点:使用特点:使用目标函数的目标函数的二阶导数信息,可以明二阶导数信息,可以明二阶导数信息,可以明二阶导数信息,可以明显改善优化算法的收敛速度显改善优化算法的收敛速度显改善优化算法的收敛速度显改善优化算法的收敛速度v 不计算不计算不计算不计算HessianHessian矩阵的逆,而是利用共轭梯度来矩阵的逆,而是利用共轭梯度来矩阵的逆,而是利用共轭梯度来矩阵的逆,而是利用共轭梯度来间接地构成间接地构成间接地构成间接地构成HessianHessian矩阵的逆矩阵值矩阵的逆矩阵值矩阵的逆矩阵值矩阵的逆矩阵值463.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录47动动态态神神经经网网络络带时滞的多层感知器网络带时滞的多层感知器网络带时滞的多层感知器网络带时滞的多层感知器网络 HopfieldHopfield网络网络网络网络 回归神经网络回归神经网络回归神经网络回归神经网络 3.3 动态神经网络模型动态神经网络模型483.3.1 带时滞的多层感知器网络带时滞的多层感知器网络v 有两种实现:有两种实现:有两种实现:有两种实现:n n无输出反馈无输出反馈无输出反馈无输出反馈 n n有输出反馈有输出反馈有输出反馈有输出反馈 49带时滞的多层感知器网络带时滞的多层感知器网络1 图图图图3-20 3-20 时滞神经网络结构时滞神经网络结构时滞神经网络结构时滞神经网络结构50带时滞的多层感知器网络带时滞的多层感知器网络2 图图图图3-21 3-21 带反馈时滞神经网络结构带反馈时滞神经网络结构带反馈时滞神经网络结构带反馈时滞神经网络结构513.3.2 Hopfield神经网络神经网络 v 具有相互连接的反馈型神经网络模型具有相互连接的反馈型神经网络模型具有相互连接的反馈型神经网络模型具有相互连接的反馈型神经网络模型 v 将其定义的将其定义的将其定义的将其定义的“ “能量函数能量函数能量函数能量函数” ”概念引入到神经网络概念引入到神经网络概念引入到神经网络概念引入到神经网络研究中,给出了网络的稳定性判据。
研究中,给出了网络的稳定性判据研究中,给出了网络的稳定性判据研究中,给出了网络的稳定性判据 v 用模拟电子线路实现了所提出的模型,并成功用模拟电子线路实现了所提出的模型,并成功用模拟电子线路实现了所提出的模型,并成功用模拟电子线路实现了所提出的模型,并成功地用神经网络方法实现了地用神经网络方法实现了地用神经网络方法实现了地用神经网络方法实现了4 4位位位位A/DA/D转换 52类型类型1253v 全连接单层网络全连接单层网络全连接单层网络全连接单层网络v 神经元模型神经元模型神经元模型神经元模型1. 二值型的二值型的Hopfield网络网络y yi i取值通常为取值通常为取值通常为取值通常为0 0和和和和1 1或或或或-1-1和和和和1 1 54例例3-4:状态转移关系:状态转移关系v 假设一个假设一个假设一个假设一个3 3节点的离散节点的离散节点的离散节点的离散HopfieldHopfield神经网络,已知神经网络,已知神经网络,已知神经网络,已知网络权值与阈值如图网络权值与阈值如图网络权值与阈值如图网络权值与阈值如图3-23(a)3-23(a)所示v 采取采取采取采取随机异步更新随机异步更新随机异步更新随机异步更新策略,计算状态转移关系。
策略,计算状态转移关系策略,计算状态转移关系策略,计算状态转移关系V V1 1兴奋:兴奋:兴奋:兴奋:V V2 2和和和和V V3 3状态保持不变状态保持不变状态保持不变状态保持不变初始状态初始状态初始状态初始状态串行模式串行模式串行模式串行模式55状态转移图状态转移图56v 能量函数能量函数能量函数能量函数v 能量井能量井能量井能量井 :能量极小状态(与网络的稳定状态一:能量极小状态(与网络的稳定状态一:能量极小状态(与网络的稳定状态一:能量极小状态(与网络的稳定状态一一对应)一对应)一对应)一对应) v 用途:联想记忆、优化用途:联想记忆、优化用途:联想记忆、优化用途:联想记忆、优化动力学特征:能量井动力学特征:能量井57能量井设计能量井设计v 能量井的分布是由连接权值决定的能量井的分布是由连接权值决定的能量井的分布是由连接权值决定的能量井的分布是由连接权值决定的n n一是根据求解问题的要求直接计算出所需要的连一是根据求解问题的要求直接计算出所需要的连一是根据求解问题的要求直接计算出所需要的连一是根据求解问题的要求直接计算出所需要的连接权值这种方法为静态产生方法,一旦权值确接权值。
这种方法为静态产生方法,一旦权值确接权值这种方法为静态产生方法,一旦权值确接权值这种方法为静态产生方法,一旦权值确定下来就不再改变;定下来就不再改变;定下来就不再改变;定下来就不再改变;n n二是通过提供一种学习机制来训练网络,使其能二是通过提供一种学习机制来训练网络,使其能二是通过提供一种学习机制来训练网络,使其能二是通过提供一种学习机制来训练网络,使其能够自动调整连接权值,产生期望的能量井这种够自动调整连接权值,产生期望的能量井这种够自动调整连接权值,产生期望的能量井这种够自动调整连接权值,产生期望的能量井这种方法为动态产生方法方法为动态产生方法方法为动态产生方法方法为动态产生方法58v如下图如下图如下图如下图3 3节点节点节点节点DHNNDHNN模型为例,要求设计的能量井模型为例,要求设计的能量井模型为例,要求设计的能量井模型为例,要求设计的能量井为状态为状态为状态为状态y y1 1y y2 2y y3 3=010=010和和和和111111权值和阈值可在权值和阈值可在权值和阈值可在权值和阈值可在[-1,1][-1,1]区区区区间取值,确定网络权值和阈值间取值,确定网络权值和阈值。
间取值,确定网络权值和阈值间取值,确定网络权值和阈值 ((1)权值的静态设计方法:例)权值的静态设计方法:例3-6 59解解v 对于状态对于状态对于状态对于状态A A,,,,y y1 1y y2 2y y3 3=010=010,当系统处于稳态时,有,当系统处于稳态时,有,当系统处于稳态时,有,当系统处于稳态时,有 WW1212+θ+θ1 1<0 <0 θ θ2 2>0>0 W W2323+θ+θ3 3<0 <0 v 对于状态对于状态对于状态对于状态B B,,,,y y1 1y y2 2y y3 3=111=111,当系统处于稳态时,有,当系统处于稳态时,有,当系统处于稳态时,有,当系统处于稳态时,有 WW1212+ W+ W1313+θ+θ1 1>0 >0 W W1212+ W+ W2323+θ+θ2 2>0 >0 W W2323+ W+ W1313+θ+θ3 3>0 >0 60特解特解v W W1212=0.5, W=0.5, W1313=0.4, W=0.4, W2323=0.1,=0.1, θ θ1 1=-0.7, θ=-0.7, θ2 2=0.2, θ=0.2, θ3 3=-0.4.=-0.4. 对于任何一个初始状态,最终都将达到所期望的对于任何一个初始状态,最终都将达到所期望的对于任何一个初始状态,最终都将达到所期望的对于任何一个初始状态,最终都将达到所期望的稳态稳态稳态稳态A A或或或或B B。
v W W1212=-0.5, W=-0.5, W1313=0.5, W=0.5, W2323=0.4,=0.4, θ θ1 1=0.1, θ=0.1, θ2 2=0.2, θ=0.2, θ3 3=-0.7.=-0.7. 出现了假能量井出现了假能量井出现了假能量井出现了假能量井100 100 WW1212+θ+θ1 1<0 <0 θ θ2 2>0>0WW2323+θ+θ3 3<0 <0 WW1212+ W+ W1313+θ+θ1 1>0 >0 WW1212+ W+ W2323+θ+θ2 2>0 >0 WW2323+ W+ W1313+θ+θ3 3>0>061v Hebb Hebb学习规则(主要方法)学习规则(主要方法)学习规则(主要方法)学习规则(主要方法)vδ δ学习规则学习规则学习规则学习规则((2)基于学习规则的设计方法)基于学习规则的设计方法62v 原则为:若原则为:若原则为:若原则为:若i i与与与与j j两个神经元同时处于兴奋状态,两个神经元同时处于兴奋状态,两个神经元同时处于兴奋状态,两个神经元同时处于兴奋状态,则它们之间的连接应加强,即:则它们之间的连接应加强,即:则它们之间的连接应加强,即:则它们之间的连接应加强,即:Hebb学习规则学习规则 63v对于一给定的需记忆的样本向量对于一给定的需记忆的样本向量对于一给定的需记忆的样本向量对于一给定的需记忆的样本向量{t {t1 1,t ,t2 2,...,t,...,tN N }, },如果如果如果如果初始权值为初始权值为初始权值为初始权值为0 0,,,,t tk k的状态值为的状态值为的状态值为的状态值为+1+1或或或或-1-1,则其连接,则其连接,则其连接,则其连接权系数的学习可以利用权系数的学习可以利用权系数的学习可以利用权系数的学习可以利用“ “外积规则外积规则外积规则外积规则” ”,即:,即:,即:,即: 矢量形式:矢量形式:矢量形式:矢量形式: 标量形式:标量形式:标量形式:标量形式:v活跃值为活跃值为活跃值为活跃值为1 1或或或或0 0时时时时 ::::外积规则外积规则 其中其中642. 网络的稳定性网络的稳定性v 定理定理定理定理3-23-2:::: 令令令令S=S=((((WW,,,,θ θ)代表神经网络,)代表神经网络,)代表神经网络,)代表神经网络,WW为为为为一对称矩阵。
则有:一对称矩阵则有:一对称矩阵则有:一对称矩阵则有:n n如果如果如果如果S S工作在串行模式,工作在串行模式,工作在串行模式,工作在串行模式,WW的对角元素非负(包的对角元素非负(包的对角元素非负(包的对角元素非负(包括对角元为括对角元为括对角元为括对角元为0 0的情况),则网络总是收敛于稳定的情况),则网络总是收敛于稳定的情况),则网络总是收敛于稳定的情况),则网络总是收敛于稳定状态即在状态空间没有极限环存在);状态即在状态空间没有极限环存在);状态即在状态空间没有极限环存在);状态即在状态空间没有极限环存在);n n如果如果如果如果S S工作在并行模式时,网络总是收敛于稳定工作在并行模式时,网络总是收敛于稳定工作在并行模式时,网络总是收敛于稳定工作在并行模式时,网络总是收敛于稳定状态或状态或状态或状态或HammingHamming距离小于距离小于距离小于距离小于2 2的极限环的极限环的极限环的极限环 HammingHamming距离定义为两个矢量中对应元素不相同的总个数距离定义为两个矢量中对应元素不相同的总个数距离定义为两个矢量中对应元素不相同的总个数距离定义为两个矢量中对应元素不相同的总个数。
65证明证明v 定义能量函数为:定义能量函数为:定义能量函数为:定义能量函数为: v 将将将将E(k+1)E(k+1)在在在在Y(k)Y(k)展开展开展开展开TalyorTalyor级数,有:级数,有:级数,有:级数,有:v 其中,其中,其中,其中, 66证明证明v 不失一般性,假设阈值函数不失一般性,假设阈值函数不失一般性,假设阈值函数不失一般性,假设阈值函数f(·)f(·)为符号函数为符号函数为符号函数为符号函数sgn(·)sgn(·),则,则,则,则 v其中:其中:其中:其中:67证明证明v 显然显然显然显然 v 在在在在串行工作方式串行工作方式串行工作方式串行工作方式下,下,下,下, 如果如果如果如果DHNNDHNN工作在串行模工作在串行模工作在串行模工作在串行模式,式,式,式,WW的对角元素非负,则网的对角元素非负,则网的对角元素非负,则网的对角元素非负,则网络总是收敛于稳定状态络总是收敛于稳定状态络总是收敛于稳定状态络总是收敛于稳定状态68例例3-7:: v 假设神经元的阈值矢量假设神经元的阈值矢量假设神经元的阈值矢量假设神经元的阈值矢量θ=0θ=0,网络输出只取两值,网络输出只取两值,网络输出只取两值,网络输出只取两值{{{{0 0,,,,1 1}。
要求}要求HopfieldHopfield网络记忆如下稳定状态,网络记忆如下稳定状态,网络记忆如下稳定状态,网络记忆如下稳定状态, t t1 1=(1 0 1 0)=(1 0 1 0)T T设采取并行更新并行更新并行更新并行更新,并对以下三种,并对以下三种,并对以下三种,并对以下三种初始状态下的网络行为作出评价初始状态下的网络行为作出评价初始状态下的网络行为作出评价初始状态下的网络行为作出评价n ny y1 1((((0 0))))=(1 0 0 1)=(1 0 0 1)T T,,,, n ny y2 2((((0 0))))=(1 0 0 0)=(1 0 0 0)T T,,,,n ny y3 3((((0 0))))=(0 0 0 1)=(0 0 0 1)T T 并行模式并行模式并行模式并行模式69步骤步骤1:权值设计:权值设计v 根据根据根据根据v 得得得得如如t t1 1=(1 0 1 0)=(1 0 1 0)T Tt t1 1稳定稳定稳定稳定70步骤步骤2:稳定性分析:稳定性分析v 对于对于对于对于y y1 1(0)(0)有:有:有:有:[1,0,0,1][1,0,0,1]T T→ [0,0,0,0]→ [0,0,0,0]T T → [0,0,0,0]→ [0,0,0,0]T T, ,因此因此因此因此 y1=[0,0,0,0]y1=[0,0,0,0]T T, ,是一个稳定态。
是一个稳定态是一个稳定态是一个稳定态v 对于对于对于对于y y2 2(0)(0)有:有:有:有:[1,0,0,0][1,0,0,0]T T→ [0,0,1,0]→ [0,0,1,0]T T → [1,0,0,0]→ [1,0,0,0]T T, ,所以初始状态所以初始状态所以初始状态所以初始状态2 2不属于此不属于此不属于此不属于此HopfieldHopfield网络记忆范围网络记忆范围网络记忆范围网络记忆范围无法实现联想无法实现联想无法实现联想无法实现联想v 对于对于对于对于y y3 3(0)(0)有:有:有:有:[0,0,0,1][0,0,0,1]T T→ [0,1,0,0]→ [0,1,0,0]T T → [0,0,0,1]→ [0,0,0,1]T T, ,也不属于此也不属于此也不属于此也不属于此HopfieldHopfield区的记忆范围区的记忆范围区的记忆范围区的记忆范围713. 应用:联想记忆功能应用:联想记忆功能 v必须具备两个基本条件:必须具备两个基本条件:n n能够收敛于稳定状态,利用此稳态来记忆样本信能够收敛于稳定状态,利用此稳态来记忆样本信能够收敛于稳定状态,利用此稳态来记忆样本信能够收敛于稳定状态,利用此稳态来记忆样本信息;息;息;息;n n具有回忆能力,能够从某一局部输入信息回忆起具有回忆能力,能够从某一局部输入信息回忆起具有回忆能力,能够从某一局部输入信息回忆起具有回忆能力,能够从某一局部输入信息回忆起与其相关的其它记忆,或者由某一残缺的信息回与其相关的其它记忆,或者由某一残缺的信息回与其相关的其它记忆,或者由某一残缺的信息回与其相关的其它记忆,或者由某一残缺的信息回忆起比较完整的记忆。
忆起比较完整的记忆忆起比较完整的记忆忆起比较完整的记忆72举例:数字识别举例:数字识别X=[xX=[x1 1,x ,x2 2,...,x,...,xN N] ]T T 、、、、X X∈∈∈∈{-1,1}{-1,1}N N ,,,,N=10×12=120 N=10×12=120 -1 -1 -1 -1代表白色,代表白色,代表白色,代表白色,+1+1+1+1代表黑色代表黑色代表黑色代表黑色每个字符以每个字符以每个字符以每个字符以120120120120个黑白像素表示个黑白像素表示个黑白像素表示个黑白像素表示X=[-1 -1 -1 1 -1 X=[-1 -1 -1 1 -1 -1 -1 1 1 -1 -1 -1 1 1 -1 -1 1 -1 1 -1 -1 1 -1 1 -1 1 -1 -1 1 -1 1 -1 -1 1 -1 1 1 1 1 1 1 1 1 1 1 -1 -1 -1 1 -1]-1 -1 -1 1 -1]T T73存在的问题存在的问题vv 假能量井现象假能量井现象假能量井现象假能量井现象vv 并非任何一组样本经训练都可构成一组稳定的状态。
并非任何一组样本经训练都可构成一组稳定的状态并非任何一组样本经训练都可构成一组稳定的状态并非任何一组样本经训练都可构成一组稳定的状态vv 给定一个偏离样本的初始状态,最终不一定收敛到给定一个偏离样本的初始状态,最终不一定收敛到给定一个偏离样本的初始状态,最终不一定收敛到给定一个偏离样本的初始状态,最终不一定收敛到与其与其与其与其HammingHamming距离最近的标准样本状态距离最近的标准样本状态距离最近的标准样本状态距离最近的标准样本状态vv 各样本之间的各样本之间的各样本之间的各样本之间的HammingHamming距离分布对联想记忆功能的距离分布对联想记忆功能的距离分布对联想记忆功能的距离分布对联想记忆功能的正确实现有重要影响若样本之间相互正交正确实现有重要影响若样本之间相互正交正确实现有重要影响若样本之间相互正交正确实现有重要影响若样本之间相互正交(d(dHH=N/2)=N/2)效果最好反之,若样本特征相近则易出效果最好反之,若样本特征相近则易出效果最好反之,若样本特征相近则易出效果最好反之,若样本特征相近则易出现错误识别现错误识别现错误识别现错误识别vv 样本数样本数样本数样本数MM越小,联想记忆功能出现的错误的可能性越小,联想记忆功能出现的错误的可能性越小,联想记忆功能出现的错误的可能性越小,联想记忆功能出现的错误的可能性越小。
仿真研究表明,取越小仿真研究表明,取越小仿真研究表明,取越小仿真研究表明,取M=0.15NM=0.15N时,联想的正确时,联想的正确时,联想的正确时,联想的正确率较高74v与二值型的与二值型的与二值型的与二值型的HopfieldHopfield网络模型具有相同的拓扑结构网络模型具有相同的拓扑结构网络模型具有相同的拓扑结构网络模型具有相同的拓扑结构 v神经元的状态神经元的状态神经元的状态神经元的状态o oj j满足满足满足满足 :::: N N为网络中神经元的个数;为网络中神经元的个数;为网络中神经元的个数;为网络中神经元的个数; o oj j 为神经元为神经元为神经元为神经元j j的状态;的状态;的状态;的状态; c cj j 为常数且大于为常数且大于为常数且大于为常数且大于0 0;;;; R Rj j 为正数;为正数;为正数;为正数; x xj j 为外部输入;为外部输入;为外部输入;为外部输入; y yi i 为神经元为神经元为神经元为神经元i i的输出,满足的输出,满足的输出,满足的输出,满足 y yi i=f(o=f(oi i) ) 。
4. 连续型的连续型的Hopfield网络网络 75v 引入一个能量函数引入一个能量函数引入一个能量函数引入一个能量函数E E:::: v 定理定理定理定理3-33-3:若:若:若:若f f-1-1 为单调递增且连续,为单调递增且连续,为单调递增且连续,为单调递增且连续, ,则沿系统轨道有:,则沿系统轨道有:,则沿系统轨道有:,则沿系统轨道有:且当且仅当且当且仅当且当且仅当且当且仅当 时,时,时,时,稳定性稳定性76v 因为因为因为因为v 且当且当且当且当 时,时,时,时,证明证明77v旅行商最优路径问题旅行商最优路径问题旅行商最优路径问题旅行商最优路径问题(Travelling Salesman (Travelling Salesman Problem, Problem, 简称简称简称简称TSP) TSP) 5. 优化问题的应用:优化问题的应用:TSP问题问题三个条件:三个条件:三个条件:三个条件:(1) (1) 每行只有一个每行只有一个每行只有一个每行只有一个1 1;;;;(2) (2) 每列只有一个每列只有一个每列只有一个每列只有一个1 1;;;;(3)(3)1 1的个数为城市数的个数为城市数的个数为城市数的个数为城市数n n。
可能的路径:可能的路径:可能的路径:可能的路径:( (n n-1)!/2-1)!/2n n=4=4::::1212种路径种路径种路径种路径n n=10=10::::181440181440种路径种路径种路径种路径78vv 设计如下能量函数:设计如下能量函数:设计如下能量函数:设计如下能量函数:• •式中式中式中式中 A A、、、、B B、、、、C C、、、、D D均为正常数均为正常数均为正常数均为正常数• •第一项表示当且仅当每一城市行只包含一个第一项表示当且仅当每一城市行只包含一个第一项表示当且仅当每一城市行只包含一个第一项表示当且仅当每一城市行只包含一个“ “1” 1” 时取极小值时取极小值时取极小值时取极小值0 0;;;;• •第二项表示当且仅当每一旅行位置只包含一个第二项表示当且仅当每一旅行位置只包含一个第二项表示当且仅当每一旅行位置只包含一个第二项表示当且仅当每一旅行位置只包含一个“ “1” 1” 时取极小时取极小时取极小时取极小值值值值0 0;;;;• •第三项表示当且仅当置换矩阵中第三项表示当且仅当置换矩阵中第三项表示当且仅当置换矩阵中第三项表示当且仅当置换矩阵中“ “1” 1” 之和为之和为之和为之和为n n时取极小值时取极小值时取极小值时取极小值0 0;;;;• •第四项表示路径长度信息,它随着路径长度的减小而减小。
第四项表示路径长度信息,它随着路径长度的减小而减小第四项表示路径长度信息,它随着路径长度的减小而减小第四项表示路径长度信息,它随着路径长度的减小而减小能量函数能量函数79v f f呈硬限幅特性呈硬限幅特性呈硬限幅特性呈硬限幅特性 ,则有,则有,则有,则有v 其中其中其中其中化作标准型化作标准型80网络模型网络模型81算例算例v A=B=D=500 A=B=D=500,,,, C=200C=200,,,, R RakakC Cakak=1, O=1, O0 0=0.02=0.02v 微分方程的初值选为:微分方程的初值选为:微分方程的初值选为:微分方程的初值选为: OOakak=O=O0000+δ+δOakOak 其中:其中:其中:其中: OO0000为常数项,满足在为常数项,满足在为常数项,满足在为常数项,满足在t=0t=0时,时,时,时, 以利于收敛;以利于收敛;以利于收敛;以利于收敛; δ δOakOak是扰动项,其取值范围为:是扰动项,其取值范围为:是扰动项,其取值范围为:是扰动项,其取值范围为: -0.1O-0.1O0 0≤ ≤ OakOak≤0.1O≤0.1O0 0 82优化结果优化结果833.3.3 回归(回归(Recurrent)神经网络)神经网络 v 与与与与HopfieldHopfield神经网络非常相似。
神经网络非常相似神经网络非常相似神经网络非常相似 v 保留了部分前向传播网络的特性又具备部分保留了部分前向传播网络的特性又具备部分保留了部分前向传播网络的特性又具备部分保留了部分前向传播网络的特性又具备部分HopfieldHopfield网络的动态联想记忆能力网络的动态联想记忆能力网络的动态联想记忆能力网络的动态联想记忆能力 v Pineda Pineda在在在在19871987年首先将传统的年首先将传统的年首先将传统的年首先将传统的BPBP学习算法引入学习算法引入学习算法引入学习算法引入到回归神经网络中来,并提出回归反向传播算法到回归神经网络中来,并提出回归反向传播算法到回归神经网络中来,并提出回归反向传播算法到回归神经网络中来,并提出回归反向传播算法 84v 神经元模型:神经元模型:神经元模型:神经元模型:v 其中:其中:其中:其中:离散型回归神经网络离散型回归神经网络(DTRNN)N N是神经网络的输出节点数,是神经网络的输出节点数,是神经网络的输出节点数,是神经网络的输出节点数,MM是输入矢量是输入矢量是输入矢量是输入矢量X X的维数的维数的维数的维数 85网络结构网络结构86v 展成多层前向网络展成多层前向网络展成多层前向网络展成多层前向网络学习方法学习方法187v 迭代学习算法迭代学习算法迭代学习算法迭代学习算法 梯度下降法实现梯度下降法实现梯度下降法实现梯度下降法实现学习方法学习方法288v 权系数矩阵权系数矩阵权系数矩阵权系数矩阵WW初始化初始化初始化初始化, ,置置置置k=1;k=1;v 取下一组训练样本集,取下一组训练样本集,取下一组训练样本集,取下一组训练样本集,置所有状态为零,所有置所有状态为零,所有置所有状态为零,所有置所有状态为零,所有 v 迭代:迭代:迭代:迭代: 流程流程893.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录903.6.1 引言引言v 神经网络控制的优越性神经网络控制的优越性神经网络控制的优越性神经网络控制的优越性v 神经网络控制器的分类神经网络控制器的分类神经网络控制器的分类神经网络控制器的分类v 神经网络的逼近能力神经网络的逼近能力神经网络的逼近能力神经网络的逼近能力 对象对象91神经网络控制的优越性神经网络控制的优越性 1神经网络可以处理那些难以用模型或规则描述的过程或系统神经网络可以处理那些难以用模型或规则描述的过程或系统神经网络可以处理那些难以用模型或规则描述的过程或系统神经网络可以处理那些难以用模型或规则描述的过程或系统2神经网络采用并行分布式信息处理,具有很强的容错性。
神经网络采用并行分布式信息处理,具有很强的容错性神经网络采用并行分布式信息处理,具有很强的容错性神经网络采用并行分布式信息处理,具有很强的容错性 3神经网络是本质的非线性系统神经网络是本质的非线性系统神经网络是本质的非线性系统神经网络是本质的非线性系统4很强的信息综合能力很强的信息综合能力很强的信息综合能力很强的信息综合能力5神经网络的硬件实现愈趋方便神经网络的硬件实现愈趋方便神经网络的硬件实现愈趋方便神经网络的硬件实现愈趋方便92神经网络控制器的分类神经网络控制器的分类 逆控制器逆控制器逆控制器逆控制器 自适应网络控制器自适应网络控制器自适应网络控制器自适应网络控制器 前馈控制结构前馈控制结构前馈控制结构前馈控制结构 自适应评价网络自适应评价网络自适应评价网络自适应评价网络* * 混合控制系统混合控制系统混合控制系统混合控制系统 * * 神神神神经经经经网网网网络络络络控控控控制制制制器器器器 导师指导下的控制器导师指导下的控制器导师指导下的控制器导师指导下的控制器 93(1) 导师指导下的控制器导师指导下的控制器v 网络的训练只涉及静态过程,缺乏学习机网络的训练只涉及静态过程,缺乏学习机网络的训练只涉及静态过程,缺乏学习机网络的训练只涉及静态过程,缺乏学习机制。
制94(2) 逆控制器逆控制器 v 网络训练网络训练网络训练网络训练 的目的就是为了逼近系统的逆动力学的目的就是为了逼近系统的逆动力学的目的就是为了逼近系统的逆动力学的目的就是为了逼近系统的逆动力学模型系统的逆动力学模型不可逆时,不能用系统的逆动力学模型不可逆时,不能用系统的逆动力学模型不可逆时,不能用系统的逆动力学模型不可逆时,不能用95v 模型参考自适应网络控制器模型参考自适应网络控制器模型参考自适应网络控制器模型参考自适应网络控制器 (3) 自适应网络控制器自适应网络控制器 96(4) 前馈控制结构前馈控制结构v 控制器设计的主要困难是如何找到一种有效的控制器设计的主要困难是如何找到一种有效的控制器设计的主要困难是如何找到一种有效的控制器设计的主要困难是如何找到一种有效的学习方法实现对系统模型未知条件下网络控制的学习方法实现对系统模型未知条件下网络控制的学习方法实现对系统模型未知条件下网络控制的学习方法实现对系统模型未知条件下网络控制的学习 973.6.2 神经网络的逼近能力神经网络的逼近能力 v 相关结论:相关结论:相关结论:相关结论:含一个隐层以上的多层前向传播神经网络不仅可含一个隐层以上的多层前向传播神经网络不仅可含一个隐层以上的多层前向传播神经网络不仅可含一个隐层以上的多层前向传播神经网络不仅可以以任意精度逼近连续函数本身,还可以逼近函以以任意精度逼近连续函数本身,还可以逼近函以以任意精度逼近连续函数本身,还可以逼近函以以任意精度逼近连续函数本身,还可以逼近函数的导数项。
数的导数项数的导数项数的导数项 983.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录993.7.1 3.7.1 辨识基础辨识基础辨识基础辨识基础3.7.2 3.7.2 神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构 3.7.3 3.7.3 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识100v L.A.Zadeh L.A.Zadeh曾经下过这样的定义:曾经下过这样的定义:曾经下过这样的定义:曾经下过这样的定义:“ “辨识是在输辨识是在输辨识是在输辨识是在输入和输出数据的基础上,从一组给定的模型中,入和输出数据的基础上,从一组给定的模型中,入和输出数据的基础上,从一组给定的模型中,入和输出数据的基础上,从一组给定的模型中,确定一个与所测系统等价的模型确定一个与所测系统等价的模型确定一个与所测系统等价的模型确定一个与所测系统等价的模型” ”。
v 使用非线性系统的输入输出数据来训练神经网使用非线性系统的输入输出数据来训练神经网使用非线性系统的输入输出数据来训练神经网使用非线性系统的输入输出数据来训练神经网络可认为是非线性函数的逼近问题络可认为是非线性函数的逼近问题络可认为是非线性函数的逼近问题络可认为是非线性函数的逼近问题 v 多层前向传播网络能够逼近任意多层前向传播网络能够逼近任意多层前向传播网络能够逼近任意多层前向传播网络能够逼近任意L L2 2非线性函数非线性函数非线性函数非线性函数 3.7.1 辨识基础辨识基础101v 模型的选择模型的选择模型的选择模型的选择 v 输入信号的选择输入信号的选择输入信号的选择输入信号的选择 v 误差准则的选择误差准则的选择误差准则的选择误差准则的选择 三大要素三大要素1023.7.1 3.7.1 辨识基础辨识基础辨识基础辨识基础3.7.2 3.7.2 神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构 3.7.3 3.7.3 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识1033.7.2 神经网络辨识模型的结构神经网络辨识模型的结构 逆模型法逆模型法 前向建模法前向建模法104v 所谓前向建模法是利用神经网络来逼近非线性所谓前向建模法是利用神经网络来逼近非线性所谓前向建模法是利用神经网络来逼近非线性所谓前向建模法是利用神经网络来逼近非线性系统的前向动力学模型。
系统的前向动力学模型系统的前向动力学模型系统的前向动力学模型前向建模法前向建模法 TDL—Tapped Delay TDL—Tapped Delay LineLine(按拍延迟线)(按拍延迟线)(按拍延迟线)(按拍延迟线)105v 直接法:直接法:直接法:直接法:逆模型法逆模型法106v 存在的问题存在的问题存在的问题存在的问题n n学习过程不一定是目标最优的学习过程不一定是目标最优的学习过程不一定是目标最优的学习过程不一定是目标最优的 n n一旦非线性系统对应关系不是一对一的,所建立一旦非线性系统对应关系不是一对一的,所建立一旦非线性系统对应关系不是一对一的,所建立一旦非线性系统对应关系不是一对一的,所建立的逆模型可能不准确的逆模型可能不准确的逆模型可能不准确的逆模型可能不准确 v 克服方法克服方法克服方法克服方法存在的问题存在的问题????1073.7.1 3.7.1 辨识基础辨识基础辨识基础辨识基础3.7.2 3.7.2 神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构神经网络辨识模型的结构 3.7.3 3.7.3 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识108v 并行结构:利用辨识模型的输出,收敛性差。
并行结构:利用辨识模型的输出,收敛性差并行结构:利用辨识模型的输出,收敛性差并行结构:利用辨识模型的输出,收敛性差v 串行结构:串行结构:串行结构:串行结构:利用系统的实际输出,收敛性好利用系统的实际输出,收敛性好利用系统的实际输出,收敛性好利用系统的实际输出,收敛性好根据可分离性和线性性,有根据可分离性和线性性,有根据可分离性和线性性,有根据可分离性和线性性,有4 4种结构辨识的两种结构辨识的两种结构非线性动态系统:非线性动态系统:非线性动态系统:非线性动态系统:109含线性部分的辨识问题(模型含线性部分的辨识问题(模型1、、2))v 模型模型模型模型1 1v 模型模型模型模型2 2非线性动态系统:非线性动态系统:非线性动态系统:非线性动态系统:110线性部分的参数已知线性部分的参数已知 模型模型模型模型1 1:::: 模型模型模型模型2 2::::v 模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知器网络模型的器网络模型的器网络模型的器网络模型的学习问题学习问题学习问题学习问题。
111线性部分的参数未知线性部分的参数未知 v 模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知模型的辨识问题简单地归结为带时滞的多层感知器网络模型的学习和线性系统的参数估计问题器网络模型的学习和线性系统的参数估计问题器网络模型的学习和线性系统的参数估计问题器网络模型的学习和线性系统的参数估计问题 模型模型模型模型1 1::::代替代替代替代替112v 最小二乘法最小二乘法最小二乘法最小二乘法 其中其中其中其中v 初始条件完全未知时,可取初始条件完全未知时,可取初始条件完全未知时,可取初始条件完全未知时,可取线性部分学习方法线性部分学习方法113v BP BP学习学习学习学习非线性部分学习方法非线性部分学习方法114例例3--8v 考虑以下模型:考虑以下模型:考虑以下模型:考虑以下模型: y(k+1y(k+1))))=a·y(k)+b·y(k-1)+g(u) =a·y(k)+b·y(k-1)+g(u) 其中其中其中其中a=0.3, b=0.6a=0.3, b=0.6,,,,g(u)=ug(u)=u3 3+0.3u+0.3u2 2-0.4u -0.4u 。
v 试辨识该系统试辨识该系统试辨识该系统试辨识该系统115v 线性部分,采用递推最小二乘学习法线性部分,采用递推最小二乘学习法线性部分,采用递推最小二乘学习法线性部分,采用递推最小二乘学习法v 非线性部分采用前向传播多层神经网络来逼近非线性部分采用前向传播多层神经网络来逼近非线性部分采用前向传播多层神经网络来逼近非线性部分采用前向传播多层神经网络来逼近选择神经网络结构为选择神经网络结构为选择神经网络结构为选择神经网络结构为解解116v 校验输入信号校验输入信号校验输入信号校验输入信号 ::::辨识效果辨识效果117非线性可分离系统(模型非线性可分离系统(模型3))118BP学习学习在整个在整个BP学习学习算法的计算过程中,算法的计算过程中,交替使用网络的实际交替使用网络的实际输出值输出值 和和 ,,使得广义误差可以不使得广义误差可以不断地进行计算和修正,断地进行计算和修正,直至最终收敛直至最终收敛119v 考虑如下非线性离散系统:考虑如下非线性离散系统:考虑如下非线性离散系统:考虑如下非线性离散系统:v 求:采用双模型法解决该系统的辨识问题。
求:采用双模型法解决该系统的辨识问题求:采用双模型法解决该系统的辨识问题求:采用双模型法解决该系统的辨识问题例例3- 9120v 单一模型网络:单一模型网络:单一模型网络:单一模型网络:v 两模型网络均为:两模型网络均为:两模型网络均为:两模型网络均为:两种方法的学习曲线两种方法的学习曲线121两模型法的辨识效果两模型法的辨识效果1223.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录1233.8 神经网络控制的学习机制神经网络控制的学习机制 v 神经元控制器的目的在于如何设计一个有效的神经元控制器的目的在于如何设计一个有效的神经元控制器的目的在于如何设计一个有效的神经元控制器的目的在于如何设计一个有效的神经元网络去完成代替传统控制器的作用,使得神经元网络去完成代替传统控制器的作用,使得神经元网络去完成代替传统控制器的作用,使得神经元网络去完成代替传统控制器的作用,使得系统的输出跟随系统的期望输出。
为了达到这个系统的输出跟随系统的期望输出为了达到这个系统的输出跟随系统的期望输出为了达到这个系统的输出跟随系统的期望输出为了达到这个目的,神经网络的学习方法就是寻找一种有效的目的,神经网络的学习方法就是寻找一种有效的目的,神经网络的学习方法就是寻找一种有效的目的,神经网络的学习方法就是寻找一种有效的途径进行网络连接权阵或网络结构的修改,从而途径进行网络连接权阵或网络结构的修改,从而途径进行网络连接权阵或网络结构的修改,从而途径进行网络连接权阵或网络结构的修改,从而使得网络控制器输出的控制信号能够保证系统输使得网络控制器输出的控制信号能够保证系统输使得网络控制器输出的控制信号能够保证系统输使得网络控制器输出的控制信号能够保证系统输出跟随系统的期望输出出跟随系统的期望输出出跟随系统的期望输出出跟随系统的期望输出 124分类分类v 3.8.1 3.8.1 监督式学习监督式学习监督式学习监督式学习n n离线学习法离线学习法离线学习法离线学习法n n学习法学习法学习法学习法n n反馈误差学习法反馈误差学习法反馈误差学习法反馈误差学习法n n多网络学习法多网络学习法多网络学习法多网络学习法v 3.8.2 3.8.2 增强式学习增强式学习增强式学习增强式学习1251. 离线学习法离线学习法适合静态环境适合静态环境适合静态环境适合静态环境1262. 学习法学习法适合模型已知的动态环境适合模型已知的动态环境适合模型已知的动态环境适合模型已知的动态环境127v 采用最速下降法采用最速下降法采用最速下降法采用最速下降法 学习方法学习方法假设系统的假设系统的假设系统的假设系统的JacobianJacobian矩阵已知矩阵已知矩阵已知矩阵已知性能指标函数:性能指标函数:性能指标函数:性能指标函数:1283. 反馈误差学习法反馈误差学习法适用于非线性系统线性绝对占优条件下的网络学习适用于非线性系统线性绝对占优条件下的网络学习适用于非线性系统线性绝对占优条件下的网络学习适用于非线性系统线性绝对占优条件下的网络学习1294. 多神经网络学习法多神经网络学习法1v 前向建模多网络控制前向建模多网络控制前向建模多网络控制前向建模多网络控制 130多神经网络学习法多神经网络学习法2v 逆模型建模的多网络控制结构图逆模型建模的多网络控制结构图逆模型建模的多网络控制结构图逆模型建模的多网络控制结构图 1313.8.2 增强式学习增强式学习v 利用当前控制是否成功来决定下一次控制该如利用当前控制是否成功来决定下一次控制该如利用当前控制是否成功来决定下一次控制该如利用当前控制是否成功来决定下一次控制该如何走的学习方式。
何走的学习方式何走的学习方式何走的学习方式 v 修正的办法是对某一成功的行为进行鼓励,而修正的办法是对某一成功的行为进行鼓励,而修正的办法是对某一成功的行为进行鼓励,而修正的办法是对某一成功的行为进行鼓励,而对不成功的行为进行惩罚对不成功的行为进行惩罚对不成功的行为进行惩罚对不成功的行为进行惩罚 v 用神经网络来实现时,用神经网络来实现时,用神经网络来实现时,用神经网络来实现时, 则可在权值空间进行调则可在权值空间进行调则可在权值空间进行调则可在权值空间进行调整1323.13.1 引言引言引言引言3.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录1333.9.1 3.9.1 直接逆模型控制法直接逆模型控制法直接逆模型控制法直接逆模型控制法 3.9.2 3.9.2 直接网络控制法直接网络控制法直接网络控制法直接网络控制法 3.9.3 3.9.3 多网络自学习控制法多网络自学习控制法多网络自学习控制法多网络自学习控制法 3.9 神经网络控制器的设计神经网络控制器的设计1343.9.1 直接逆模型控制法直接逆模型控制法 v 训练结构示意图训练结构示意图训练结构示意图训练结构示意图 135直接逆模型控制的结构示意图直接逆模型控制的结构示意图 运行于静态参数环境运行于静态参数环境运行于静态参数环境运行于静态参数环境1363.9.1 3.9.1 直接逆模型控制法直接逆模型控制法直接逆模型控制法直接逆模型控制法 3.9.2 3.9.2 直接网络控制法直接网络控制法直接网络控制法直接网络控制法 3.9.3 3.9.3 多网络自学习控制法多网络自学习控制法多网络自学习控制法多网络自学习控制法 3.9 神经网络控制器的设计神经网络控制器的设计1373.9.2 直接网络控制法直接网络控制法v 例例例例3-10 3-10 考虑被控系统考虑被控系统考虑被控系统考虑被控系统 假设动力学逆模型成立假设动力学逆模型成立假设动力学逆模型成立假设动力学逆模型成立 ,为,为,为,为 试用直接网络试用直接网络试用直接网络试用直接网络控制法控制。
控制法控制控制法控制控制法控制138解解v 构造神经网络结构为构造神经网络结构为构造神经网络结构为构造神经网络结构为ΠΠ5,25,12,15,25,12,1 v 输出单元层的神经元的为线性单元、其余层的输出单元层的神经元的为线性单元、其余层的输出单元层的神经元的为线性单元、其余层的输出单元层的神经元的为线性单元、其余层的神经元为神经元为神经元为神经元为SigmoidSigmoid激励元 v 取取取取η=0.05 η=0.05 v 期望输出为:期望输出为:期望输出为:期望输出为: 学习结果学习结果学习结果学习结果139学习公式学习公式输出层输出层输出层输出层 隐含层隐含层隐含层隐含层 1401 1摄动法摄动法摄动法摄动法2 2符号函数法符号函数法符号函数法符号函数法 3 3前向神经网络仿真模型法前向神经网络仿真模型法前向神经网络仿真模型法前向神经网络仿真模型法 4 4多网络自学习控制法多网络自学习控制法多网络自学习控制法多网络自学习控制法 Jacobian矩阵的替代矩阵的替代1413.9.1 3.9.1 直接逆模型控制法直接逆模型控制法直接逆模型控制法直接逆模型控制法 3.9.2 3.9.2 直接网络控制法直接网络控制法直接网络控制法直接网络控制法 3.9.3 3.9.3 多网络自学习控制法多网络自学习控制法多网络自学习控制法多网络自学习控制法 3.9 神经网络控制器的设计神经网络控制器的设计1423.9.3 多网络自学习控制法多网络自学习控制法 v 基本思想是利用逆动力学模型和系统的期望输基本思想是利用逆动力学模型和系统的期望输基本思想是利用逆动力学模型和系统的期望输基本思想是利用逆动力学模型和系统的期望输出出出出y yd d(k+1)(k+1)去构造一个期望的控制量去构造一个期望的控制量去构造一个期望的控制量去构造一个期望的控制量u ud d(k)(k),从而,从而,从而,从而解决了神经控制器解决了神经控制器解决了神经控制器解决了神经控制器NcNc在系统模型未知情况下的在系统模型未知情况下的在系统模型未知情况下的在系统模型未知情况下的学习问题。
学习问题学习问题学习问题 143多网络自学习控制法多网络自学习控制法 144v 考虑非线性系统考虑非线性系统考虑非线性系统考虑非线性系统 v 求:试用多神经自学习网络控制方法来设计此求:试用多神经自学习网络控制方法来设计此求:试用多神经自学习网络控制方法来设计此求:试用多神经自学习网络控制方法来设计此系统的非线性控制器,要求系统的期望输出为:系统的非线性控制器,要求系统的期望输出为:系统的非线性控制器,要求系统的期望输出为:系统的非线性控制器,要求系统的期望输出为:例例3-11 145v 假设被控对象的逆动力学模型存在,即有:假设被控对象的逆动力学模型存在,即有:假设被控对象的逆动力学模型存在,即有:假设被控对象的逆动力学模型存在,即有:神经网络辨识器神经网络辨识器神经网络辨识器神经网络辨识器N Ni i的结构为的结构为的结构为的结构为 ; ;神经网络控制器神经网络控制器神经网络控制器神经网络控制器N Nc c的网络结构为的网络结构为的网络结构为的网络结构为 ; ; 输出神经元均为线性单元。
输出神经元均为线性单元输出神经元均为线性单元输出神经元均为线性单元解解146曲线跟踪效果曲线跟踪效果1473.13.13.13.1 引言引言引言引言3.23.23.23.2 前向神经网络模型前向神经网络模型前向神经网络模型前向神经网络模型3.6 3.6 3.6 3.6 神经网络控制基础神经网络控制基础神经网络控制基础神经网络控制基础3.73.73.73.7 非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识非线性动态系统的神经网络辨识3.83.83.83.8 神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制神经网络控制的学习机制3.9 3.9 3.9 3.9 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计 神经网络控制器的设计3.33.33.33.3 动态神经网络模型动态神经网络模型动态神经网络模型动态神经网络模型 3.10 3.10 3.10 3.10 单一神经元控制法单一神经元控制法单一神经元控制法单一神经元控制法目录目录1483.10 单一神经元控制单一神经元控制 式中,式中,式中,式中,1>1>γ γ>0>0为衰减速率,为衰减速率,为衰减速率,为衰减速率,η η >0>0为学习速率为学习速率为学习速率为学习速率, , p pi i( (t t) )表示递进学习表示递进学习表示递进学习表示递进学习策略。
策略k kE E环境环境环境环境x x1 1( (t t) )x x2 2( (t t) )x xn n( (t t) ) w w1 1( (t t) )w w2 2( (t t) ) w wn n( (t t) )s(ts(t) )p pi i(t (t) )149v Hebbian Hebbian学习学习学习学习v 监督学习监督学习监督学习监督学习v 联想式学习联想式学习联想式学习联想式学习 z z( (t t) ) 是教师信号,如控制误差是教师信号,如控制误差是教师信号,如控制误差是教师信号,如控制误差学习策略学习策略150控制系统的一般形式控制系统的一般形式k k被控被控被控被控对象对象对象对象x x1 1( (t t) )x x2 2( (t t) )x xn n( (t t) ) w w1 1( (t t) )w w2 2( (t t) ) w wn n( (t t) )u(tu(t) )p pi i(t (t) )转换转换转换转换部件部件部件部件……r(tr(t) )151直接控制输出直接控制输出v 直接控制输出直接控制输出直接控制输出直接控制输出v 如取如取如取如取 控制器输出:控制器输出:控制器输出:控制器输出:可得自适应前馈比例、反馈比例和反馈微分控制。
可得自适应前馈比例、反馈比例和反馈微分控制可得自适应前馈比例、反馈比例和反馈微分控制可得自适应前馈比例、反馈比例和反馈微分控制152增量式增量式PID控制控制v 如取如取如取如取 可得自适应增量式可得自适应增量式可得自适应增量式可得自适应增量式PIDPID控制控制控制控制v 增量式控制输出增量式控制输出增量式控制输出增量式控制输出153。












