第七章 神经网络应用(补)_第1页
第七章 神经网络应用(补)_第2页
第七章 神经网络应用(补)_第3页
第七章 神经网络应用(补)_第4页
第七章 神经网络应用(补)_第5页
已阅读5页,还剩85页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第7章(补)

人工神经网络在智能传感器中的应用7.1神经网络基本知识7.2前向网络7.3反馈网络7.4神经网络在智能传感器中的应用7.1神经网络基本知识7.1.1人工神经网络模型图7-1基本神经元模型神经元的输出可描述为式中:f(Ai)表示神经元输入—输出关系的函数,称为作用函数或传递函数,常用的作用函数有如图9-2所示的三种:阈值型、S型和分段线性型(伪线性型)。这样,就有三类神经元模型。图7-2常见的作用函数形式(a)阈值型;(b)S型;(c)伪线性型一、阈值型神经元

阈值型神经元是一种最简单的神经元,由美国心理学家Mc.Culloch和数学家Pitls共同提出,因此,通常称为M-P模型。

M-P模型神经元是二值型神经元,其输出状态取值为1或0,分别代表神经元的兴奋状态和抑制状态。其数学表达式为对于M-P模型神经元,权值Wji可在(-1,1)区间连续取值。取负值表示抑制两神经元间的连接强度,取正值表示加强。二、S型神经元模型这是常用的一种连续型神经元模型,输出值是在某一范围内连续取值的。输入—输出特性多采用指数函数表示,用数学公式表示如下:S型作用函数反映了神经元的非线性输入—输出特性。三、分段线性型神经元的输入—输出特性满足一定的区间线性关系,其输出可表示为式中,C、AC表示常量。7.1.2神经网络结构一、分层网络图7-3分层网络功能层次二、相互连接型结构图7-4相互连接型网络7.1.3学习与记忆一、神经网络的学习

Hebb学习规则可以描述为:如果神经网络中某一神经元与另一直接与其相连的神经元同时处于兴奋状态,那么这两个神经元间的连接强度应该加强。用算法表达式表示为Wji(t+1)=Wji(t)+η[xi(t),xj(t)]式中:Wji(t+1)——修正一次后的某一权值;

η——常量,决定每次权值修正量,又称学习因子;

xi(t)、xj(t)——t时刻第i个、第j个神经元的状态。误差修正算法是神经网络学习中另一个更重要的方法。像感知机、BP网络学习均属此类。最基本的误差修正学习方法,即通常说的δ学习规则,可由如下四步来描述:

(1)任选一组初始权值Wji(0)。

(2)计算某一输入模式对应的实际输出与期望输出的误差。

(3)更新权值Wji(t+1)=Wji(t)+η[dj-yj(t)]xi(t)式中:η——学习因子;dj、yj——第j个神经元的期望输出与实际输出;xj——第j个神经元的输入。

(4)返回步骤(2),直到对所有训练模式、网络输出均满足误差要求为止。二、神经网络的记忆神经网络记忆包含两层含义:信息的存储与回忆。网络通过学习将所获取的知识信息分布式存储在连接权的变化上,并具有相对稳定性。一般来讲,存储记忆需花较长时间,因此这种记忆称为长期记忆,而学习期间的记忆保持时间很短,称为短期记忆。

7.1.4神经网络的信息处理功能神经网络可以完成大量的信息处理任务,正因为这样,其应用涉及相当广泛的领域。归纳起来,神经网络的信息处理任务主要包括:一、数字上的映射逼近通过一组映射样本(x1,y1),(x2,y2),…,(xn,yn),网络以自组织方式寻找输入、输出之间的映射关系:

yi=f(xi)。

二、联想记忆

联想记忆是指实现模式完善、恢复相关模式的相互回忆等,典型的有如Hopfield网络等。7.2前向网络7.2.1感知机图9-5基本感知机结构感知机的学习算法为i=1,2,…,n

式中:η为学习因子,在(0,1]区间取值。期望输出与实际输出之差为输入状态xi(k)=1或07.2.2BP网络一、BP网络模型图9-6一个三层BP网络结构一般选用下列S形作用函数:且处理单元的输入、输出值可连续变化。

BP网络模型实现了多层网络学习的设想。当给定网络的一个输入模式时,它由输入层单元传到隐层单元,经隐层单元逐层处理后再送到输出层单元,由输出层单元处理后产生一个输出模式,故称为前向传播。如果输出响应与期望输出模式有误差,且不满足要求,那么就转入误差后向传播,即将误差值沿连接通路逐层向后传送,并修正各层连接权值。(7-10)二、学习算法假设BP网络每层有N个处理单元,作用函数如(7-10)式所示,训练集包含M个样本模式对(xk,yk)。对第p个训练样本(p=1,2,…,M)单元j的输入总和(即激活函数)记为apj,输出记为Opj,它的第i个输入(也即第i个神经元的输出)为Opi,则如果任意设置网络初始权值,那么对每个输入模式p,网络输出与期望输出一般总有误差。定义网络误差为式中,dpj表示对第p个输入模式输出单元j的期望输出。δ学习规则的实质是利用梯度最速下降法,使权值沿误差函数的负梯度方向改变。若权值Wji的变化量记为ΔWji,则而这里,令于是这就是通常所说的δ学习规则。当Opj表示输出层单元的输出时,其误差当Opj表示隐单元输出时,其误差故至此,BP算法权值修正公式可统一表示为对于输出单元对于隐单元(9-29)在实际应用中,考虑到学习过程的收敛性,通常为了使学习因子η取值足够大,又不致于产生振荡,在权值修正公式(7-29)中再加一个势态项,得式中,α是常数,称势态因子,它决定上一次学习权值对本次权值更新的影响程度。一般地,BP网络学习算法步骤描述如下:

(1)初始化网络及学习参数,如设置网络初始矩阵、学习因子η、参数α等;

(2)提供训练样本,训练网络,直到满足要求;

(3)前向传播过程:对给定训练模式输入,计算网络的输出模式,并与期望模式输出比较,若有误差,则执行(4),否则,返回(2);

(4)后向传播过程:

①计算同一层单元的误差δpj。

②修正权值和阈值阈值即为i=0时的连接权值。

③返回(2)。用网络的均方根值(RMS)误差来定量反映学习性能。其定义为三、竞争网络1.竞争学习网络结构图7-7两层竞争网络

2.竞争学习机理

竞争单元的处理分为两步:首先计算每个单元输入的加权和;然后进行竞争,产生输出。对于第j个竞争单元,其输入总和为当竞争层所有单元的输入总和计算完毕,便开始竞争。竞争层中具有最高输入总和的单元被定为胜者,其输出状态为1,其它各单元输出状态为0。对于某一输入模式,当获胜单元确定后,便更新权值。也只有获胜单元权值才增加一个量,使得再次遇到该输入模式时,该单元有更大的输入总和。权值更新规则表示为7.3反馈网络7.3.1Hopfield网络结构图7-8HNN网络结构7.3.2Hopfield神经网络A/D变换器图7-9对称式4位A/D转换网络图7-10迟滞现象图7-11非对称HNN网A/D变换器图7-12采用非对称结构的A/D转换关系7.4神经网络在智能传感器中的应用7.4.1纸浆浓度传感器非线性估计和动态标定的神经网络实现一、问题提出实际上,传感器在整个测量范围的非线性特性可用一幂级数多项式来描述:式中:y——被测浓度;

x——传感器输出值;

Wi(i=0,1,…,n)——传感器的特性参数。(7-35)二、神经网络算法

对应每一个实际输入xi,可得到一个非线性数据集{1,x,x2,x3,…,xn}这些可作为神经网络的输入模式,图7-13权值训练原理示意图三、浓度传感器非线性估计及动态标定

浓度传感器的本质是非线性的。可将(7-35)式写成下列近似形式:式中:y——被测浓度;f——传感器的输出频率值;fmax——传感器的最大输出频率值。因此可用f/fmax表示传感器的输出特征。四、实例分析及结论传感器1:传感器2:传感器3:图7-14拟合曲线表7-1传感器输出及对应浓度估计值7.4.2神经网络在监测材料损伤中的应用一、问题提出具有传感、执行、信号处理、通信与控制等功能的结构称之为智能结构。这种结构不仅具有承受载荷的能力,还具有感知和响应内外环境的变化,实现自检测、自监控、自校正、自适应、自修复等功能。下面介绍利用人工神经网络和埋入偏振型光纤传感器阵列,实时适应监测复合材料损伤,并指示损伤位置的智能结构系统模型。二、智能结构系统简介图7-15智能结构系统图三、前向BP网络处理器图7-16三层BP网络图7-17BP算法流程四、实验结果表7-2BP网络学习样本数据表7-3在线仿真实验数及结果7.4.3神经网络滤波一、问题提出通常,由信号发生器产生的正弦波或三角波信号都不同程度地含有噪声干扰信号。若我们将它作为精密测量供电信号或进行相位检测时,往往造成测量不精确等缺陷。消除噪声干扰的办法很多,下面提出一种采用神经网络学习记忆功能,实现对含噪正弦波或三角波信号的复原,即消除噪声干扰。

二、自适应线性函数的最小二乘法(LMS)学习算法为了简单起见,我们以输入矢量为二维的情况作为示例来进行讨论。这时输入矢量X和权矢量W可以分别表示为在采用线性函数的条件下,神经网络输出为(7-42)权值修正公式为ε(k)为误差,即式中,d(k)为期望输出;y(k)为实际输出。(7-43)三、软件编程及说明实现上述算法的软件编程如下(采用MATLAB语言):disp(′*****欢迎使用*****′)disp(′请输入训练次数′)T=input(′′)disp(′请输入步长参数′)l=input(′′)disp(′请输入所加噪声方差参数′)m=input(′′)t=0∶1∶63x=sin(t*2*pi/64)plot(t,x)gridx=[x,-1]k=0x1=0fort=1∶1∶63if(t<=16)x1=[x1,t/16]elseif(t<=48)x1=[x1,2-t/16]elsex1=[x1,-4+t/16]endk=[k,t];endplot(k,x1)x1=[x1,-1]w=rand(1,65)q=10000;q0=0;k=0fori=0∶1∶Tk=[k,i];d=w*x′e=1-dq2=qq=e*e′w=w+(e*1)*xd1=w*x1′e1=-d1w=w+(e1*1)*x1q=q+e1*e1q0=[q0,q/2]subplot(212)hh=plot(k,q0)ifq2<qbreak;endendiw*x′w*x1′xt=randn(1,65)xt1=m*x1+xxt2=m*xt+x1j=0∶64subplot(211)h1=plot(j,x1)gridsubplot(212)hh=plot(j,xt2)gridy1=w*xt1′y2=w*xt2′h=figure(1)set(h,′color′,[1,1,1]);h2=gca1.采样部分图7-18采样所得正弦波和三角波

2.学习部分首先利用MATLAB中的rand()来产生满足64维初始权值W(0)。按照(7-42)式和(7-43)式修正权向量,直到满足要求为止。选择不同步长α,比较误差变化情况,最后确定较合理的步长α。

3.检验部分当学习结束后,应检验学习的正确性。此时给训练好的网络输入含有噪声干扰的一系列正弦波和三角波信号,要求噪声服从正态分布。检验网络是否能恢复标准波形。若能很好地恢复标准波形,则说该网络可消除正弦波和三角波中的噪声干扰,达到滤波效果。四、实验效果图7-19加噪声的正弦波图7-20恢复正弦波7.4.4神经网络实现微弱信号提取一、问题提出在目标跟踪、多目标检测等许多工程领域,都涉及到从强的背景噪声中提取弱信号的问题。基于BP神经网络结构及算法的方法,可从宽带背景噪声中提取微弱有用信号。该方法对微弱信号的提取是在网络节点连接权向量域进行的,因此从根本上解决了对提取信号的频率选择问题。二、BP网络权向量方法原理(BPWV:Back-PropagationWeightVector)图7-21弱信号提取模型取背景噪声的期望值mx作为期待响应dk,即假设背景噪声是平稳的,则mx可用时间平均值近似估计。并假设弱信号出现之前,网络学习过程已经结束,即网络连接权矩阵的期望值已收敛于由背景噪声所确定的最佳权向量。于是有偏移权向量7.4.5基于神经网络的传感器静态误差综合修正法一、问题提出

传感器输出特性大都为非线性,且常受各种环境因素影响,故存在多种误差因素。这些误差因素通常同时存在,相互关联,若用一般方法对传感器静态误差进行综合修正往往很困难。将神经网络用于传感器静态误差的综合修正,实验证明会取得好的效果,说明此方法的可行性。二

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论