ch04决策支持系统(神经网络)_第1页
ch04决策支持系统(神经网络)_第2页
ch04决策支持系统(神经网络)_第3页
ch04决策支持系统(神经网络)_第4页
ch04决策支持系统(神经网络)_第5页
已阅读5页,还剩71页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

决策支持系统系统工程专业本科学员必修课第四章智能决策支持系统和智能技术的决策支持人工智能基本原理本章内容智能决策支持系统概述专家系统与智能决策支持系统神经网络的决策支持遗传算法的决策支持机器学习的决策支持4.4神经网络的决策支持4.4.1神经网络原理4.4.2感知机模型4.4.4神经网络专家系统及实例4.4.5神经网络的容错性4.4.3反向传播模型

传统AI能解决的问题局限于人的逻辑思维所能解决的问题之内,完全是一种逻辑思维的模拟。而人脑除逻辑思维外,还有形象思维与逻辑表象等,因而单靠传统的AI不能很好地模拟智能。另外,对于无法形式化的问,难以用AI来求解。传统人工智能的局限性

人工神经元网络具有自学习能力,将其与传统AI结合起来是模拟智能的很好的途径。ANN是一种模仿人脑行为及其活动过程的推理分析方法,它具有自学习能力,能从一系列的数据中综合出规律性的知识——较为有效地解决了专家系统知识获取困难。传统人工智能的局限性人类大脑大约包含有1.4

1011个神经元,每个神经元与大约103~105个其它神经元相连接,构成一个极为庞大而复杂的网络,即生物神经网络。4.4.1神经网络原理神经生理学和神经解剖学的研究结果表明,神经元是脑组织的基本单元,是神经系统结构与功能的单位。神经元组成:树突:神经纤维较短,是接收信息的。细胞核:对接收到的信息进行处理。轴突:较长的神经纤维,是发出信息的。突触:一个神经元的轴突末端与另一个神经元的树突之间密切接触。神经元具有如下性质:(1)多输入单输出;(2)突触具有加权的效果;(3)信息进行传递;(4)信息加工是非线性。人工神经元:人工神经元是组成人工神经网络的基本处理单元,简称为神经元。心理学家麦克洛奇(W.McCulloch)和数理逻辑学家皮兹(W.Pitts)于1943年首先提出了一个简化的神经元模型,称为M-P模型。1、神经元的数学模型图:

其中:I1、I2、…In为输入;Oi为该神经元的输出;Wij为外面神经元与该神经元连接强度(即权),

为阈值,f(X)为该神经元的作用函数。

每个神经元的状态0i(i=1,2,…n)只取0或1,分别代表抑制与兴奋。每个神经元的状态,由M-P方程决定:

其中:Wij是神经元之间的连接强度,Wij(i≠j)是可调实数,由学习过程来调整。

i是阈值,f(x)是阶梯函数。

MP(MccullochPitts)模型[0,1]阶梯函数

(0,1)S型函数:神经元作用函数

[-1,1]阶梯函数(-1,1)S型函数:

神经网络的学习,主要是指通过一定的学习算法或规则实现对突触结合强度(权值)的调整。ANN学习规则主要有四种,即联想式学习、误差传播学习、概率式学习和竞争式学习。2、神经网络的学习(1)联想学习:联想学习是模拟人脑的联想功能,典型联想学习规则是由心理学家Hebb于1949年提出的学习行为的突触联系,称为Hebb学习规则。Hebb规则若i与j两种神经元之间同时处于兴奋状态,则它们间的连接应加强,即:△Wij=

SiSj(

>0) 设α=1,当Si=Sj=1时,△Wij=1,在Si,Sj中有一个为0时,△Wij=0;这一规则与“条件反射”学说一致,并得到神经细胞学说的证实。

(2)误差传播学习:以1986年Rumelhart等人提出的δ规则(BP算法)为典型

δ规则中,误差由输出层逐层反向传至输入层,由误差修改网络权值,直至得到网络权值适应学习样本。基本思想:3、神经网络的几何意义(1)神经元与超平面

其中Wij为神经元j到神经元i的连接权值,

i为神经元的阈值。神经元xj(j=1,2,…,n)相当于n维空间(x1,x2,…,xn)中一个结点的n维坐标(为了便于讨论,省略i下标记)。

由n个神经元(j=1,2,…,n)对连接于神经元i的信息总输入Ii为:

它代表了n维空间中,以坐标xj为变量的一个超平面。其中Wj为坐标的系数,

为常数项。令:当n=2时,“超平面”为平面(x1,x2)上的一条直线:当n=3时,“超平面”为空间(x1,x2,x3)上的一个平面:从几何角度看,一个神经元代表一个超平面。(2)超平面的作用n维空间(x1,x2,…,xn)上的超平面I=0,将空间划分为三部分。 平面本身超平面上的任意结点满足于超平面方程,即:超平面上部P超平面上部P的任意结点满足于不等式,即超平面上部P超平面上部P的任意结点满足于不等式,即超平面下部Q超平面下部Q的任意结点满足于不等式,即(3)作用函数的几何意义神经网络中使用的阶梯型作用函数f(x)把n维空间中超平面的作用和神经网络作用函数结合起来,即

它的含义为:超平面上部P的任意结点经过作用函数后转换成数值1;超平面上任意结点和超平面下部Q上的任意结点经过作用函数后转换成数值0。通过以上分析可知,一个神经元将其它神经元对它的信息总输入I,作用以后(通过作用函数)的输出,相当于:

该神经元所代表的超平面将n维空间(n个输入神经元构成的空间)中超平面上部结点P转换成1类,超平面及其下部结点转换成0类。结论:神经元起了一个分类作用。(4)线性样本与非线性样本定义:对空间中的一组两类样本,当能找出一个超平面将两者分开,称该样本是线性样本。若不能找到一个超平面将两者分开,则称该样本是非线性样本。(5)非线性样本变换成线性样本利用超平面分割空间原理,对一个非线性样本它是不能用一个超平面分割开。用多个超平面分割空间成若干区,使每个区中只含同类样本的结点。这种分割完成了一种变换,使原非线性样本变换成二进制值下的新线性样本。4.4.2感知机模型神经元i的输入为Ii=∑WijSj

Sj为j神经元的输出,Wij为神经元j到神经元i的连接权重。神经元i的输出为:Oi=f(Ii)其中f(x)为神经元作用函数。(一般采用[0,1]阶梯函数)WijSji1…j…n1……设i神经元的期望输出为Di,它与计算输出Oi之差为:

δi=Di-Oi通过样本学习,应该让权重Wij使δi尽可能小。利用著名的德尔塔规则(deltarule)计算:△Wij=αδi

Sj(α为常数)δ规则:Wij(t+1)=Wij(t)+△Wij更新权重Wij。实例─两值逻辑加法输入X1X2输出d(期望)000011101111

该例子的感知机计算公式:┌W1┐(k)┌W1┐(k-1)┌x1┐││=││+c(d-y)││└W2┘└W2┘└x2┘

初值┌W1┐┌0┐c=1└W2┘└0┘

其中d为期望输出,y为计算输出。yx1x2w1w2(0,1)(1,1)(1,0)(0,0)定义:对空间中的一组两类样本,当能找出一个超平面将两者分开,称该样本是线性可分样本。

计算过程:K=1:y=f(0+0)=0

d=0

┌W1┐(1)┌W1┐(0)┌0┐┌0┐┌0┐┌0┐││=││+(0-0)││=││+││=││└W2┘└W2┘└0┘└0┘└0┘└0┘K=2,y=f(0+1)=0

d=1

┌W1┐(2)┌W1┐(1)┌0┐┌0┐┌0┐┌0┐││=││+(1-0)││=││+││=││└W2┘└W2┘└1┘└0┘└1┘└1┘K=3,y=f(0+0)=0

d=1

┌W1┐(3)┌W1┐(2)┌1┐┌0┐┌1┐┌1┐││=││+(1-0)││=││+││=││└W2┘└W2┘└0┘└1┘└0┘└1┘

K=4,y=f(1+1)=f(2)=1

d=1

┌W1┐(4)┌W1┐(3)┌1┐┌1┐┌0┐┌1┐││=││+(1-1)││=││+││=││└W2┘└W2┘└1┘└1┘└0┘└1┘再循环一次,将会得到所有例子的(d-y)值均为零,即权值(W1=1,W2=1)满足所有实例要求。对XOR异或问题:输入x1x2输出d000011101110样本是非线性样本,即找不到一个超平面,将两类样本分开。(0,1)(1,1)(1,0)(0,0)修改后的权值,又回到了初始状态,如果继续计算,将出现无限循环,永远不会收敛。该例充分说明感知机对非线性样本无效。感知机对XOR问题的计算:同二值逻辑样本计算,K=1,2,3的计算相同,K=4时有:

y=f(1+1)=f(2)=1┌W1┐(4)┌W1┐(3)┌1┐┌1┐┌-1┐┌0┐││=││+(0-1)││=││+││=││└W2┘└W2┘└1┘└1┘└-1┘└0┘4.4.3反向传播模型BP模型是1985年由Rumelhart等人提出的1.多层网络结构神经网络不仅有输入节点、输出节点,而且有一层或多层隐节点,如图:TliWijBP算法的学习过程:信息的正向传播,误差的反向传播。由正向传播和反向传播组成,在正向传播过程中,输入信息从输入层经过隐层,再传向输出层,每一层的神经元的状态值只影响下一层神经元的状态值;如果在输出层不能得到期望的输出值,则转入反向传播,将误差信号沿逆向通路修正各层神经元的权值,使得网络的总误差值收敛到极小。网络开始训练时选用较小的随机给定权值与内部阈值(θ),通过反复利用训练样本调整权值,直到误差函数下降到可以接受的允许值(如0.05)。BP神经网络对非线性数据分类是十分有效的。2.作用函数为(0,1)S型函数3.误差函数第p个样本误差计算公式可定义为:对于整个网络系统的总均方误差为:E=1/p∑Ep,其中p为训练样本总数,tpiQpi分别为实际输出和计算输出。网络训练的目的是找到一组权值,使E极小化。LMS算法用梯度下降法,即权重的增量正比于误差的负导数:用误差去修正输出层和隐节点的权值,误差反向传播。误差反向传播示意图BP模型计算公式汇总1.输出结点输出Ol计算公式(1)输入结点的输入xj(2)隐结点的输出:其中:Wij连接权值,结点阈值。(3)输出结点输出:其中:Tij连接权值,结点阈值。输出层(隐结点到输出结点间)的修正公式输出结点的期望输出:tl误差控制:所有样本误差:其中一个样本误差:其中,p为样本数,n为输出结点数。(3)误差公式: (4)权值修正:其中k为迭代次数。(5)阈值修正: 2、隐结点层(输入结点到隐结点间)的修正公式(1)误差公式:(2)权值修正:(3)阈值修正:··

l(2)

i(1)Ol=f(-

l)yi=f(-

i)

l(k+1)=

l(k)+

l(2)

修正(Tli,

l),(Wij,

i)修正权

l(2)=Ol(1-Ol)(dl-Ol)Til(k+1)=Til(k)+

l(2)yi

i(1)=

yi(1-yi)Wij(k+1)=Wij(k)+

i(1)xj输出节点lTli

隐节点

i修正权Wij输入节点xj

i(k+1)=

i(k)+

i(1)BP网络的学习过程⑴样本的正向传播过程(由输入计算到输出)⑵误差的逆向传播过程(由误差修改权值)⑶记忆训练过程:⑴、⑵的交替过程(反复修改权值)⑷学习的收敛过程:Emin例:对如下BP神经网络,写出它的计算公式(含学习公式),并对其初始权值以及样本x1=1,x2=0,d=0进行一次神经网络计算和学习(该系数

=1,各点阈值为0)。作用函数为:··

l(2)

i(1)Ol=f(-

l)yi=f(-

i)

l(k+1)=

l(k)+

l(2)

修正(Tli,

l),(Wij,

i)修正权

l(2)=Ol(1-Ol)(dl-Ol)Til(k+1)=Til(k)+

l(2)yi

i(1)=

yi(1-yi)Wij(k+1)=Wij(k)+

i(1)xj输出节点lTli

隐节点

i修正权Wij输入节点xj

i(k+1)=

i(k)+

i(1)回顾神经元i的误差δi=Di-Oi△Wij=αδi

Sj(α为常数)δ规则:Wij(t+1)=Wij(t)+△Wij1、感知机模型2、反向传播模型TliWij结合实例讲解感知机模型对线性数据分类是十分有效的信息的正向传播,误差的反向传播结合实例讲述BP网络的几何意义反向传播模型对非线性数据分类是十分有效的实例分析1.异或问题的BP神经网络按问题要求,设置输入结点为两个(x1,x2),输出结点为1个(z),隐结点定为2个(y1,y2)。各结点阈值和网络权值见图说明。2.计算机运行结果迭代次数:16745次;总误差:0.05隐层网络权值和阈值:

w11=5.24,w12=5.23,w21=6.68,w22=6.64

1=8.01

2=2.98输出层网络权值和阈值:

T1=-10,T2=10,

=4.793.用计算结果分析神经网络的几何意义隐结点代表的直线方程

y1:5.24x1+5.23x2-8.01=0

即x1+0.998x2-1.529=0 y2:6.68x1+6.64x2-2.98=0即x1+0.994x2-0.446=0 图、隐结点代表的直线方程直线y1和y2将平面(x1,x2)分为三区:y1线上方区,x1+x2-1.53>0,x1+x2-0.45>0y1,y2线之间区,x1+x2-1.53<0,x1+x2-0.45>0y2线的下方区,x1+x2-1.53<0,x1+x2-0.45<0对样本点:点(0,0)落入y2的下方区,经过隐结点作用函数f(x)(暂取它为阶梯函数),得到输出y1=0,y2=0。点(1,0)和点(0,1)落入y1,y2线之间区,经过隐结点作用函数f(x),得到输出均为y1=0,y2=1。点(1,1)落入y1线上方区,经过隐结点作用函数f(x),得到输出为y1=1,y2=1。结论:隐结点将x1,x2平面上四个样本点 (0,0),(0,1),(1,0),(1,1)变换成三个样本点 (0,0),(0,1),(1,1)它已是线性样本。输出结点代表的直线方程Z:-10y1+10y2-4.79=0,即 -y1+y2-0.479=0 直线Z将平面(y1,y2)分为两区Z线上方区-y1+y2-0.479>0Z线下方区-y1+y2-0.479<0对样本点:点(0,1)(即y1=0,y2=1)落入Z线上方区,经过输出结点作用函数f(x)(暂取它为阶梯函数)得到输出为:Z=1点(0,0)(即y1=0,y2=0),点(1,1)(即y1=1,y2=1)落入Z线下方区,经过输出结点作用函数f(x)得到输出为:Z=0结论:输出结点将y1,y2平面上三个样本(0,0),(0,1),(1,1)变换成两类样本Z=1和Z=0。4.神经网络结点的作用隐结点作用是将原非线性样本(四个)变换成线性样本(三个)。输出结点作用是将线性样本(三个)变换成两类(1类或0类)。对于作用函数f(x)取为S型函数,最后变换成两类为“接近1类”和“接近0类”。4.4.4神经网络专家系统及实例1.神经元网络知识库体现在神经元之间的连接强度(权值)上。它是分布式存贮的,适合于并行处理。2.推理机是基于神经元的信息处理过程。它是以M-P模型为基础的,采用数值计算方法。一、神经网络专家系统特点3.神经元网络有成熟的学习算法。感知机采用delta规则。反向传播模型采用误差沿梯度方向下降以及隐节点的误差由输出结点误差反向传播的思想进行的。4.容错性好。由于信息是分布式存贮,在个别单元上即使出错或丢失,所有单元的总体计算结果,可能并不改变。神经网络专家系统进一步发展的核心问题:

学习算法的改进与提高二、神经元网络专家系统结构用户知识工程师

学习样本

确定系统框架

神经元学习形成学习样本

知识库(分布式)实际问题参数输入模

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论