第4章 计算智能1_第1页
第4章 计算智能1_第2页
第4章 计算智能1_第3页
第4章 计算智能1_第4页
第4章 计算智能1_第5页
已阅读5页,还剩74页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第4章计算智能2023/2/31《人工智能》信息科学与生命科学的相互交叉、相互渗透和相互促进是现代科学技术发展的一个显著特点。计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和发展正反映了当代科学技术多学科交叉与集成的重要发展趋势。什么是计算智能

把神经网络(NN)归类于人工智能(AI)可能不大合适,而归类于计算智能(CI)更能说明问题实质。进化计算、人工生命和模糊逻辑系统的某些课题,也都归类于计算智能。第一个对计算智能的定义是由贝兹德克(Bezdek)于1992年提出的。他认为,计算智能取决于制造者提供的数值数据,不依赖于知识;另一方面,人工智能应用知识精品。人工神经网络应当称为计算神经网络。2023/2/32《人工智能》

尽管计算智能与人工智能的界限并非十分明显,然而讨论它们的区别和关系是有益的。贝兹德克对这些相关术语给予一定的符号和简要说明或定义。他给出有趣的ABC:

A-Artificial,表示人工的(非生物的),即人造的

B-Biological,表示物理的+化学的+(??)=生物的

C-Computational,表示数学+计算机下图表示ABC及其与神经网络(NN)、模式识别(PR)和智能(I)之间的关系。

计算智能与人工智能的区别和关系2023/2/33《人工智能》

计算智能是一种智力方式的低层认知,它与人工智能的区别只是认知层次从中层下降至低层而已。中层系统含有知识(精品),低层系统则没有。ClassicalArtificialIntelligenceComputationalIntelligenceObjectKnowledgeDataMethodRigorousProbability2023/2/34《人工智能》当一个系统只涉及数值(低层)数据,含有模式识别部分,不应用人工智能意义上的知识,而且能够呈现出:(1)计算适应性;(2)计算容错性;(3)接近人的速度;(4)误差率与人相近,则该系统就是计算智能系统。

当一个智能计算系统以非数值方式加上知识(精品)值,即成为人工智能系统。2023/2/35《人工智能》ComputationalIntelligenceDarwinPrincipleCollectiveBehavior

ofSociety

Neural

NetworkEvolutionary

ComputationFuzzy

SystemOthersGenetic

AlgorithmEvolutionary

StrategyEvolutionaryprogrammingGenetic

ProgrammingParticleSwarmAntArtificialSystem2023/2/36《人工智能》4.1神经计算4.2模糊计算4.3粗糙集理论4.4进化计算4.5粒子群优化4.6蚁群算法本章主要内容:2023/2/37《人工智能》4.1

神经计算在广义上,神经网络可以泛指生物神经网络,也可以指人工神经网络。所谓人工神经网络(ArtificialNeuralNetwork)是指模拟人脑神经系统的结构和功能,运用大量的处理部件,由人工方式建立起来的网络系统。人脑是ANN的原型,ANN是对人脑神经系统的模拟。在人工智能领域中,在不引起混淆的情况下,神经网络一般都指的是ANN。2023/2/38《人工智能》4.1.1人工神经网络研究的进展萌芽期(20世纪40年代)1943年,心理学家McCulloch和数学家Pitts建立起了著名的阈值加权和模型,简称为M-P模型。发表于数学生物物理学会刊《BulletinofMethematicalBiophysics》。1949年,心理学家D.O.Hebb提出神经元之间突触联系是可变的假说——Hebb学习律。第一高潮期(1950~1968)以MarvinMinsky,FrankRosenblatt,BernardWidrow等为代表人物,代表作是单级感知器(Perceptron)。可用电子线路模拟。人们乐观地认为几乎已经找到了智能的关键。许多部门都开始大批地投入此项研究,希望尽快占领制高点。反思期(1969~1982)“异或”运算不可表示。二十世纪70年代和80年代早期的研究结果。认识规律:认识——实践——再认识2023/2/39《人工智能》4.1.1人工神经网络研究的进展(2)

第二高潮期(1983~1990)1)1982年,J.Hopfield提出循环网络。–用Lyapunov函数作为网络性能判定的能量函数,建立ANN稳定性的判别依据–阐明了ANN与动力学的关系–用非线性动力学的方法来研究ANN的特性–指出信息被存放在网络中神经元的联接上2)1984年,J.Hopfield设计研制了后来被人们称为Hopfield网的电路。较好地解决了著名的TSP问题,找到了最佳解的近似解,引起了较大的轰动。3)1985年,UCSD的Hinton、Sejnowsky、Rumelhart等人所在的并行分布处理(PDP)小组的研究者在Hopfield网络中引入了随机机制,提出所谓的Boltzmann机。2023/2/310《人工智能》4)1986年,并行分布处理小组的Rumelhart等研究者重新独立地提出多层网络的学习算法——BP算法,较好地解决了多层网络的学习问题。(Paker1982和Werbos1974年)。国内首届神经网络大会是1990年12月在北京举行的。再认识与应用(1991~)存在问题:应用面还不够宽结果不够精确存在可信度的问题对策:开发现有模型的应用,并在应用中根据实际运行情况对模型、算法加以改造,以提高网络的训练速度和运行的准确度。充分发挥两种技术各自的优势是一个有效方法。希望在理论上寻找新的突破,建立新的专用/通用模型和算法。进一步对生物神经系统进行研究,不断地丰富对人脑的认识。4.1.1人工神经网络研究的进展(3)

2023/2/311《人工智能》人工神经网络的特点

具有大规模并行协同处理能力。每一个神经元的功能和结构都很简单,但是由大量神经元构成的整体却具有很强的处理能力。具有较强的容错能力和联想能力。单个神经元或者连接对网络整体功能的影响都比较微小。在神经网络中,信息的存储与处理是合二为一的。信息的分布存提供容错功能–由于信息被分布存放在几乎整个网络中。所以当其中的某一个点或者某几个点被破坏时信息仍然可以被存取。具有较强的学习能力。神经网络的学习可分为有教师学习与无教师学习两类。由于其运算的不精确性,表现成“去噪音、容残缺”的能力,利用这种不精确性,比较自然地实现模式的自动分类。具有很强的普化(Generalization)能力与抽象能力。是大规模自组织、自适应的非线性动力系统。具有一般非线性动力系统的共性,即不可预测性、耗散性、高维性、不可逆性、广泛连接性和自适应性等等。2023/2/312《人工智能》物理符号系统和人工神经网络系统的差别项目物理符号系统人工神经网络处理方式逻辑运算模拟运算执行方式串行并行动作离散连续存储局部集中全局分布2023/2/313《人工智能》4.1.2人工神经网的结构

1、神经元及其特性

神经网络的结构是由基本处理单元及其互连方法决定的。

如图所示,神经元单元由多个输入xi,i=1,2,...,n和一个输出y组成。中间状态由输入信号的权和表示,而输出为:

wjnwj1::yjjx1xn

f(_)式中,j为神经元单元的偏置(阈值),wji为连接权系数(对于激发状态,取正值,对于抑制状态,取负值),n为输入信号数目,yj为神经元输出,t为时间,f(_)为输出变换函数。

2023/2/314《人工智能》函数

f(_)表达了神经元的输入输出特性。

往往采用0和1二值函数或S形函数。一种二值函数可由下式表示:其图像如图所示。如果把阈值θi看作为一个特殊的权值,则可改写为:其中,w0i=-θi,x0=12023/2/315《人工智能》

为用连续型的函数表达神经元的非线性变换能力,常采用s型函数,如下图所示。其中,第一个函数为常规的s型函数,其输出均为正值;第二个函数为双曲正切函数,其输出值可为正或负。2023/2/316《人工智能》2、人工神经网络的基本特性和结构

人工神经网络由神经元模型构成;这种由许多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其它神经元连接;存在许多(多重)输出连接方法,每种连接方法对应一个连接权系数。严格地说,人工神经网络是一种具有下列特性的有向图:

(1)对于每个节点i存在一个状态变量;

(2)从节点j至节点i,存在一个连接权系统数;

(3)对于每个节点i,存在一个阈值i;

(4)对于每个节点i,定义一个变换函数fi;对于最一般的情况,此函数的形式为:2023/2/317《人工智能》

人工神经网络的结构基本上分为两类:递归(反馈)网络和前馈网络。(1)递归网络

在递归网络中,多个神经元互连以组织一个互连神经网络,如图所示。有些神经元的输出被反馈至同层或前层神经元。因此,信号能够从正向和反向流通。Hopfield网络,Elmman网络和Jordan网络是递归网络有代表性的例子。递归网络又叫做反馈网络。2023/2/318《人工智能》

图中,实线指明实际信号流通而虚线表示反向传播。前馈网络例子有多层感知器(MLP)、学习矢量量化(LVQ)网络、小脑模型联接控制(CMAC)网络和数据处理方法(GMDH)网络等。

(2)前馈网络

前馈网络具有递阶分层结构,由一些同层神经元间不存在互连的层级组成。从输入层至输出层的信号通过单向连接流通;神经元从一层连接至下一层,不存在同层神经元间的连接,如图所示。

2023/2/319《人工智能》3、人工神经网络的主要学习算法

神经网络主要通过指导式(有师)学习算法和非指导式(无师)学习算法。此外,还存在第三种学习算法,即强化学习算法;可把它看做有师学习的一种特例。

(1)有师学习

有师学习算法能够根据期望的和实际的网络输出(对应于给定输入)间的差来调整神经元间连接的强度或权。因此,有师学习需要有个老师或导师来提供期望或目标输出信号。有师学习算法的例子包括Delta规则、广义Delta规则或反向传播算法以及LVQ算法等。2023/2/320《人工智能》(2)无师学习无师学习算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。无师学习算法的例子包括Kohonen算法和Carpenter-Grossberg自适应谐振理论(ART)等。

(3)强化学习如前所述,强化(增强)学习是有师学习的特例。它不需要老师给出目标输出。强化学习算法采用一个“评论员”来评价与给定输入相对应的神经网络输出的优度(质量因数)。强化学习算法的一个例子是遗传算法(GA)。2023/2/321《人工智能》4.1.3人工神经网的典型模型及其算法

迄今为止,已经开发和应用了30多种人工神经网络模型。在这里,我们对一些典型网络模型及其算法进行介绍。1、反向传播(BP)模型2、Hopfield网络3、自适应共振理论(ART)模型2023/2/322《人工智能》

1、反向传播(BP)模型

网络拓扑结构输入层隐藏层输出层2023/2/323《人工智能》输入向量、输出向量的维数、网络隐藏层的层数和各个隐藏层神经元的个数的决定了网络拓扑增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。BP网一般都选用二级(3层)网络。因为可以证明如果BP网络中隐层单元可以根据需要自由设定,那么一个三层网络可以实现以任意精度近似任意连续函数。网络的构成

神经元的网络输入:

neti=x1w1i+x2w2i+…+xnwni神经元的输出(s型函数):

O=f(net)=1/(1+exp(-net))

f’(net)=exp(-net)/(1+exp(-net))2=O-O2=O(1-O)2023/2/324《人工智能》BP算法基本思想样本集:S={(X1,Y1),(X2,Y2),…,(Xs,Ys)}逐一根据样本集中的样本(Xk,Yk)计算出实际输出Ok及其误差E1,然后对各层神经元的权值W(1),W(2),…,W(L)各做一次调整,重复这个循环,直到∑Ep<ε(所有样本的误差之和)。用输出层的误差调整输出层权矩阵,并用此误差估计输出层的直接前导层的误差,再用输出层前导层误差估计更前一层的误差。如此获得所有其它各层的误差估计,并用这些估计实现对权矩阵的修改。形成将输出端表现出的误差沿着与输入信号相反的方向逐级向输入端传递的过程。2023/2/325《人工智能》BP算法训练过程概述样本:(输入向量,理想输出向量)权初始化:“小随机数”与饱和状态;“不同”的权值保证网络可以学。1、向前传播阶段:(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;(2)计算相应的实际输出Op:Op=FL(…(F2(F1(XpW(1))W(2))…)W(L))2、向后传播阶段——误差传播阶段:(1)计算实际输出Op与相应的理想输出Yp的差;(2)按极小化误差的方式调整权矩阵。(3)网络关于第p个样本的误差测度:(4)网络关于整个样本集的误差测度:2023/2/326《人工智能》输出层权的调整其中,是学习因子。BP算法应用的不是基本的δ学习,而是一种扩展的δ学习规则。但是对于所有的δ学习规则而言,某神经元的权值修正量都正比于该神经元的输出误差和输入。BP算法输出层对误差调整为f’(net)(y-o)。ANpANqwpqwpq第L-1层第L层2023/2/327《人工智能》隐藏层权的调整ANhANpANqANmAN1……whppk-1wpqqk1kwp1wpmqm第k-2层第k-1层第k层2023/2/328《人工智能》隐藏层权的调整δpk-1的值和δ1k,δ2k,…,δmk有关。不妨认为δpk-1:

通过权wp1对δ1k做出贡献,通过权wp2对δ2k做出贡献,……通过权wpm对δmk做出贡献。2023/2/329《人工智能》BP算法中学习规则的理论推导该算法中δ学习规则的实质是利用梯度最速下降法,使权值沿误差函数的负梯度方向改变。误差测度方法:用理想输出与实际输出的方差作为相应的误差测度:2023/2/330《人工智能》最速下降法(1)最速下降法,要求E的极小点,取EwijEwij2023/2/331《人工智能》最速下降法(2)其中,为学习率。2023/2/332《人工智能》输出层若ANj为一个输出层神经元,则有:Oj=f(netj)容易得到:故输出层按下列公式修改权值:2023/2/333《人工智能》隐藏层(1)由于Oj对于E的作用是通过下一层的各节点的输入/输出体现的,所以可应用连锁法来计算:O1ANH1OH1ANjOjANHnOHnAN1net1ANkOkNetkANnOnnetn…………wijANiOi隐藏层2023/2/334《人工智能》隐藏层(2)2023/2/335《人工智能》隐藏层(3)故隐藏层按下列公式修改权值:2023/2/336《人工智能》BP算法中的几个问题(1)收敛速度问题收敛速度很慢,其训练需要很多步迭代。局部极小点问题逃离/避开局部极小点:修改W的初值并不是总有效。逃离——统计方法;[Wasserman,1986]将Cauchy训练与BP算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。网络瘫痪问题在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常小,进而将导致训练速度降得非常低,最终导致网络停止收敛。2023/2/337《人工智能》BP算法中的几个问题(2)稳定性问题用修改量的综合实施权的修改连续变化的环境,它将变成无效的步长问题BP网络的收敛是基于无穷小的权修改量步长太小,收敛就非常慢步长太大,可能会导致网络的瘫痪和不稳定自适应步长,使得权修改量能随着网络的训练而不断变化。[1988年,Wasserman]网络隐层中神经元数目及层数的选取尚无理论直到,一般凭借经验选取。2023/2/338《人工智能》

2、Hopfield网络

前面我们讨论了BP网络。BP网络是一类典型的前馈网络。其它前馈网络有感知器(Perception)、自适应线性网络和交替投影网络等。前馈网络是一种具有很强学习能力的系统,结构比较简单,且易于编程。前馈网络通过简单非线性单元的复合映射而获得较强的非线性处理能力,实现静态非线性映射。不过,前馈网络缺乏动态处理能力,因而计算能力不够强。还有一类人工神经网络,即反馈神经网络,它是一种动态反馈系统,比前馈网络具有更强的计算能力。反向网络可用一个完备的无向图表示。本节将以霍普菲尔德(Hopfield)网络为例,研究反馈神经网络的模型算法和学习示例。2023/2/339《人工智能》Hopfield网络模型

Hopfield离散随机神经网络模型是由J.J.Hopfield于1982年提出的。1984年,他又提出连续时间神经网络模型。这两种模型的许多重要特性是密切相关的。这个模型具有完全对称的部件间连接。网络状态用称为“能量函数”的量来定义,网络的迁移过程能够解释为能量级小化过程。Hopfield首先将能量函数的概念引入神经网络,将神经网络的拓扑结构与所要解决的问题对应起来,并将之转化成神经网络动力学系统的演化问题,开辟了解决优化等问题的新途径。他将神经网络与RC有源电路相对应,便于VLSI实现,具有很大前景。

2023/2/340《人工智能》y1y2yn-1yn12n-1n...x1x2xn-1xn

Hopfield网络一般只有一个神经元层次,每个神经元的输出都与其它神经元的输入相连,是一种单层全反馈网络。如图所示。

Hopfield网络中神经元之间的权值一般是对称的。但每个神经元都没有到自身的联接。神经元i和神经元j之间相互连接的权值相等,即wij=wji。因此此时,网络一定能够收敛到一个稳定值。否则,则网络可能会不稳定,无法收敛。2023/2/341《人工智能》离散Hopfield网络每个单元均有一个状态值,它取两个可能值之一。设在某一个时刻t,神经元i的状态为Ui(t),则在t+1时刻的状态为:其中,wij为神经元i何j之间的连接权值,i为第i个神经元的阈值。2023/2/342《人工智能》离散Hopfield网络有两种工作方式:

(1)异步工作方式:在某一时刻,只有一个神经元进行演化,其余神经元的输出保持不变。

(2)同步工作方式:在任何时刻,所有的神经元同时按照上式演化。Hopfield是一个非线性动力系统,其稳定性是一个很重要的问题。当网络处于稳定点时,每个神经元的输出满足:

Ui(t+1)=Ui(t)。Hopfield提出,如果把神经网络的各平衡点设想为存储于该网络的信息,而且网络的收敛性保证系统的动态特性随时间而达到稳定,那么这种网络就成为按内容定址的存储器或称为联想存储器。2023/2/343《人工智能》Hopfield网络算法

(1)设置互联权值

(2)对未知类别的采样初始化

式中,xsi为S类采样的第i个分量,可为+1或-1;采样类别数为m,节点数为n。

yi(0)=xi

式中,yi(t)为节点i在时刻t的输出;当t=0时,yi(0)就是节点i的初始值,xi为输入采样的第i个分量,也可为+1或-1。(3)迭代运算(4)重复迭代

直至每个输出单元不变为止,即Uj(t+1)=Uj(t)2023/2/344《人工智能》Hopfield网络算法

2023/2/345《人工智能》

3、自适应共振理论(ART)模型(1)适用于平稳的、静态的环境。客体、客体间的各种关系以及观察矢量的各种统计特征一般不会随时间而变化。(2)神经网络的学习是在教师指导下的有监督学习。学习状态与工作状态是截然分开的,不能边学习边工作。(3)学习方式不会适应客体的变化。误差准则也是固定的,不能随着环境的变化而相应调整或改变。(4)有可能陷入误差局部极小点,造成错误结果。前馈型与反馈型人工神经网络已经得到了广泛应用。但是它们与人脑工作特点还有很多区别,表现出一些缺点。

人脑的学习方式是自主的,可以在无教师指导下自学,具有自组织特点,具有弹性和可塑性,并且人对外界的输入信号作出响应时,既通过“由底向上”

,又通过“由顶向下”

的方式。2023/2/346《人工智能》自适应共振理论(AdaptiveResonanceTheory)就是一种更接近于人脑工作特点的自组织ANN模型。自适应共振理论ART(AdaptiveResonanceTheory)模型是美国Boston大学的S.Grossberg和A.Carpenet在1976年提出的。ART目前已经发展了三代。第一代ART1是针对二进制信号的。第二代ART2是针对任意模拟信号的。第三代ART3兼容了前两代的功能,还将两层神经网络扩大为任意多层神经网络并且在神经元的运行模型中纳入了人神经元生物电化学反应的机制。ART模型的基本学习方式是竞争学习机制。2023/2/347《人工智能》竞争学习与竞争网络

竞争学习的基本思想:只有竞争获胜的单元进行权值修正,其它单元不动。当获胜单元的输入状态为1,相应的权值增加;当相连输入单元状态为0,相应权值减小。学习过程中,权值越来越接近于相应的输入状态。竞争网络的结构如图所示2023/2/348《人工智能》在竞争网络中,令tjk为节点j与节点k之间的侧抑制连接权:时间t+1时各节点的输出状态与时间t时的输出关系为:其中,然后获胜单元的权值进行调整:wij(t+1)=wij(t)+η(sj(t)-wij(t))其中η是学习因子,取一个小正数。S(t)表示经过规格化以后的输入向量X(t)。调整的结果就是使权值向量趋向于S(t)。

后学习到的记忆内容可能会冲掉原有的学习记忆内容,从而导致一些错误。所以简单的竞争学习机制不能保证记忆有足够的牢固性。2023/2/349《人工智能》ART模型

为了解决已有记忆被冲掉的矛盾,ART网络在竞争学习机制的基础上又加上了由顶向下的自稳定机制。2023/2/350《人工智能》ART工作原理

(1)竞争选择的原理不变。输出向量的各个分量中只有一项为1,其余各项为0。(2)对学习算法调整。首先由输出向量Y(t)产生一个自顶向下向量Z(t):

其中w’是自顶向下的权重。然后比较Z(t)与规格化输入向量S(t),计算其相似度θ。根据θ值的不同情况分别作如下处理:①如果两个向量相似度很高,即θ值接近于1,则转入第(3)步。②如果两个向量相似度不够高,即θ值小于某个阈值,那么就要屏弃掉本次竞争的优胜者yj,再由其余单元中选出一个优胜者,即返回第(1)步。2023/2/351《人工智能》(3)调整优胜者的权值。权值调整如下,假设优胜端为L,

上述算法只有当新输入向量与已存入记忆中的某个老向量足够相似时,两者才能相互融合,即对相关权重进行调整,从而使长期记忆得以改变。这造成一种自适应谐振状态。这就是ART的名称来源。③如果K个输出端都搜遍了还不能满足相似性,则需要增加一个输出端,作为一个新类别。然后转入第(3)步。2023/2/352《人工智能》ART网络的特点学习和工作是分不开的。学习是自治和自组织的,学习过程无需教师指导,是一种无监督(unsupervised)学习。学习过程受自顶向下的模式向量指导,因此可以形成“集中注意”的状态,即可以有选择地学习,把注意力集中于某些特定的内容。权重的修正只涉及少数部分,比前馈网络有更高的学习效率。后者需要调整所有权值。可以完全避免陷入局部极小点的问题。2023/2/353《人工智能》4.2

模糊计算4.2.1模糊逻辑

模糊逻辑是建立在模糊集合理论基础上的,并以此建立了模糊逻辑推理。已经提出了Zadeh法,Baldwin法、Tsukamoto法、Yager法和Mizumoto法等方法,在此仅介绍Zadeh的推理方法。自从Zadeh在近似推理中引入复合推理规则以来,已经提出了多种模糊变量的隐含函数,它们基本上可以分为三类,即模糊合取、模糊析取和模糊蕴含。以合取、析取和蕴含定义为基础,利用三角范式和三角协范式,能够产生模糊推理中常用的蕴涵关系。

2023/2/354《人工智能》交xy=min(x,y)代数积xy=xy有界积xy=max{0,x+y-1}并xy=max(x,y)代数和x+y=x+y-xy有界和xy=min{1,x+y}三角范式用于定义近似推理中的合取,三角协范式用于定义近似推理中的析取。一个模糊规则IFxisATHENyisB,用隐含函数表示为:AB其中,A和B分别为U和V上的模糊集合,其隶属函数分别为A和B,可给出下列三个定义。三角范式三角协范式2023/2/355《人工智能》定义(模糊合取)对于所有uU,vV

,模糊合取为:式中,为三角范式的一个算子。定义(模糊析取)对于所有uU,vV

,模糊析取为:式中,为三角协范式的一个算子。2023/2/356《人工智能》定义(模糊蕴含)由AB所表示的模糊蕴含是定义在UV上的一个特殊的模糊关系,其关系及隶属函数为:(1)模糊合取(2)模糊析取(3)模糊蕴含(4)命题演算(5)假言推理(6)拒取式推理2023/2/357《人工智能》4.2.2模糊判决方法

在推理得到的模糊集合中取一个相对最能代表这个模糊集合的单值的过程就称作解模糊或模糊判决。模糊判决可以采用不同的方法:重心法、最大隶属度方法、加权平均法、隶属度限幅元素平均法。下面介绍各种模糊判决方法,并以“水温适中”为例,说明不同方法的计算过程。

假设“水温适中”的隶书函数为:

N(xi)=0.33/20+0.67/30+1.0/40+1.0/50+0.75/60+0.5/70+0.25/802023/2/358《人工智能》

所谓重心法就是取模糊隶属函数曲线与横坐标轴围成面积的重心作为代表点。理论上应该计算输出范围内一系列连续点的重心,即1、重心法

如:对于“水温适中”的例子,可求得:

u=(200.33+300.67+400.1+500.1+600.75+700.5+800.25)/(0.33+0.67+0.1+0.1+0.75+0.5+0.25)=48.22023/2/359《人工智能》

这种方法最简单,只要在推理结论的模糊集合中取隶属度最大的那个元素作为输出量即可。不过,要求这种情况下其隶属函数曲线一定是正规凸模糊集合(即其曲线只能是单峰曲线)。如果该曲线是梯形平顶的,那么具有最大隶属度的元素就可能不止一个,这时就要对所有取最大隶属度的元素求其平均值。举例:对于“水温适中”,按最大隶属度原则,有两个元素40和50具有最大隶属度1.0,那就要对所有取最大隶属度的元素40和50求平均值,执行量应取:

umax=(40+50)/2=452、最大隶属度法2023/2/360《人工智能》

系数加权平均法的输出执行量由下式决定

:3、加权系数法

式中,系数ki的选择要根据实际情况而定,不同的系统就决定系统有不同的响应特性。当该系数选择ki=N(xi)时,即取其隶属函数时,这就是重心法。在模糊逻辑控制中,可以通过选择和调整该系数来改善系统的响应特性。4、隶属度限幅元素平均法用所确定的隶属度值α对隶属度函数曲线进行切割,再对切割后等于该隶属度的所有元素进行平均,用这个平均值作为输出执行量,这种方法就称为隶属度限幅元素平均法。2023/2/361《人工智能》4.2.3模糊逻辑与神经网络的集成

模糊逻辑和神经网络已在理论和应用方面得到独立发展,然而近年来,人们把注意力集中到模糊逻辑与神经网络的集成上,以期克服各自的缺点。为此我们对模糊系统和神经网络系统进行比较。技术模糊系统神经网络知识获取人类专家(交互)采样数据集合(算法)不确定性定量与定性(决策)定量(感知)推理方法启发式搜索(低效)并行计算(高速)适应能力低高(调整连接权值)模糊系统与神经网络的比较2023/2/362《人工智能》

把模糊逻辑与神经网络集成起来,就形成了一种新的研究领域,即模糊神经网络(FNN)。实现这种组合的方法基本上可分为两种:寻求模糊推理算法与神经网络示例之间的功能映射找到一种从模糊推理系统到一类神经网络的结构映射1、模糊神经网络的原理(1)FNN的概念与结构定义(正则模糊神经网络RFNN)RFNN为一个具有模糊信号和(或)模糊权值得神经网络。可分为三类,即:①FNN1具有实数输入信号和模糊权值;②FNN2具有模糊输入信号和实数权值;③FNN3具有模糊输入信号和模糊权值。2023/2/363《人工智能》定义(混合模糊神经网络HFNN)HFNN是另一类FNN,它组合模糊信号和神经网络权值,应用加、乘等操作获得神经网络输入。下面以FNN3为例,说明模糊神经网络的内部计算:

设FNN3具有如图所示的结构。则:W21W2kW2KW1kX2X1VKVkYV1……1kK211W11图:神经网络FNN3X1,X2为模糊信号输入(表示为模糊集),权值为模糊权值。K个隐含神经元的输入为:Ik=X1W1k+X2W2k

,k=1,2,…,K而K个隐含神经元的输出为:

Zk=f(Ik),k=1,2,…,K则整个网络的输入输出为:IO=Z1V1+Z2V2+…+ZKVK

Yk=f(IO),k=1,2,…,K式中,使用了正则模糊运算。2023/2/364《人工智能》(2)FNN的学习算法

对于正则FNN,学习算法主要分为监督式学习和非监督式学习。主要的学习算法有如下几种。①模糊反向传播算法设训练集合为(Xl,Tl),1lL,Xl为输入,Tl为期望输出。对于Xl的实际输出为Yl。则使误差测量为最小。然后对反向传播中的标准δ规则进行模糊化,并用于更新权值。不过这个算法的收敛性还是一个值得研究的问题。2023/2/365《人工智能》

②基于α切割的反向传播算法为了改进模糊反向传播的性能,可以对模糊权值进行α切割,以提高传播效率。模糊集合A的α切割定义为:

A[α]={x|μA(x)α},0<α1

③遗传算法遗传算法是一种优化算法。神经网络的学习过程本质上是对权值进行调整,使得误差测量最小。许多优化算法广泛应用于神经网络的学习中。

④其它学习算法如,模糊混沌、粒子群算法、蚁群算法都可用于模糊神经网络的学习中。2023/2/366《人工智能》(3)FNN的逼近能力已经证明,正则前馈多层神经网络具有高度逼近非线性函数的能力。对于模糊神经网络人们也进行了大量研究。已得出结论,给予模糊运算和扩展原理的RFNN不可能成为通用近似器,HFNN因无需标准模糊运算为基础,而能够成为通用逼近器。这些结论对建立FNN控制器可能是有用的。2023/2/367《人工智能》4.3

粗糙集理论

粗糙集(RoughSet--RS)理论是由波兰数学家帕夫拉克(Pawlak)于1982年提出的,是一种处理不精确、不确定和不完全数据的新的数学计算理论,能够有效处理各种不确定信息,并从中发现隐含在数据中的知识,揭示事务和事件的内在规律。粗糙集理论与其它处理不确定或不精确问题的理论的最显著的区别在于,它不需要提供处理该问题所需的数据集合之外的任何先验信息,对问题的不确定性描述或处理比较客观。由于粗糙集理论在数据挖掘、机器学习与知识发现及决策分析等方面得到了广泛的应用,对它的研究也成为了一个热点。2023/2/368《人工智能》4.3.1粗糙集理论的基本概念和特点

粗糙集理论建立在分类机制的基础上,把分类理解为特定空间的等价关系。粗糙集理论把知识理解为对数据的划分,而每个被划分的集合称为概念。对于一个领域内的知识,粗糙集使用属性及其值来描述领域内的对象,各个属性不同的取值就构成了空间对象的一簇等价关系。如果两个物体同属于某个集合,则它们之间是不可分辨关系。2023/2/369《人工智能》

设U非空有限论域,R为U上的二元关系,则:称R为不可分辨关系;序对A=(U,R)称为近似空间;(x,y)U×U,若(x,y)R,则称对象在近似空间A中是不可分辨的;U/R是U上由R生成的等价类全体,它构成了U的一个划分。U/R中的集合称为基本集或原子集;若将U中的集合称为概念或知识,则A=(U,R)称为知识库,原子集表示基本概念或只是模块;任意有限的基本集的并和空集均称为可定义集,也称为精确集,否则称为不可定义集。1、粗糙集理论的基本概念2023/2/370《人工智能》粗糙集不需要先验信息

不像模糊集和概率,粗糙集分析方法仅利用数据本身提供的信息,不需要任何先验知识。粗糙集理论是一个强大的数据分析工具

表达和处理不完备信息、对数据进行约简、识别评估数据之间的关系、获取规则。粗糙集与模糊集描述了不完备信息的两个方面

模糊集合基于元素对集合的隶属程度的不同,强调集合本身的含混性。粗糙集基于不可分辨的关系,侧重分类。从粗糙集的观点看,不能清晰定义的原因是缺乏足够的领域知识,但可以用一对清晰集合逼近。2、粗糙集理论的特点2023/2/371《人工智能》

对于论域U上任意一个子集X,X不一定能用知识库中的知识来精确描述,即X可能为不可定义集,这时就用A的一对下近似aprX和上近似aprX来“近似”地描述。定义(下近似与上近似)下近似与上近似的定义如下:

X的下近似是由那些根据已有知识判断肯定属于X的对象所组成的最大集合,也称为X关于A的正域,记为POS(X)。

X的上近似是由那些根据已有知识判断可能属于X的对象所组成的最小集合。

由根据已有知识判断肯定不属于X的对象组成的集合称为X关于A的负域,记作NEG(X)。显然有

2023/2/372《人工智能》

X的边界域BN(X)定义为:如果BN(X)

=Φ,则称X关于R是清晰的;如果BN(X)≠Φ,则称集合X为关于R的粗糙集(roughset)。

以上有关粗糙集的概念如下图所示。

NEG(X)POS(X)BN(X)U/R

aprXX2023/2/373《人工智能》定义:X关于A的近似质量定义为:其中|X|表示集合X的元素个数。近似质量反映了知识X在知识库部分现有知识的百分比。定义:X关于A的近似精度定义为:近似精度反映了根据现有知识对X的了解程度。定义:X关于A的粗糙性测度定义为:粗糙性测度反映了知识的不完全程度。2023/2/374《人工智能》4.3.2粗糙集理论的数据和决策表约简

粗糙集理论中的知识表达方式一般采用信息表或称为信息系统的形式,它可以表示为四元有序组K

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论