智能信息处理技术实验报告_第1页
智能信息处理技术实验报告_第2页
智能信息处理技术实验报告_第3页
智能信息处理技术实验报告_第4页
智能信息处理技术实验报告_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、智能信息处理技术实验报告学院(部): 班 级: 学 号: 姓 名: 指导老师: 实验一 感知器实验一、 实验目的1、 理解线性分类器的分类原理2、 掌握感知器算法,利用它对输入的数据进行分类二、 实验原理 感知器算法是通过训练模式的迭代和学习算法,产生线性可分的模式判别函数。感知器算法就是通过对训练模式样本集的“学习”得出判别函数的系数解。三、 实验内容(1)简单分类问题(percept1):设计单一感知器神经元来解决一个简单的分类问题:将4个输入向量分为两类,其中两个输入向量对应的目标值为1,另两个对应的目标值为0.输入向量为:p=-1 -0.5 0.2 -0.1; -0.3 0.5 -0.

2、5 1.0目标向量为:t=1 1 0 0程序如下:p=-1 -0.5 0.2 -0.1; -0.3 0.5 -0.5 1.00;t=1 1 0 0;plotpv(p,t);pause;net=newp(-1 1; -1 1,1);watchon;cla;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1);e=1;net=init(net);linehandle=plotpc(net.iw1,net.b1); while(sse(e) net,y,e=adapt(net,p,t); linehandle=plotpc(net.iw1,net.b1); dr

3、awnow;end;pause;watchoff; p=-0.5;1.2;a=sim(net,p);plotpv(p,a);thepoint=findobj(gca,'type','line');set(thepoint,'color','red');hold on;plotpv(p,t);plotpc(net.iw1,net.b1);hold off;disp('end of percept1');实验截图: (2)多个感知器神经元的分类问题(percept2):将上例的输入向量扩充为10组,将输入向量分为4类,

4、即输入向量为:p=0.1 0.7 0.8 0.8 1.0 0.3 0.0 -0.3 -0.5 -1.5; 1.2 1.8 1.6 0.6 0.8 0.5 0.2 0.8 -1.5 -1.3 输出向量为:t=1 1 1 0 0 1 1 1 0 0; 0 0 0 0 0 1 1 1 1 1程序如下:p=0.1 0.7 0.8 0.8 1.0 0.3 0.0 -0.3 -0.5 -1.5; 1.2 1.8 1.6 0.6 0.8 0.5 0.2 0.8 -1.5 -1.3;t=1 1 1 1 1 0 0 0 0 0; 0 0 0 0 0 1 1 1 1 1;plotpv(p,t);net=newp(

5、-1.5 1;-1.5 1,2);figure;watchon;cla;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1);e=1;net=init(net);linehandle=plotpc(net.iw1,net.b1);while(sse(e) net,y,e=adapt(net,p,t); linehandle=plotpc(net.iw1,net.b1,linehandle); drawnow;end;watchoff;figure;p=2;-1;a=sim(net,p);plotpv(p,a);thepoint=findobj(gca,&#

6、39;type','line');set(thepoint,'color','red');hold on;plotpv(p,t);plotpc(net.iw1,net.b1);hold off;disp('end of percept2');实验截图: (3)输入奇异样本对网络训练的影响(percept3)当网络的输入样本中存在奇异样本时(即该样本向量相对其他所有样本向量特别大或特别小),此时网络训练时间将大大增加,如:输入向量为:p=-0.5 -0.5 0.3 -0.1 -40; -0.5 0.5 -0.5 1.0 50

7、 ;输出向量为:t=1 1 0 0 1;解决此问题只需用标准化感知器学习规则训练即可大大缩短训练时间原始感知器学习规则的权值调整为: 标准化感知器学习规则的权值调整为:,由函数learnpn()实现实验程序:p=-0.5 -0.5 0.3 -0.1 -40; -0.5 0.5 -0.5 1.0 50;t=1 1 0 0 1;plotpv(p,t);net=newp(-40 1; -1 50,1);pause;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1);cla;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1

8、);e=1;net.adaptparam.passes=1net=init(net);linehandle=plotpc(net.iw1,net.b1); while(sse(e) net,y,e=adapt(net,p,t); linehandle=plotpc(net.iw1,net.b1,linehandle); drawnow;end;pause; p=0.7;1.2;a=sim(net,p);plotpv(p,a); thepoint=findobj(gca,'type','line');set(thepoint,'color',

9、9;red');hold on;plotpv(p,t);plotpc(net.iw1,net.b1);hold off;pause;axis(-2 2 -2 2);disp('end of percept3'); (4)线性不可分的输入向量(percept5)定义向量p=-0.5 -0.5 0.3 -0.1 -0.8; -0.5 0.5 -0.5 1.0 0.0 ;t=1 1 0 0 0;用感知器对其分类程序如下:p=-0.5 -0.5 0.3 -0.1 -400; -0.5 0.5 -0.5 1.0 500;t=1 1 0 0 1;plotpv(p,t);pause;

10、net=newp(-400 1; -1 500,1,'hardlim','learnpn');%net=newp(-400 1; -1 500,1);cla;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1); e=1;net.adaptparam.passes=1;net=init(net);linehandle=plotpc(net.iw1,net.b1); while(sse(e) net,y,e=adapt(net,p,t); linehandle=plotpc(net.iw1,net.b1,linehandle)

11、; drawnow;end;pause; p=0.7;1.2;a=sim(net,p);plotpv(p,a); thepoint=findobj(gca,'type','line');set(thepoint,'color','red');hold on;plotpv(p,t);plotpc(net.iw1,net.b1);hold off;pause;axis(-2 2 -2 2);disp('end of percept4'); (5)实验练习:1、设计一个matlab程序实现教材p25例3.1 2、即输入向

12、量为:p=0.1 0.7 0.8 0.8 1.0 0.3 0.0 -0.3 -0.5 -1.5; 1.2 1.8 1.6 0.6 0.8 0.5 0.2 0.8 -1.5 -1.3输出向量为:t=1 1 1 0 0 1 1 1 0 0对其进行分类程序如下:p=0.1 0.7 0.8 0.8 1.0 0.3 0.0 -0.3 -0.5 -1.5; 1.2 1.8 1.6 0.6 0.8 0.5 0.2 0.8 -1.5 -1.3t=1 1 1 0 0 1 1 1 0 0plotpv(p,t);net=newp(-40 1; -1 50,1);pause;plotpv(p,t);linehandl

13、e=plotpc(net.iw1,net.b1);cla;plotpv(p,t);linehandle=plotpc(net.iw1,net.b1);e=1;net.adaptparam.passes=1net=init(net);linehandle=plotpc(net.iw1,net.b1);while(sse(e) net,y,e=adapt(net,p,t); linehandle=plotpc(net.iw1,net.b1,linehandle); drawnow;end;pause; p=0.7;1.2;a=sim(net,p);plotpv(p,a); thepoint=fin

14、dobj(gca,'type','line');set(thepoint,'color','red');hold on;plotpv(p,t);plotpc(net.iw1,net.b1);hold off;pause;axis(-2 2 -2 2);disp('end of percept3'); 实验二 bp感知器一、实验目的1.理解线性分类器的分类原理。2.掌握bp算法,利用它对输入的数据进行分类。3.理解bp算法,使用bp算法对输入数据进行分类。二、实验原理由于硬限幅函数是非可微函数,不能实现多层神经网络的

15、一种有效的lms学习算法。而bp算法中所用到的是sigmoid型函数,它既具有完成分类所需的非线性特性,又具有实现lms算法所需的可微特性。采用s型函数的神经元的输入和输出之间的关系为 四、 实验内容1根据实验内容推导出输出的计算公式以及误差的计算公式2使用matlab编程实现bp多层感知器3调节学习率及隐结点的个数,观察对于不同的学习率、不同的隐结点个数时算法的收敛速度4改用批处理的方法实验权值的收敛,并加入动量项来观察批处理以及改进的的算法对结果和收敛速度的影响。内容一程序如下:close all clear echo on clc pause clc p=-1, -1, 2, 1; -1

16、, 4, 5, -3;t=0, 1, 1, 0;pause; clc net=newff(minmax(p),3,1,'tansig','purelin','traingdm')inputweights=net.iw1,1 inputbias=net.b1 layerweights=net.lw2,1 layerbias=net.b2 pause clc net.trainparam.show = 50; net.trainparam.lr = 0.05; net.trainparam.mc = 0.9; net.trainparam.epoch

17、s = 600; net.trainparam.goal = 1e-9 ; pause clc net,tr=train(net,p,t); pause clc a = sim(net,p) e = t - a mse=mse(e) pause clc echo off figure;plot(1:4),t,'-*',(1:4),a,'-o');figure;plot(1:4),t,'*',(1:4),a,'o');实验截图: 内容二实验程序:close all clear echo on clc pause clc p = -1

18、:0.05:1; randn('seed',78341223); t = sin(2*pi*p)+0.1*randn(size(p);plot(p,t,'+'); echo off hold on; plot(p,sin(2*pi*p),'-'); echo on clc pause clc pause clc net=newff(minmax(p),5,1,'tansig','purelin','traingdx'); pause clc net.trainparam.epochs = 5000;

19、 net = init(net); pause clc net,tr=train(net,p,t); pause clc a = sim(net,p); e = t - a; mse=mse(e) pause clc close all; plot(p,a,p,t,'*',p,sin(2*pi*p),'+'); pause; clc echo off 实验截图: 实验三 聚类分析实验一、实验目的 在科学技术、经济管理中常常要按一定的标准(相似程度或亲疏关系)进行分类。例如,根据生物的某些性状可对生物分类,根据土壤的性质可对土壤分类等。对所研究的事物按一定标准进行

20、分类的数学方法称为聚类分析,它是多元统计“物以类聚”的一种分类方法。由于科学技术、经济管理中的分类界限往往不分明,因此采用模糊聚类方法通常比较符合实际。二、模糊聚类分析的一般步骤1、第一步:数据标准化(1) 数据矩阵 设论域为被分类对象,每个对象又有个指标表示其性状,即 ,于是,得到原始数据矩阵为 。其中表示第个分类对象的第个指标的原始数据。(2) 数据标准化 在实际问题中,不同的数据一般有不同的量纲,为了使不同的量纲也能进行比较,通常需要对数据做适当的变换。但是,即使这样,得到的数据也不一定在区间上。因此,这里说的数据标准化,就是要根据模糊矩阵的要求,将数据压缩到区间上。通常有以下几种变换:

21、 平移·标准差变换 其中 , 。 经过变换后,每个变量的均值为0,标准差为1,且消除了量纲的影响。但是,再用得到的还不一定在区间上。 平移·极差变换 ,显然有,而且也消除了量纲的影响。 对数变换 取对数以缩小变量间的数量级。2、第二步:标定(建立模糊相似矩阵) 设论域,依照传统聚类方法确定相似系数,建立模糊相似矩阵,与的相似程度。确定的方法主要借用传统聚类的相似系数法、距离法以及其他方法。具体用什么方法,可根据问题的性质,选取下列公式之一计算。(1) 相似系数法 夹角余弦法 。 最大最小法 。 算术平均最小法 。 几何平均最小法 。以上3种方法中要求,否则也要做适当变换。

22、数量积法 ,其中 。 相关系数法 ,其中 ,。 指数相似系数法 ,其中 ,而 。(2) 距离法 直接距离法 ,其中为适当选取的参数,使得,表示他们之间的距离。经常用的距离有 海明距离 。 欧几里得距离 。 切比雪夫距离 。 倒数距离法 。其中为适当选取的参数,使得。 指数距离法 。3、第三步:聚类(求动态聚类图)(1)基于模糊等价矩阵聚类方法 传递闭包法 根据标定所得的模糊矩阵还要将其改造称模糊等价矩阵。用二次方法求的传递闭包,即=。再让由大变小,就可形成动态聚类图。 布尔矩阵法 布尔矩阵法的理论依据是下面的定理: 定理2.2.1 设是上的一个相似的布尔矩阵,则具有传递性(当是等价布尔矩阵时)

23、矩阵在任一排列下的矩阵都没有形如的特殊子矩阵。 布尔矩阵法的具体步骤如下: 求模糊相似矩阵的截矩阵. 若按定理2.2.1判定为等价的,则由可得在水平上的分类,若判定为不等价,则在某一排列下有上述形式的特殊子矩阵,此时只要将其中特殊子矩阵的0一律改成1直到不再产生上述形式的子矩阵即可。如此得到的为等价矩阵。因此,由可得水平上的分类 (2) 直接聚类法 所谓直接聚类法,是指在建立模糊相似矩阵之后,不去求传递闭包,也不用布尔矩阵法,而是直接从模糊相似矩阵出发求得聚类图。其步骤如下: 取(最大值),对每个作相似类,且 =,即将满足的与放在一类,构成相似类。相似类与等价类的不同之处是,不同的相似类可能有

24、公共元素,即可出现 ,.此时只要将有公共元素的相似类合并,即可得水平上的等价分类。 取为次大值,从中直接找出相似度为的元素对(即),将对应于的等价分类中所在的类与所在的类合并,将所有的这些情况合并后,即得到对应于的等价分类。 取为第三大值,从中直接找出相似度为的元素对(即),将对应于的等价分类中所在的类与所在的类合并,将所有的这些情况合并后,即得到对应于的等价分类。 以此类推,直到合并到成为一类为止。三、最佳阈值的确定 在模糊聚类分析中对于各个不同的,可得到不同的分类,许多实际问题需要选择某个阈值,确定样本的一个具体分类,这就提出了如何确定阈值的问题。一般有以下两个方法: 按实际需要,在动态聚类图中,调整的值以得到适当的分类,而不需要事先准确地估计好样本应分成几类。当然,也可由具有丰富经验的专家结合专业知识确定阈值,从而得出在水平上的等价分类 用f统计量确定最佳值。11 设论域为样本空间(样本总数为),而每个样本有个特征:,。于是得到原始数据矩阵,如下表所示,其中,称为总体样本的中心向量。四、实验内容

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论