2016级模式识别结课作业改课程小结_第1页
2016级模式识别结课作业改课程小结_第2页
2016级模式识别结课作业改课程小结_第3页
2016级模式识别结课作业改课程小结_第4页
2016级模式识别结课作业改课程小结_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

模式是由大量的取样,学习归纳而成的,人们将所看到的信息与此模式比较,从而判断此信息是否属于该分类模式,这个过程就是模式识别的过程。模式识别(Pttrnognition)(数值的、文字的和逻辑关系的)信息进行处理和分析,解释的过程,c++作为开发工具,编写了“黄瓜病害图像处理与识别系统”,实现了对在本文中采用的是图像的方法,经过下面的对比之后,最终决定选择数码因为彩色位图占用空间大,所以将彩像灰度化从特征提取方法上看,许多特征不是独立的,,影响模式识别的速度和准确性。为了设计出的分类器又快又准确,一般需要对原始特征进行优化选择,,征空间的维数。14个特征参数,8两类问题下有二维和两种情况,二维的情况反映如下当提取的特征大于二时,即为n维情况,当g1(x)=WTX=0为判别边界。当n=2时,二维情况的判别边界为一直线。当n=3时,判别边界为一平面,n>3时,则判别边界为一超平面。ω1ω2,,ωm个类别。可分三种情况:第一况,MM个判别函数,且具有以下的性质:每一类别可用单个判别边界M(M-1)/2个判别平面。对于两类问题,M=2,则有一个判别平面。同理,三间减小,比第一种情况小的多。第三种情况:每类都有一个判别函数,存在M个判别函数。判别边界:gi(x)=gj(x)或gi(x)-gj(x)=0。就是说,要判别模式XXM个判别函数中,判别函数最大的那个类别就是X对于M(M≥2)类模式分类,第一、三种情况需要M个判别函数,第两种情况需要M(M-1)/2个判别函数。对于第一种情况,每个判别函数都要把一种类别(i类)的模式与其余M-1种类别的模式划分开,而不是仅将一类与另一类划分开。实际上,一个类的模式分布要比M-1类模式分布更,因此后两种大,则比较容易设计出具有较能的分类器。只要条件总希望把特征取得多一些;另外,由于客观上的需要,为了突出而且会影响到分类的效果,产生“特征维数”问题。供的特征不要重复,即去掉那些相关性强且没有增加分类信息的特征。征空间降到低,这时的特征叫二次特征,它们一般是原始特征的某种组出主要因素。但“提取”和“选择”解。特征选择时,前m个最好的不一定组合后也是最好的。特征提取可以看作类域是不同的区域。显然,区域的部分越小或完全没有,类别的可分我将R、N、E、O3准则进行数据预处理,去除标,峭度,均值,方差,最大值,幅值,绝对平均值。再绘制出各种N、E两组数据的绝对平均在日常生活中我们经常进行聚类分析,具体的例子有,市场销售:帮助市划;土地使用:在一个陆地观察数据库中标识那些土地使用相似的地区;:对了汽车的客户,标识那些有较高平均赔偿成本的客户;城市规划:根据类型、价格、地理位置等来划分不同类型的住宅;研究:根据地质断层的特点把已观察到的中心分成不同的类。(Unsupervised (重量、长度、速度次序量----(等级、技能、学识);名义量----(、状态、种类)。方法的有效羊(sheep) 蓝鲨(blueshark)蜥蜴(lizard)毒蛇(viper)猫 海鸥(seagull)(goldfish)绯鲵鲣(red-mullet)蛙(frog)1)减少数据:许多时候,当数据量N很大时,会使数据处理变得很费力。因m(m<<N)来处理,根据上一次作业的经验,这次我仍然选择N、E两组数据进行分组,首先对我的数据预处理思想做一个简介,若随量X服从一个数学期望为μ、方差为σ^2N(μ,σ^2)。其概率密度函数为正态分布的期望我用的k-means绍。该方法首先从nk个对象作为初始聚类中心;而对于配给与其最相似的(聚类中心所代表的)始收敛为止。一般都采用均方差作为标准测度函数.k个聚类具有以下特点:各最后的分类结果如下根据各种发生的先验概率进行决策一般具有较大的风险。减少这种风险的办法是通过科学实验、、统计分析等方法获得较为准确的信息,以修正先验概率。利用定理求得后验概率,据以进行决策的方法,称为4两的乘法法则:P(A1B)=边际概率:如果A1和A2是互斥完备的,P(B)=P(A1)P(B/A1)+两的定理:如果A1和A2是互斥完备的,其中某个的发生是B发生的必要条件。则

/B)= P(A1)P(B/A1)+n个的定理:如果A1,A2,⋯,An是互斥完备的,其中某个的发生是B发生的必要条件。则P(A/B)= P(A1)P(B/A1)+P(A2)P(B/A2)+⋯+一般的决策方法大多用的是不完备的信息或概率,而决策能对信息的价值或是否需要新的信息做出科学的判断。它能对结果的可能性加以数量化的评价,而不是像一般的决策方法那样,对结果或者是完全相信,或者是完全不相信。如果说任何结果都不可能完全准确,先验知识或概率也不是完全可以相信的,那么决策则巧妙地将这两种信息有机地结合起来了。有些数据必须使用概率,有些人不太相信,这也妨碍了决设U是给定的待识别对象的全体的集合,U中的每一对象up个特性指标u1,u2,…,up。每个特性指标所刻画的是对象up个特性指标确定的每一个对象u,可记为u=(u1,u2,…,up),此式称为特性向量。设识别对象集合U可分为n个类别,且每一个类别均是U上的一个模糊集,记作:A1,A2,…,An,则称它们为模糊模式。2)3)识别判断。模糊统计法的基本思想是对论域U上的一个确定元素v0是否属于论域上的一个可变动的清晰集合A3作出清晰的判断。对于不同的试验者,清晰集合A3可以有不同的边界,但它们都对应于同一个模糊集A。模糊统计法的计算步骤是:在每次统计中,v0是固定的,A3的值是可变的,作n次试验,其模糊统计可按下式v0对A的隶属频率=v0∈A的次数/随着n的增大,隶属频率也会趋向稳定,这个稳定值就是v0对A的隶属度例证法的主要思想是从已知有限个μA的值,来估计论域U上的模糊子AU代表全体人类,A是“高个子的人”A是一个模糊子集。为了确定μA,先确定一个高度值h,然后选定几个语言真值(即一句话的真实程度)中的一个来回答是否算“高个子”。如语言真值可分为“真的”、“大致真的”、“似真似假”、“大致”和“”五种情况,并且分别用数字1、0.75、0.5、0.25、0来表示这些语言真值。对n个不同高度h1、h2、…、hn都作同样的询问,即可以得到A的隶属度函数的离散表示。值来确定隶属函数的法。在许多情况下,经常是初步确定粗略的隶属函按照某种隶属原则对对象u进行判断,它应归属于哪一模糊模式。常对于对象u,若存在k0∈{1,2,…,n}0Ak=0则认为对象u优先属于模糊模式Ai规定一个阈值λϵ[0,1]。对于对象1如果max{Ai(u)}≥λ,并且存在k0∈{1,2,…,n}0Ak=0则认为对象u优先属于模糊模式Ai2如果max{Ai(u)}<λ,则作 识别”判断,查找原因另作在之前的内容中待识别的对象u是确定单个元素,即所要识别的对象u是域UU上的模糊子集。这是我们所讨论设U是给定的待识别对象的全体的集合,U可分为nA1,A2,…,An,U中的每一对象具有p个特性指标,每个特性指标所刻画的是对象的某个特征。如果U中的每个对象是以模糊集B的形式给出的,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论