模式识别非监督学习方法聚类分析_第1页
模式识别非监督学习方法聚类分析_第2页
模式识别非监督学习方法聚类分析_第3页
模式识别非监督学习方法聚类分析_第4页
模式识别非监督学习方法聚类分析_第5页
已阅读5页,还剩50页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

模式识别非监督学习方法聚类分析第一页,共五十五页,编辑于2023年,星期六§1.1基本概念分类与聚类的区别分类:用已知类别的样本训练集来设计分类器(监督学习)聚类(集群):用事先不知样本的类别,而利用样本的先验知识来构造分类器(无监督学习)举例:小孩区分桔子和苹果第二页,共五十五页,编辑于2023年,星期六相似性与距离聚类相似性:模式之间具有一定的相似性,这既表现在实物的显著特征上,也表现在经过抽象以后特征空间内的特征向量的分布状态上。聚类分析定义:对一批没有标出类别的模式样本集,按照样本之间的相似程度分类,相似的归为一类,不相似的归为另一类,这种分类称为聚类分析,也称为无监督分类。模式识别高性价比安卓智能手机排行榜_热门促销智能手机推荐第三页,共五十五页,编辑于2023年,星期六分类依据:一个样本的特征向量相当于特征空间中的一点,整个模式样本集合的特征向量可以看成特征空间的一些点,点之间的距离函数可以作为模式相似性的度量,并以此作为模式的分类依据。聚类分析是按不同对象之间的差异,根据距离函数的规律进行模式分类的。距离函数的定义特征向量的特性

第四页,共五十五页,编辑于2023年,星期六聚类分析的有效性:聚类分析方法是否有效,与模式特征向量的分布形式有很大关系。若向量点的分布是一群一群的,同一群样本密集(距离很近),不同群样本距离很远,则很容易聚类;若样本集的向量分布聚成一团,不同群的样本混在一起,则很难分类;对具体对象做聚类分析的关键是选取合适的特征。特征选取得好,向量分布容易区分,选取得不好,向量分布很难分开。第五页,共五十五页,编辑于2023年,星期六特征空间维数特征信息的冗余性:在对象分析和特征提取中,往往会提取一些多余的特征,以期增加对象识别的信息量。高维特征空间分析的复杂性:特征空间维数越高,聚类分析的复杂性就越高高维特征空间降维降维方法:相关分析:特征向量的相关矩阵R,分析相关性主成分分析:以正交变换为理论基础独立成分分析:以独立性为基础第六页,共五十五页,编辑于2023年,星期六特征的表示数值表示:对于实际问题,为了便于计算机分析和计算,特征必须进行量化。对不同的分析对象,量化方法是不一样的。连续量的量化:用连续量来度量的特征,只需取其量化值,如长度、重量等。分级量的量化:度量分析对象等级的量,用有序的离散数字进行量化,比如学生成绩的优,良,中,差可用1,2,3,4等量化表示。定性量的量化:定性指标,没有数量关系,也没有次序要求。比如,性别特征:男和女,可用0和1来进行表示。第七页,共五十五页,编辑于2023年,星期六两类模式分类的实例区分一摊黑白围棋子选颜色作为特征进行分类,用“1”代表白,“0”代表黑,则很容易分类;选大小作为特征进行分类,则白子和黑子的特征相同,不能分类。第八页,共五十五页,编辑于2023年,星期六§1.2相似性测度和聚类准则

一、相似性的测度欧氏距离:

表征两个模式样本在特征空间中的Euclid距离,模式X和Z间的距离愈小,则愈相似注意:X和Z的量纲必须一致

消除量纲不一致对聚类的影响:特征数据的正则化(也称标准化、归一化),使特征变量与量纲无关。第九页,共五十五页,编辑于2023年,星期六马氏距离:表征模式向量X与其均值向量m之间的距离平方,C是模式总体的协方差矩阵,引入协方差矩阵,排除了样本之间的相关性。欧式距离中,如果特征向量中某一分量的值非常大,那么就会掩盖值小的项所起到的作用,这是欧式距离的不足;当采用马氏距离,就可以屏蔽这一点。因为相关性强的一个分量,对应于协方差矩阵C中对角线上的那一项的值就会大一些。再将这一项取倒数,减小该影响。当协方差为对角矩阵时,各特征分量相互独立;当协方差为单位矩阵时,马氏距离和欧氏距离相同。第十页,共五十五页,编辑于2023年,星期六其中分别是样本向量的第k个分量;当m=2时,明氏距离就是欧氏距离;当m=1时,就是街坊(cityblock)距离:

一般化的明氏距离第十一页,共五十五页,编辑于2023年,星期六角度相似性函数:表征了模式向量x和z之间夹角的余弦,反映了几何上的相似性,当坐标系旋转或者尺度变换,夹角余弦测度均保持不变(对位移和线性变换不成立)如果x和z的分量用二值来表示,0表示不具有某种特征,1表示具有某种特征,则夹角余弦测度表示x和z具有共有特征数目的相似性测度。第十二页,共五十五页,编辑于2023年,星期六二、聚类准则的确定

试探法

凭直观和经验,针对实际问题选择相似性测度并确定此相似性测度的阈值,然后选择一定的训练样本来检验测度和阈值的可靠程度,最后按最近邻规则指定某些模式样本属于某一个聚类类别。举例:对于欧氏距离,它反映了样本间的近邻性,但将一个样本分到不同类别时,还必须规定一距离测度的阈值准则作为聚类的判别准则第十三页,共五十五页,编辑于2023年,星期六

聚类准则函数法

聚类就是将样本进行组合分类以使类别可分性为最大,因此聚类准则应是反映类别间相似性(或可分性)的函数;同时,类别又由一个个样本组成,因此类别的可分性与样本间的差异性直接相关。基于此,聚类准则函数J,应是模式样本集{x}和模式类别{Sj,j=1,2,…,c}的函数,即第十四页,共五十五页,编辑于2023年,星期六J代表了分属于c个聚类类别的全部模式样本与其对应类别模式均值之间的误差平方和;对于不同的聚类形式,J值是不同的,聚类的目的是:使J值达到极小;由此可见:聚类分析转化为寻找准则函数极值的最优化问题;此种聚类方法通常称为最小方差划分,适用于各类样本密集且数目相差不多,而不同类间的样本又明显分开的情况(图例解释)—把握类内距离与类间距离的问题;聚类准则函数有许多其他形式。第十五页,共五十五页,编辑于2023年,星期六§1.3基于试探的聚类搜索算法一、按最邻近规则的简单试探法

给N个待分类的模式样本,要求按距离阈值T分类到聚类中心算法过程:Step1:取任意的样本xi作为一聚类中的初始值,如令z1=x1,计算若D21>T,确定一新的聚类中心z2=x2否则x2∈以z1为中心的聚类;第十六页,共五十五页,编辑于2023年,星期六Step2:假如已有聚类中心z1和z2,计算若D31>T和D32>T,则确定一新的聚类中心z3=x3;Stepi:………第十七页,共五十五页,编辑于2023年,星期六讨论这种方法的优点:计算简单,若模式样本的集合分布的先验知识已知,则可获得较好的聚类结果。在实际中,对于高维模式样本很难获得准确的先验知识,因此只能选用不同的阈值和起始点来试探,并对结果进行验证。这种方法在很大程度上依赖于以下因素:第一个聚类中心的位置(初始化问题)待分类模式样本排列次序(聚类样本的选择问题)距离阈值T的大小(判决准则问题)样本分布的几何性质(样本的固有特性问题)第十八页,共五十五页,编辑于2023年,星期六二、最大最小距离算法基本思想:根据实际问题选择距离函数,以试探类间距离为最大作为预选出聚类中心的条件。核心就是:最大类间距离,最小类内距离。算法过程描述:先按照距离最大最小的方法预选出聚类中心,在按照按最邻近规则将模式分类到聚类中心。对于N个待分类的模式样本,要求按最大最小距离法分类到聚类中心。Step1:选任意一模式样本xi作为第一聚类中心z1第十九页,共五十五页,编辑于2023年,星期六Step2:选离z1最远距离的样本xj作为第二聚类中心z2Step3:逐个计算各模式样本与之间的距离,并选出其中的最小距离。Step4:在所有模式样本的最小值中选出最大距离,若该最大值达到的一定分数比值以上,则将相应的样本取为第三聚类中心。Stepi:………算法性能分析:算法复杂度增加,在选聚类中心过程中消耗较大的资源。第二十页,共五十五页,编辑于2023年,星期六§1.4系统聚类系统聚类:先把每个样本作为一类,然后根据它们间的相似性或相邻性聚合,类别由多到少,直到获得合适的分类要求为止;相似性、相邻性用距离表示。聚合的关键就是每次迭代中形成的聚类之间以及它们和样本之间距离的计算,不同的距离函数会得到不同结果。两类间距离计算准则:(注意理解)1.最短距离:两类中相距最近的两样本间的距离第二十一页,共五十五页,编辑于2023年,星期六

2.最长距离:两类中相距最远的两个样本间的距离。3.中间距离:最短距离和最长距离都有片面性,因此有时用中间距离。设ω1类和ω23类间的最短距离为d12,最长距离为d13,ω

23类的长度为d23,则中间距离为:上式推广为一般情况:第二十二页,共五十五页,编辑于2023年,星期六4.重心距离:均值间的距离5.类平均距离:两类中各个元素两两之间的距离平方相加后取平均值第二十三页,共五十五页,编辑于2023年,星期六6.离差平方和:设N个样本原分q类,则定义第i类的离差平方和为:离差平方和增量:设样本已分成ωp,ωq两类,若把ωp,ωq合为ωr类,则定义离差平方增量:第二十四页,共五十五页,编辑于2023年,星期六算法过程描述:

Step1:初始距离矩阵的计算D(0)说明:(1)距离矩阵元素的值是类与类之间的距离,距离的定义有多种。(2)距离矩阵,是对称矩阵。对角上线的元值表示同类之间的距离,即为0。Step2:对于第n次迭代的距离矩阵D(n)进行聚合第二十五页,共五十五页,编辑于2023年,星期六

说明:距离矩阵中选择距离最小的,如果有相同的可以任选其中一个,要忽略对角线上的元素;也可以把相同的全部聚合。Step3:根据第n次聚合结果,计算合并后的新类别之间的距离矩阵D(n+1)

说明:合并类的距离计算应该符合距离的运算规则。若距离反映的是两类的重心距离,那么合并后,应该仍然反映的重心的距离。Step4:收敛性判决(距离阈值D的设定)说明:算法的收敛条件判断准则的确定。第二十六页,共五十五页,编辑于2023年,星期六例1:如下图所示(简单的一维情况)1、设全部样本分为6类,2、计算距离矩阵D(0)第二十七页,共五十五页,编辑于2023年,星期六Ω1Ω2Ω3Ω4Ω5Ω6Ω10Ω290Ω31160Ω44916640Ω52543640Ω6642581190第二十八页,共五十五页,编辑于2023年,星期六3、求最小元素:4、把Ω1,Ω3合并Ω7=(1,3)Ω4,Ω6合并Ω8=(4,6)5、作距离矩阵D(1),按最小距离准则Ω7Ω2Ω8Ω5Ω70Ω290Ω849160Ω525440第二十九页,共五十五页,编辑于2023年,星期六6、若合并的类数没有达到要求,转3。否则停止。3、求最小元素:4、Ω8,Ω5,Ω2合并,ω9=(2,5,4,6)第三十页,共五十五页,编辑于2023年,星期六§1.5分解聚类分解聚类:把全部样本作为一类,然后根据相似性、相邻性分解。目标函数为:两类均值方差N:总样本数,:ω1类样本数:ω2类样本数,第三十一页,共五十五页,编辑于2023年,星期六分解聚类框图初始分类调整分类方案最终结果目标函数达到最优?第三十二页,共五十五页,编辑于2023年,星期六例2:已知21个样本,每个样本取二个特征,原始资料矩阵如下表:样本号12345678910x10022445667x265534312101112131415161718192021-4-2-3-3-5100-1-1-3322021-1-2-1-3-5第三十三页,共五十五页,编辑于2023年,星期六∴目标函数∴解:第一次分类时计算所有样本,分别划到时的E值,找出最大E值对应的样本。1、开始时,第三十四页,共五十五页,编辑于2023年,星期六

2、分别计算当划入时的E值把划入时有第三十五页,共五十五页,编辑于2023年,星期六然后再计算把划入时对应的E值,找出一个最大的E值。

一直计算下去…

把划为的E值最大。∴

E(1)=56.6再继续进行第二,第三次迭代…计算出E(2),E(3),…第三十六页,共五十五页,编辑于2023年,星期六次数E值

156.6279.16390.904102.615120.116137.157154.108176.159195.2610213.0711212.01第三十七页,共五十五页,编辑于2023年,星期六第10次迭代划入时,E最大。于是分成以下两类:∴每次分类后要重新计算的值。可用以下递推公式:第三十八页,共五十五页,编辑于2023年,星期六第三十九页,共五十五页,编辑于2023年,星期六§1.6动态聚类——兼顾系统聚类和分解聚类一、动态聚类方法概要①先选定某种距离作为样本间的相似性度量;②确定评价聚类结果的准则函数;③给出某种初始分类,用迭代法找出使准则函数取极值的最好的聚类结果。第四十页,共五十五页,编辑于2023年,星期六选代表点初始分类分类合理否最终分类修改分类YN动态聚类框图第四十一页,共五十五页,编辑于2023年,星期六二、代表点(种子点)的选取方法:代表点就是初始分类的聚类中心数K

①凭经验选代表点,根据问题的性质、数据分布,从直观上看来较合理的代表点K;②将全部样本随机分成K类,计算每类重心,把这些重心作为每类的代表点;

③用前K个样本点作为代表点。第四十二页,共五十五页,编辑于2023年,星期六④按密度大小选代表点:

以每个样本作为球心,以d为半径做球形;落在球内的样本数称为该点的密度,并按密度大小排序。首先选密度最大的作为第一个代表点,即第一个聚类中心。再考虑第二大密度点,若第二大密度点距第一代表点的距离大于d1(人为规定的正数)则把第二大密度点作为第二代表点,,否则不能作为代表点,这样按密度大小考察下去,所选代表点间的距离都大于d1。d1太小,代表点太多,d1太大,代表点太小,一般选d1=2d。对代表点内的密度一般要求大于T。T>0为规定的一个正数。第四十三页,共五十五页,编辑于2023年,星期六三、初始分类和调整①选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心的距离,把所有样本归于最近的聚类中心点,形成初始分类,再重新计算各聚类中心,称为成批处理法。②选一批代表点后,依次计算其它样本的归类,当计算完第一个样本时,把它归于最近的一类,形成新的分类。再计算新的聚类中心,再计算第二个样本到新的聚类中心的距离,对第二个样本归类。即每个样本的归类都改变一次聚类中心。此法称为逐个处理法。③直接用样本进行初始分类,先规定距离d,把第一个样品作为第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类中心距离小于d,就把第二个样本归于第一类,否则第二个样本就成为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大于还是小于d,决定分裂还是合并。第四十四页,共五十五页,编辑于2023年,星期六最佳初始分类:如图所示,随着初始分类K的增大,准则函数下降很快,经过拐点A后,下降速度减慢。拐点A就是最佳初始分类。第四十五页,共五十五页,编辑于2023年,星期六四、K-均值算法:成批处理法例:已知有20个样本,每个样本有2个特征,数据分布如下图第一步:令K=2,选初始聚类中心为样本序号x1x2x3x4x5x6x7x8x9x10特征x10101212367特征x20011122266x11x12x13x14x15x16x17x18x19x2086789789896777788899第四十六页,共五十五页,编辑于2023年,星期六第四十七页,共五十五页,编辑于2023年,星期六第四十八页,共五十五页,编辑于2023年,星期六因为所以,同理

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论