第11章图像识别_第1页
第11章图像识别_第2页
第11章图像识别_第3页
第11章图像识别_第4页
第11章图像识别_第5页
已阅读5页,还剩37页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、数字图像处理第第十一十一章章 图像识别图像识别李熙莹李熙莹 副教授副教授http:/数字图像处理一、基本概念一、基本概念 让计算机具有认识或者识别图像的能力,即图像识别(模式识别)。 模式识别应用无所不在,是当今最活跃的研究领域之一。 医学:病灶 交通:车流量 遥感:区分农作物、道路、湖泊 文字识别数字图像处理 模式识别技术起源于人类自身对事物的认知分析过程,是依据一定的量度或观测基础把待识别模式划分到各自的模式类中去的过程。 图像识别(模式识别、目标图像识别(模式识别、目标识别识别):对物体的特征进行比较、分析、判断,从而将它们分类或识别。 模式:对物体描绘(如特征)的组合。模式:对物体描绘

2、(如特征)的组合。存在于时间和空间中,可以区别它们是否相同或相似的可观察的事物。 模式类:一个拥有某些共同性质的模式组。模式类:一个拥有某些共同性质的模式组。 w1、w2、w3 指模式所属的类别或同一类中模式的总体。 模式识别所得到的结果是一幅由明确意义的数值或符号构成的图像或图形文件。属于图像分析的范畴。1. 模式的概念模式的概念数字图像处理信息获取数据预处理特征提取和选择分类器设计分类决策训练过程输出结果 利用图像进行模式识别的系统 图像信息获取 信息加工处理图像分割,特征抽取与选择 判断、分类(与抽取特征方式密切相关,特征向量) 模式识别实际上包含了以下两个步骤: (1)特征提取和选择

3、(2)决策分类图11.1 模式识别系统的基本构成数字图像处理2. 常用的三种模式组合常用的三种模式组合(1) 模式矢量模式矢量 1936年,Fisher论文提出判别式分析技术,通过测量花瓣的宽度和长度识别三种不同类型的鸢(yuan)尾属植物的花。 Iris Setosa (多刺的) Iris Virginaca (单性的) Iris Versicolor (杂色的) x=(x1, x2)T, x1和 x2分别代表花瓣长度和宽度。 模式矢量 x=(x1, x2, xn)T 中元素性质取决于描述物理模式自身所采用的方法。数字图像处理图11.2 用两个度量描述三种鸢尾属植物的花花瓣长度(cm)花瓣宽

4、度(cm) 模式类模式类 w1、w2、w3分别表示Setosa (多刺的)、 Virginaca (单性的)和 Versicolor (杂色的)三种花。数字图像处理(2) 串串 适用于描述基于原始元素的较为简单的连接,通常和边界形状有关。图11.3 (a) 阶梯结构(b) 基于元素a和b的结构编码生成串描述ababab数字图像处理(3) 树树 树形结构分层有序结构 树形表示法从上到下的关系是“包含于”。数字图像处理3. 模式识别的主要方法模式识别的主要方法 统计模式识别统计模式识别 基于匹配的识别技术基于匹配的识别技术 统计学方法/决策论 抽取图像特征 矢量描述(定量描述):x=(x1, x2

5、, xn)T 结构(句法)模式识别 分析图像结构关系 串和数(结构描述,定性 ) 模糊模式识别方法 人工神经网络识别法人工神经网络识别法 统计学习理论和支持向量机识别方法数字图像处理二、统计模式识别二、统计模式识别(基于决策理论方法)(基于决策理论方法) 统计模式识别方法最终都要归结为分类的问题。 统计模式识别的过程数字图像处理1. 分类器分类器 基于使用决策(判别)函数分类器 对W个模式类w1, w2, , wW依照属性寻找W个判别函数d1(x), d2(x), , dW(x),若模式x属于类wi,则 di(x)dj(x), j=1, 2, , W; ji。 关键点:n维模式矢量x=(x1,

6、 x2, , xn)T的建立,即选择适当的特征产生描述参数。数字图像处理(1) 分类器的设计分类器的设计 设计目标: 建立分类器的逻辑结构 建立分类规则的数学基础 分类器计算出表示一个对象与某类典型之间的相似程度该对象特征的一个函数,用来确定该对象属于哪一类。 多数分类器的分类规则都转换成阈值规则,将测量空间划分成互不重叠的区域,每个类对应一个(或多个)区域。如果特征值落在某一个区域中,则将该对象归于相对应的类中。(某些区域可能在某种情况下“无法确定”)数字图像处理(2) 分类器的训练分类器的训练 目的:确定划分类别的阈值。 一般做法:用一组已知的对象训练分类器。训练集由每个类别中已被正确识别

7、的一部分对象组成。 训练分类器的规则: 简单的:将分类错误的总量降至最低(最小值) 使用损失函数,对不同的错误分类采用适当的加权。数字图像处理(3) 分类性能测量分类性能测量 直接对一组已知类别的对象的测试集进行分类,从而估计分类器的准确率。(测试集具有代表性,且没有错误)(测试集最好是独立的) 使用一组已知对象的测试集,估算每一类别中对象特征的PDF(概率密度分布函数) 预先分类代价高时,可以使用循环方法估计分类器的整体性能。以一个对象为测试对象,其他为训练样本。数字图像处理2. 特征选择特征选择 良好的特征应具有的特点: 可区别性:不同类被的特征值具有明显差异。 可靠性:同类对象特征值比较

8、接近。 独立性:各特征之间彼此不相关。 数量少:系统复杂度随特征个数(特征参量维数)迅速增长。 从许多可能的特征中选择一些付诸于度量并呈现给分类器的特征。 不断删去无用特征,组合有关联特征。 可以通过计算每类的特征值,进行分析选择。数字图像处理3. 匹配匹配 原理: 基于匹配的识别技术通过原型模式矢量表示每一个类。 未知模式被按照预先定义的度量赋予与其最相近的类。 方法: 最小距离分类器(最简单) 基于相关的方法 数字图像处理(1) 最小距离分类器最小距离分类器 在欧氏空间计算未知量和每一个原型矢量间的距离在欧氏空间计算未知量和每一个原型矢量间的距离。 例如,假设每个模式类的原型定义为该类模式

9、的平均矢量:则欧氏空间距离判据计算距离测度为:Di(x)的值是最小距离时,把x划归给类wi。 等同于评估函数: 并在di(x)得出最大数值时将x划归给类wi。 类wi 和wj决策边界: 应用条件:各类均值间距比各类半径大许多时效果很好。WjNjwxjjj, 2, 1,1xmWjDjj, 2, 1,)(mxxWjdjTjjTj, 2, 1,21)(mmmxx0)()(21)()()()(jiTjijiTjiijdddmmmmmmxxxx数字图像处理图11.4 Iris Versicolor (杂色的) 和Iris Setosa (多刺的)类的最小距离分类器的决策边界。黑点和方块是平均值。边界方程

10、: d12(x) = d1(x)-d2(x) = 2.8x1+1.0 x2-8.9 = 0花瓣长度(cm)花瓣宽度(cm)数字图像处理图11.5 美国Banker协会的E-13B字体的字符集和对应波形。字符设计在97个字中以便读取。每个字符用含有精细磁性材料的墨水印刷。(设计者保证大的均值分离和小的类分布的一个示例)数字图像处理(2) 相关匹配相关匹配 MN大小的图像f(x,y)和大小为JK的子图w(x,y)之间的相关: 式中,x = 0,1,2,M-1; y = 0,1,2,N-1; 和式代表图像w和 f 相互重叠的地方。 缺点:对图像w和 f 的幅度 变化过于敏感。sttysxwtsfyx

11、c),(),(),(图11.6 相关的排列数字图像处理2122),(),(),(),(),(),(),( stststwtysxwtsftsfwtysxwtsftsfyx 改进:在匹配过程中使用相关系数。式中,x = 0,1,2, M-1;y = 0,1,2, N-1; 是图像 w的像素平均值(只计算一次); 是 f 中与当前所在位置重合区域的像素平均值。wf数字图像处理图11.7 通过相关系数进行对象匹配(a)图像,(b)子图,(c) (a)和(b)的相关系数(匹配时出现最高值)数字图像处理5. 最佳统计分类器最佳统计分类器 基于统计概率方法基于统计概率方法 多数测量和判断物理事件的场合,统

12、常会产生随机的模式分类,因此对概率考虑十分重要。 最佳:平均的,产生分类错误的概率很低。(1) 概率论基础概率论基础 先验概率先验概率:表示在一个对象尚未被测量之前,对于对象所掌握的情况。(如P樱桃=1/3,P苹果=2/3) 条件概率条件概率:当给定对象属于类1时,对象直径为 x 的概率。记为p(x|w1)。数字图像处理(2) Bayes理论理论 Bayes理论将类隶属度先验概率、条件PDF和所进行的度量结合起来,计算出该对象属于每一类的概率,并据此赋予该对象最可能的类别。 对象测量后,该对象属于第i类的概率(后验概率)可以根据Bayes定理计算:其中 是一个使后验概率的和为1 的归一化因子。

13、)()()|()|(xpwPwxpxwPiii21)()|()(iiiwPwxpxp数字图像处理 一般情况:设每个对象有n个度量。特征向量x=(x1, x2, , xn)T。每个被测量对象对应于n维特征空间中的一个点。假设对象的类别m个。第i类隶属度的后验概率为:miiiniinniwPwxxxpwPwxxxpxxxwP1212121)()|,()()|,(),|(数字图像处理(3) Bayes风险风险 用任一特征向量将一对象归入任一类总有一定风险。 将一个对象归入某一类别的错分风险可以用代价(损失)函数(失效率)来定量分析。 设lij是第i类的对象归入第j类引起的损失。 分类正确(i=j)时

14、lij为0。 损害小的错分类值lij也较小。 危害严重的则lij较大。 假设,将一个对象分入第i类,由该分类导致的期望损失值为条件风险(条件平均风险或条件平均失效),等于该对象所有可能判属的m类所引入代价的平均。mjnjijnixxxwplxxxwR12121),|(),|(数字图像处理(4) Bayes决策规则决策规则 每个对象应该归入产生条件风险最小的类别中。 用Rm(x1, x2, , xn)表示相应于特征向量(x1, x2, , xn)T的最小风险。 使用Bayes决策的分类器长期风险称为Bayes风险: Bayes决策的总风险也是最小的。 Bayes分类器的决策函数: 哪个类的决策函

15、数值最大,模式x就归属于哪一个类。nnnmdxdxdxxxxpxxxRR212121),(),(WjwPwpdjjj, 2 , 1)()|()(xx数字图像处理(5) 高斯模式类的贝叶斯分类器高斯模式类的贝叶斯分类器 先考虑包含两个模式类(W=2)的一维问题(n=1),且两个模式类具有高斯密度,均值和标准差分别为m1、1和 m2、2 。则贝叶斯判别函数形式为:)(21)()|()(222)(jmxjjjjwPewPwxpxdjj图11.8 两个一维模式类的概率密度函数(PDF)若两各类出现几率相等,点 x0就是决策边界。数字图像处理图11.9 三维空间中的两个模式类和它们的贝叶斯判别边界(阴影

16、处)决策面:d1(x)-d2(x) = 8 x1-8x2 8x3 + 4 = 0数字图像处理示例示例使用使用Bayes分类器对多频谱数据的分类分类器对多频谱数据的分类图11.10 (a)多频谱图像,(b)使用Bayes分类器的机器分类结果图11.11 由多频谱扫描器生成的4幅数据图像经过配准后的模式矢量格式数字图像处理四、神经网络识别法四、神经网络识别法 一些具体情况:模式类的统计特性未知或无法估计最好是直接通过训练过程生成所需判别函数。 受生物神经系统启发产生,大量使用非线性元素的计算单元(神经元),类似大脑神经元的互联方式组织起来。具有对一些特定问题的适应能力和并行处理能力。 20世纪40

17、年代早期McCulloch和Pitts提出。 80年代Rumelhart、Hinton和Williams发展出“反向传播”方式学习的德尔塔(delta)规则,为多层机器提供了一种有效的训练方法。 结构:由许多互联的相同的节点(处理单元,PE)构成。每个PE从“上游”的几个PE接受输入信号,产生一个标量输出,传给“下游”的一组PE。数字图像处理1. 处理单元处理单元 基本处理单元的动作:将输入向量同权向量相乘,再经过一次S形变换,即得到输出值。 此输出再通过网络的相互连接传递下去,成为许多PE的输入。 可用点积函数表示: X是输入向量,W是处理单元的权重向量(weight vector),O为输

18、出。1SgxggONiiiTWX g为激励函数,非线性,形状为S形,单调增加,可微分。其变量趋向正负无穷大时,函数值分别为1和0。数字图像处理2. 工作过程工作过程 (监督)学习训练 已知类别的特征向量随机呈现给神经网络。 每次输入都使PE之间的连接权中根据一种副定的规则得到细微调整,使得网络输出朝正确方向转变。 直到每个PE都收敛到合适的权重集为止。 应用接受特征向量作为输入,产生一个输出向量标志该未知对象属于不同类别的可能性。 输入未知对象的特征向量到第一层的所有PE。通常特征向量会增加一维,其值恒为1。 这提供一个附加权重,在函数g中起到偏移量的作用。 输入信息经过不同层传播,使输出层上

19、产生相应的输出向量,并根据输出的结果将该对象划分到某一类中。 绝大多数神经网络采用数字化仿真实现。用软件或数字信号处理芯片模拟并行计算。先模拟配置,然后训练。数字图像处理3. 多层前馈神经网络多层前馈神经网络(BP, Multilayer feedforward neural network)图11.12 多层前馈神经网络模型放大部分为神经元基本结构,偏移量 j当作不同的权值处理数字图像处理(1) 分类器训练分类器训练 一个训练模式:某一特定的输入向量与其对应的目标输出向量。 例如,对两层网络进行训练。 训练开始时,所有连接权设为-0.5,0.5区间的随机值。所有输入向量经过适当的比例调整后,

20、使得各个分量的最小值和最大值分别为0.1和0.9。 随机挑选训练模式,输入特征向量,得到输出向量后,同目标向量做比较。根据两向量之间的差别对隐含层和输出层之间连接的权重系数做调整,使得输出向量略微趋近于目标向量。 之后,再对与输出层相连的隐含层的连接权重做相似的调整。数字图像处理(2) 多层网络的训练多层网络的训练 训练过程自顶向下,先从输出层的PE开始。输出层(k=N)的第j个结点的第i个权重系数的调整量为:(1) 广义的(德儿塔,delta)学习规则,基于梯度下降法。 其中误差 为目标向量与实际输出向量的第j个分量(期望的输出值)之间的差别。 接着,每一隐含层结点的权重系数用下式进行调整:(2) 其中的jk表示所有输出结点上的误差总和:1iNjNjNijNOSgwj

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论