神经网络 教学课件_第1页
神经网络 教学课件_第2页
神经网络 教学课件_第3页
神经网络 教学课件_第4页
神经网络 教学课件_第5页
已阅读5页,还剩143页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

09 35 1 第五章神经网络 神经网络概述单层前向网络及LMS学习算法多层前向网络及BP学习算法反馈网络 Hopfield网络 神经网络控制基于MATLAB的神经网络实现 09 35 2 5 1神经网络概述定义特征和功能发展概况人工神经网络模型神经网络的分类和学习规则神经网络应用 09 35 3 一 神经网络定义 人工神经网络是一个由许多简单的并行工作的处理单元组成的系统 其功能取决于网络的结构 连接强度以及各单元的处理方式 人工神经网络是一种旨在模仿人脑结构及其功能的信息处理系统 神经网络是由多个非常简单的处理单元彼此按某种方式相互连接而形成的计算系统 该系统是靠其状态对外部输入信息的动态响应来处理信息的 09 35 4 二 神经网络特征和功能1 特征结构特征 并行 分布 容错能力特征 自学习 自组织 自适应2 功能 09 35 5 联想记忆功能 09 35 6 非线性映射功能 09 35 7 分类与识别功能 09 35 8 优化计算功能 09 35 9 知识处理功能 09 35 10 三 神经网络发展历史1943 1969年初创期 形式神经元模型 简称MP模型 的问世 由McCulloch和Pitts提出 神经元学习规则的提出 由心理学家Hebb提出 以及感知器模型和联想记忆模型的建立 1970 1986年过渡期 一度陷入低潮 但是这项研究并未中断 其中芬兰的Kohonen提出了线性神经网络模型和自组织映射理论 福岛提出了自组织识别神经网络模型 美国的Grossberg也提出了几个非线性动力系统结构 影响力较大的属Rumelhart提出的误差反向传播神经网络 errorbackpropagation 简称BP网络1987年至今发展期 在该阶段 国内外的许多组织及研究机构发起了对神经网络的广泛探讨 并举行了有代表意义的学术会议 这些都意味着神经网络的研究已在世界范围形成了又一个高潮 11 人类大脑大约包含有1 4 1011个神经元 每个神经元与大约103 105个其它神经元相连接 构成一个极为庞大而复杂的网络 即生物神经网络 四 人工神经网络1 生物神经元 神经生理学和神经解剖学的研究结果表明 神经元 Neuron 是脑组织的基本单元 是人脑信息处理系统的最小单元 09 35 12 1 生物神经元的结构 生物神经元在结构上由细胞体 Cellbody 树突 Dendrite 轴突 Axon 突触 Synapse 四部分组成 用来完成神经元间信息的接收 传递和处理 09 35 13 09 35 14 09 35 15 2 生物神经元的信息处理机理 1 信息的产生 神经元间信息的产生 传递和处理是一种电化学活动 神经元状态 静息兴奋抑制 膜电位 极化去极化超极化 09 35 16 09 35 17 2 信息的传递和接收 09 35 18 3 信息的整合 空间整合 同一时刻产生的刺激所引起的膜电位变化 大致等于各单独刺激引起的膜电位变化的代数和 时间整合 各输入脉冲抵达神经元的时间先后不一样 总的突触后膜电位为一段时间内的累积 09 35 19 2 生物神经网络 由多个生物神经元以确定方式和拓扑结构相互连接即形成生物神经网络 生物神经网络的功能不是单个神经元信息处理功能的简单叠加 神经元之间的突触连接方式和连接强度不同并且具有可塑性 这使神经网络在宏观呈现出千变万化的复杂的信息处理能力 09 35 20 3 人工神经元模型 神经元及其突触是神经网络的基本器件 因此 模拟生物神经网络应首先模拟生物神经元 在人工神经网络中 神经元常被称为 处理单元 有时从网络的观点出发常把它称为 节点 人工神经元是对生物神经元的一种形式化描述 09 35 21 神经元模型示意图 09 35 22 j 神经元j的阈值 wij 神经元i到j的突触连接系数或称权重值 f 神经元转移函数 09 35 23 1 阈值型转移函数 09 35 24 2 非线性转移函数 09 35 25 3 分段线性转移函数 09 35 26 4 人工神经网络 09 35 27 五 神经网络分类及学习方法 1 神经网络分类不同角度分类1 从网络性能角度 连续型和离散型 确定性和随机网络2 从网络结构角度 前向网络和反馈网络3 从学习方式角度 有导师学习和无导师学习网络4 从连接突触性质 一阶线性关联网络和高阶非线性网络 09 35 28 从网络结构和学习算法相结合 分成几类 1 单层前向网络 拥有的计算节点 神经元 是单层的 2 多层前向网络 具有分层的结构 通常包括输入层 隐层 也称中间层 和输出层 每一层的神经元只接受上一层神经元的输入 并且该层神经元的输出送给下一层的各个神经元 3 反馈网络 网络中至少含有一个反馈回路的网络 在反馈网络中 任意一个节点既可接收来自前一层各节点的输入 同时也可接收来自后面任一节点的反馈输入 Hopfield神经网络是反馈型网络的代表 4 随机神经网络 神经元按照概率的原理进行工作 每个神经元的兴奋或抑制具有随机性 其概率取决于神经元的输入 Boltzmann机就是典型的随机网络 5 竞争网络 输出神经元相互竞争以确定胜者 胜者指出哪一种原型模式最能代表输入模式 Hamming网络 09 35 29 2 神经网络学习方法可分为有导师学习和无导师学习 1 有导师学习 监督学习 学习时需要给出导师信号或称期望输出 神经网络对外部环境是未知的 将导师看作对外部环境的了解 由输入 输出样本集合表示 导师信号代表了神经网络执行情况的最佳结果 使网络输出逼近导师信号 2 无导师学习 包括强化学习和无监督学习 自组织学习 在强化学习中 对输入输出映射的学习是通过和外界环境的连续作用最小化性能的标量索引而完成的 在无监督学习中没有外部导师或评价来统观学习过程 而是提供一个关于网络学习表示方法质量的测量尺度 根据该尺度将网络的参数最优化 09 35 30 5种基本的神经网络学习规则 1 Hebb学习 为纪念神经心理学家Hebb而命名 用于调整神经网络的突触权值 概括为 1 如果一个突触连接两边的两个神经元被同时 同步 激活 则该突触的能量就被选择性的增加2 如果一个突触连接两边的两个神经元被异步激活 则该突触的能量就被选择性的消弱或消除 2 纠错学习 实际输出和期望输出之间存在误差 通过调整突触权值 使误差信号减少 设定代价函数为1 2平方和形式 通过反复调整权值是代价函数达到最小或系统达到一个稳定状态 09 35 31 3 基于记忆的学习 主要用于模式分类 将过去的学习结果存储在一个大的存储器中 当输入一个新的测试向量是 学习过程就是将测试向量归到已存储的某个类中 4 随机学习算法 又称Boltzmann学习规则 该方法由统计力学思想而来 在Boltzmann学习规则基础上设计出的神经网络称为Boltzmann机 其学习算法就是著名的模拟退火算法 5 竞争学习 神经网络的输出神经元之间相互竞争 在任一时间只能有一个输出神经元是活性的 09 35 32 六 神经网络应用1 宇宙飞船 高性能飞行器自动驾驶2 汽车行业 自动驾驶系统3 国防领域 武器操控 目标跟踪 物体识别 雷达信号处理4 电子领域 集成电路芯片设计 过程控制 机器视觉5 医药领域 6 制造领域等等 09 35 33 5 2单层前向网络及LMS算法 一 单层感知器 09 35 34 09 35 35 二 单层感知器的学习算法单层感知器对权值向量的学习算法是基于迭代思想 常采用纠错学习规则的学习算法 09 35 36 09 35 37 09 35 38 三 LMS学习算法 09 35 39 09 35 40 09 35 41 09 35 42 5 3多层前向网络及BP算法 由输入层 隐含层 一层或多层 和输出层构成的网络称为多层前向神经网络 两种常见的多层前向网络 多层感知器和径向基函数神经网络 一 多层感知器 09 35 43 和单层感知器相比 4个明显特点 09 35 44 二 BP算法BP网络学习过程分成两部分 1 工作信号正向传播 输入信号从输入层经隐层 传向输出层 在输出端产生输出信号 这是信号的正向传播 在信号向前传递过程中网络的权值是固定不变的 每一层神经元的状态只影响下一层神经元的状态 如果在输出层不能得到期望的输出 则转入误差信号反向传播 2 误差信号反向传播 网络的实际输出与期望输出之间差值即为误差信号 误差信号由输出端开始逐层向前传播 这是误差信号的反向传播 在误差信号反向传播的过程中 网络权值由误差反馈进行调节 通过权值的不断修正使网络的实际输出更接近期望输出 09 35 45 09 35 46 09 35 47 09 35 48 09 35 49 09 35 50 09 35 51 09 35 52 09 35 53 09 35 54 09 35 55 09 35 56 BP学习算法步骤 第1步 设置变量和参量 09 35 57 09 35 58 第2步第3步第4步第5步 09 35 59 第6步 09 35 60 第7步第8步判断是否学完所有的训练样本 是则结束 否则转至第3步 09 35 61 5 3前向神经网络 3 BP算法的改进 1 变步长算法在BP算法中步长 学习率 是不变的 可是从BP网络的误差曲面看出 有平坦区存在 如果在平坦区上太小使得迭代次数增加 而当W落在误差剧烈变化的地方 步长太大又使误差增加 反而使迭代次数增加影响了学习收敛的速度 变步长方法可以使步长得到合理的调节 09 35 62 5 3前向神经网络 09 35 63 5 3前向神经网络 2 加动量项 09 35 64 5 3前向神经网络 4 Levenberg Marquart算法 09 35 65 上次课内容 09 35 66 5 3前向神经网络 5 BP网络的设计参数 1 输入与输出层的设计输入的神经元可以根据需要求解得问题和数据表示的方式来而定 输出层维数可根据使用者的要求来确定 2 隐含层层数及隐单元数目的选择1989年RobertHecht Nielson证明了对于任何在闭区间内的一个连续函数都可以用一个隐层的BP网络来逼近 因而一个三层BP网络可以完成任意的n维到m维的映射 对于隐单元个数的选择是一个十分复杂的问题 往往根据设计经验和和对于具体问题而言不断的测试来确定 09 35 67 5 3前向神经网络 3 初始权值的选取初始值对于学习是否达到局部最小和是否能收敛的关系很大 一个重要的要求就是希望初始权值在输入累加时使每个神经元的状态接近于零 这样可以保证每个神经元都在他们的转移函数的最大区域进行变换 而不会落在那些变化很小的区域 4 数据的预处理在很多实际问题的应用中 对于多维数的输入样本 往往问题样本本身属于不同的量纲 其取值量级也会相差较大 因此有必要将输入的数值转换到0 1之间 即进行归一化处理 这样有利于避免由量纲上的级别差异影响网络的识别精度 09 35 68 5 3前向神经网络 6 BP网络的泛化能力 过适配 对训练集样本误差很小 对训练集样本以外的新样本数据误差很大 网络记忆了训练过的样本 但缺乏对新样本的泛化能力 泛化 generalization 能力是指经训练后的网络对未在训练集出现的 来自同一分布的 样本做出正确反应的能力 学习不是单纯的记忆过的输入 而是通过训练样本学习到隐含在样本中的有关环境本身的内在规律性 从而对未出现的输入也能给出正确的反映 09 35 69 5 3前向神经网络 提高泛化能力的措施 1 调整网络规模 使之刚好足以 适配 2 归一化 1 修正网络误差性能函数 使网络获得较小的权值和阈值 从而迫使网络的响应变得平滑 从而减小 过适配 2 自动归一化 以自动的方式决定归一化最佳误差性能调整率 3 提前终止法 09 35 70 5 3前向神经网络 能够利用的数据被分成3个子集 第一个子集是训练样本集 用以计算梯度和修正网络权值和阈值 第二个子集是确认样本集 在训练的过程中 监控确认样本集的误差 在训练的初始阶段 确认样本集误差在正常地减小 即为训练样本集的误差 而在网络开始出现 过适配 时 确认样本集的误差在明显地增加 当确认样本集的误差连续增加的次数达到指定的迭代次数是 训练被终止 此时 网络返回具有最小确认样本集误差的权值和阈值 第三个子集是测试样本集 用于各种不同模型的比较 另外 在训练期间画出测试样本集的误差曲线 如果测试样本集的误差和确认样本集误差间的误差达到最小值时 所需的迭代次数明显不同 表明数据集的划分可能有问题 09 35 71 7 BP网络的局限性1 学习率和稳定性的矛盾 2 学习率的选择缺乏有效的方法 3 训练过程可能陷于局部最小 4 没有确定隐层神经元个数的有效方法 09 35 72 8 BP网络的MATLAB实现net newff minmax p 20 1 tansig purelin 创建BP神经网络 输入分别为最大传感器数据 平均数据 速度和标定系数 输入的范围为输入矢量p的最大最小值 隐层有20个神经元 隐层为tansig类型曲线 输出为线性net trainFcn trainlm net trainParam epochs 2000 net trainParam show 100 神经网络的训练方法 net tr train net p t temp net layerWeights tempiw net IW templw net LW tempb net b y sim net test 09 35 73 5 3前向神经网络 三 径向基函数神经网络基本思想是 用径向基函数 RBF 作为隐单元的 基 构成隐含层空间 隐含层对输入矢量进行变换 将低维的模式输入数据变换到高维空间内 使得在低维空间内的线性不可分问题在高维空间内线性可分 该类网络结构简单 训练简洁而且学习收敛速度快 能够逼近任意非线性函数 因此RBF网络具有较广泛的应用 如时间序列分析 模式识别 非线性控制和图像处理等 09 35 74 5 3前向神经网络 1 RBF神经网络的网络模型RBF网络是单隐层的前向神经网络 输入层由信号源节点组成 第二层为隐含层 隐单元的个数由所描述的问题而定 隐单元的变换函数是对中心点径向对称且衰减的非负非线性函数 第三层为输出层 它对输入模式做出响应 09 35 75 1 正规化网络隐单元的个数和训练样本的个数相同 09 35 76 09 35 77 09 35 78 09 35 79 09 35 80 2 广义网络 09 35 81 09 35 82 09 35 83 2 学习算法 09 35 84 09 35 85 09 35 86 3 学习权值 09 35 87 5 3前向神经网络 3 RBF神经网络的特点及应用领域能够逼近任意的非线性函数 可以处理系统内在的难以解析的规律性 并具有极快的学习收敛速度 非线性函数逼近 时间序列分析 数据分类 模式识别 信息处理 图像处理 系统建模 控制和故障诊断 09 35 88 5 4反馈神经网络 反馈神经网络 FeedbackNeuralNetwork 又称递归网络或回归网络 在该神经网络中 输入信号决定反馈系统的初始状态 然后系统经过一系列状态转换后 逐渐收敛于平衡状态 这种平衡状态就是反馈神经网络经计算后的输出结果 由此可见 稳定性是反馈神经网络中最重要的问题之一 Hopfield神经网络是反馈网络中最简单且应用最广的模型 通常有两种形式 离散型Hopfield网络和连续型Hopfield网络 09 35 89 5 4反馈神经网络 一 离散型Hopfield神经网络1 网络的拓扑结构离散型Hopfield神经网络是一种单层的输入输出为二值的反馈网络 它主要用于联想记忆Hopfield网络结构图Hopfield网络示意图 09 35 90 09 35 91 5 4反馈神经网络 2 离散Hopfield网络的学习算法 09 35 92 09 35 93 09 35 94 09 35 95 5 4反馈神经网络 二 连续型Hopfield神经网络连续型Hopfield神经网络是J J Hopfield在离散型Hopfield神经网络的基础上提出 其原理与离散型Hopfield神经网络相似 它以模拟量作为网络的输入输出量 各神经元采用并行方式工作 所以它在信息处理的并行性 联想性 实时性 分布存储 协同性等方面比离散型Hopfield神经网络更接近于生物神经网络 09 35 96 5 4反馈神经网络 1 物理实现结构 09 35 97 5 4反馈神经网络 09 35 98 09 35 99 09 35 100 5 4反馈神经网络 三 Hopfield网络的主要应用联想记忆 优化计算 主要集中在图像处理 语声处理 控制 信号处理 模式分类等领域 1 联想记忆的概念人类具有的联想功能 从一种事物联系到与其相关的事物或其他事物 人工神经网络的联想 系统在给定一组刺激信号作用下 该系统能联系出与之相对应的信号 联想以记忆为前提 首先把信息存储起来 再按某种方式或规则将相关信息取出 联想记忆的过程就是信息的存取过程 09 35 101 5 4反馈神经网络 2 联想记忆的工作过程 1 记忆阶段 在记忆阶段就是通过设计或学习网络的权值 使网络具有若干个稳定的平衡状态 这些稳定的平衡状态也称为吸引子 吸引子有一定的吸引域 2 联想阶段 联想过程就是给定输入模式 联想记忆网络通过动力学的演化过程达到稳定状态 即收敛到吸引子 回忆起已存储模式的过程 09 35 102 5 4反馈神经网络 3 网络的权值设计吸引子的分布是网络的权值 包括阈值 决定的 设计吸引子的核心就是如何设计一组合适的权值 为了使所设计的权值满足要求 权值矩阵应符合以下要求 1 为保证异步方式工作时网络收敛 权值矩阵w为对称矩阵 2 为保证同步方式工作时网络收敛 权值矩阵w应为非负定对称阵 3 保证给定的样本是网络的吸引子 并且要有一定的吸引域 09 35 103 5 4反馈神经网络 09 35 104 5 4反馈神经网络 09 35 105 09 35 106 5 5自组织神经网络 生物神经元在接受刺激并进行竞争产生获胜神经元后 获胜神经元不但加强自身 而且带动周围的邻近神经元得到相应的加强 同时抑制周围距离较远的神经元 加强中心而抑制周围 的现象 墨西哥草帽函数 09 35 107 5 5自组织神经网络 自动寻找样本中的内在规律和本质属性 自组织 自适应地改变网络的参数和结构 一 网络的拓扑结构自组织特征映射网络 self organizingmap SOM 又称Kohonen网络 是1982年芬兰教授Kohonen提出的一种自组织神经网络 该网络的主要目的是将任意维数的输入信号模式以拓扑结构有序的方式转变为低维 一维或二维 的离散空间 网格 上 这种变换属于特征映射 而这个过程是自动完成的 09 35 108 5 5自组织神经网络 网络由输入层和输出层组成 输入层模拟感知外界输入信息其形式与BP网络相同 节点数与样本维数相同 输出层模拟做出相应的大脑皮层 其神经元的排列有多种形式 如一维阵 二维平面阵和三维栅格阵 09 35 109 5 5自组织神经网络 二 SOM网络的原理及其算法自组织特征映射网络的实现属于无监督竞争学习的过程 自组织映射主要由竞争 合作和自组织调解三个过程 09 35 110 5 5自组织神经网络 09 35 111 5 5自组织神经网络 09 35 112 5 5自组织神经网络 三 SOM算法步骤 09 35 113 5 5自组织神经网络 09 35 114 5 5自组织神经网络 09 35 115 5 6神经网络控制 一 概述1 神经网络控制的优越性1 可以处理那些难以用模型和规则描述的过程或系统 2 并行分布式信息处理 具有很强的容错性 3 本质的非线性系统 在非线性系统控制中有很大前途 4 具有很强的信息综合能力 5 硬件实现越来越方便 09 35 116 2 神经网络控制器分类1 导师指导下的控制器 09 35 117 2 逆控制器 09 35 118 3 自适应网络控制器 09 35 119 4 神经内模控制结构 09 35 120 5 前馈控制结构 09 35 121 6 自适应评价网络 09 35 122 7 混合控制系统 09 35 123 二 非线性动态系统的神经网络

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论