课件:粒子群与BP神经网络结合.pptx_第1页
课件:粒子群与BP神经网络结合.pptx_第2页
课件:粒子群与BP神经网络结合.pptx_第3页
课件:粒子群与BP神经网络结合.pptx_第4页
课件:粒子群与BP神经网络结合.pptx_第5页
已阅读5页,还剩35页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

粒子群优化算法聚类分析与训练BP神经网络,智能优化算法: 最优化问题是指在一定的约束条件下,决定某个或某些可控制的因素应有的合理取值,使所选定的目标达到最优的问题。 人们借鉴自然现象,提出了模拟退火法(SA)、遗传算法(GA)、神经网络法();人们通过学习生物的生活规律,提出了蚁群算法(ACO)、粒子群优化算法(PSO)。 人们将这些模仿自然现象及生物体的各种原理和机理的方法,称为智能优化算法。,粒子群优化算法 粒子群算法的起源 粒子群优化算法(Particle Swarm Optimization,PSO),是一种启发式群智能进化计算技术,由Kennedy and Eberhart于1995年提出,来源于对鸟群捕食的行为的研究,是一种基于迭代的优化工具。,James Kennedy received the Ph.D. degree from theUniversity of North Carolina, Chapel Hill, in 1992.He is with the U.S. Department of Labor, Washington,DC. He is a Social Psychologist who has been working with the particle swarm algorithm since 1994. He has published dozens of articles and chapters on particle swarms and related topics, in computer science and social science journals and proceedings. He is a coauthor of Swarm Intelligence (San Mateo, CA: Morgan Kaufmann, 2001), with R.C. Eberhart and Y. Shi, now in its third printing.,Russell C. Eberhart (M88SM89F01) received the Ph.D. degree in electrical engineering from Kansas State University, Manhattan.He is the Chair and Professor of Electrical and Computer Engineering, Purdue School of Engineering and Technology, Indiana UniversityPurdue University Indianapolis (IUPUI),Indianapolis, IN. He is coeditor of Neural Network PC Tools(1990),coauthor of Computational Intelligence PC Tools (1996), coauthor of Swarm Intelligence(2001), Computational Intelligence: Concepts to Implementations(2004). He has published over 120 technical papers.Dr. Eberhart was awarded the IEEE Third Millenium Medal. In 2002, he became a Fellow of the American Institute for Medical and Biological Engineering.,近年PSO方面文献的数量,粒子群算法的主要应用 (一)函数优化 (二)神经网络训练 (三)工程领域应用 (四)PSO算法还在生物工程、电磁学、数据挖掘等很多领域都取得了较好的效果。,一.粒子群算法的原理,原始粒子群优化算法 标准粒子群优化算法,原始粒子群优化算法 Pbest:个体极值(粒子自身所找到的当前最优解) Gbest:全局极值(整个群体当前找到的最优解) 设D维搜索空间中,有M个粒子,其中第i个的位置是Xi =(xi1,xi2,.xiD),速度为Vi =(vi1,vi2,.,viD),i = 1,2,M。搜索到的历史最优位置为Pi =(pi1,pi2,.,piD),整个粒子群体搜索到的最优位置为Pg =(pg1,pg2,.,pgD)。Knenedy和Eberhrtn最早提出的PSO算法的位置和速度公式的方程如下: (1-1) (1-2) 其中i = 1,2,M;d = 1,2,D;r1和r2是两个相互独立的随机数,服从0,1上的均匀分布,标准粒子群优化算法 带惯性权重的标准粒子群算法 Shi Y.H和Eberhart在记忆部分引入惯性权重,于是公式(2-1)可以修改成为如下公式: (1-3) 带收敛因子的标准粒子群算法 Clerc建议采用收缩因来子保证PSO算法收敛,于是公式(2-1)修改成如下公式: (1-4) 其中, 为收缩因子, 。 从数学上分析,惯性权值和收缩因子这两个参数是等价的。,原始PSO算法与标准PSO算法向量图比较 图1 原始PSO 图2 标准PSO,二.粒子群算法的实现,原始PSO算法流程 算法流程图,原始PSO算法流程 步骤l:初始化所有粒子(种群规模为Size,粒子在D维空间中搜索),对每个粒子随机给定初始位置和初始速度;每个粒子的只设为其初始位置Pi,Pi中的最好值设为Pbest; 步骤2:根据式(2-1)和(2-2)更新每个粒子的速度和位置;对每个粒子进行速度越限检查确保粒子速度在-Vmax ,Vmax之间;对每个粒子进行位置越限检查,确保粒子位置在-Xmax ,Xmax之间; 步骤3:根据目标函数,计算出每个粒子的适应值; 步骤4:对每个粒子,将步骤3中计算出的适应值与其经历过的个体最佳Pbest的 适应值进行比较,如果优于Pbest,则将其作为当前的最好位置;将其适应值与群体最佳gbest的适应值进行比较,如果优于gbest,则用该粒子适应值Pi,取代原群体最优适应值gbest; 步骤5:根据式(2-1)和(2-2)更新每个粒子的速度和位置; 步骤6:检查终止条件(达到给定的迭代次数或者满足了足够好的适应值等),若满足,终止迭代,输出相关结果;否则返回步骤2,算法流程图:,三.粒子群算法的参数分析,群体规模 惯性权重 最大速度 迭代次数run,算法的参数分析 群体规模m 群体规模相当于数值遗传算法中的population。对于一般的优化问题而言,粒子群算法对群体的大小的设定并不十分敏感,一般可以取值为1040,对较难或特定类别的问题可以取到100200。与数值遗传算法相比,粒子群算法中个体的数据结构虽然复杂一些,但它要求同时使用的个体数也相应地少很多。所以在对复杂问题的优化方面,粒子群算法对计算机内存的耗用要相对少一些。,算法的参数分析 惯性权重 速度计算公式的三个分量中,惯性速度分量vintertia与适应度的关系较小,由于初始的速度是一个随机量。因此,vinertia主要代表的是速度中随机的部分。为了保证迭代过程最后收敛,速度计算公式中惯性速度分量vinertia的权重将逐渐减弱,因此其惯量因子将随着迭代的过程单调下降。 在整个迭代过程中,的取值为0到1之间的实数。具体采用哪一种方法来减小速度惯量因子可以有很多方法,一般情况可以用线性递减公式来对惯量因子进行计算。 的作用是保持运动惯性,使其有扩展搜索空间的趋势,有能力探索新的区域。 自适应粒子群优化算法,则是自适应调节。,算法的参数分析 最大速度 最大速度决定当前位置与最好位置之间的区域的分辨率(或精度)。如果太高,微粒可能会飞跃最优解;如果太小,则粒子不能在局部极小点之外进行足够的探索,会陷入到局部极值区域内。这种限制可以达到防止计算溢出、决定问题空间搜索的速度的目的。,算法的参数分析 迭代次数run 由于粒子群算法中的速度计算公式受到惯量因子的影响,而惯量因子的变化规律又与最大迭代次数run有关。因此,在粒子群算法中,最大迭代次数是在迭代开始之前必须确定的参数之一。最大迭代次数不仅影响速度计算公式中的惯性因子,而且还是整个迭代过程的中止条件。这一点上,粒子群算法和数值遗传算法采用适应度阀值作为中止条件不同。 对于不同的优化问题,最大迭代次数run可以有不同的取值。对于一般的简单优化问题而言,最大迭代次数一般取值为10000左右。,四.算法测试函数 PSO算法常用的测试函数:Griewank、Rastrigrin 、Sphere、Schwefel、Ackly和Rosen-brock等。,常用测试函数,常用测试函数,五.与BP神经网络的结合,人工神经网络是由人工神经元互连而成的网络,它从微观结构和功能上实现对人脑的抽象和简化,具有许多优点。对神经网络的权值系数的确定,传统上采用反向传播算法(BP算法)。 BP网络是一种多层前向反馈神经网络,BP算法是由两部分组成:信息的正向传递与误差的反向传播。 在反向传播算法中,对权值的训练采用的是爬山法(即:算法)。这种方法在诸多领域取得了巨大的成功,但是它有可能陷入局部最小值,不能保证收敛到全局极小点。另外,反向传播算法训练次数多,收敛速度慢,使学习结果不能令人满意。 基于以上问题的解决,PSO与BP的结合有很重要的意义。,应用实例,实验数据选择:来源于某年10月1-5号的电价,该数据集包括96组数据,每组数据记录了 5个不同的数据。,实验一: 应用PSO算法,对该组数据进行聚类分析,其参数设置如下,学习因子C1=2,、C2=1.8,惯性权重w随迭代次数线性地由0.9减小到0.4,最大迭代次数取为200次,粒子个数N=40。类别数K=4.,实验二: 应用PSO 训练BP神经网络,并对样本数据其进行评估预测。 选用BP网络层结构。 参数设置:学习因子C1=2,、C2=1.8,惯性权重w随迭代次数线性地由0.9减小到0.4,最大迭代次数取为200次,粒子个数N=40,类别数K=4,网络层节点数定义为3个。,结论: 为了解决基于PSO算法易陷入局部极小值,且在BP网络训练中不能及时根据误差的变化情况调整训练策略,导致训练效果很难继续提高,甚至出现“停滞”现象的问题,本文提出了一种PSO算法与BP算法结合,该算法能够根据寻优过程的实现,从而达到更好的效果。,谢谢 _,后面内容直接删除就行 资料可以编辑修改使用 资料可以编辑修改使用 资料仅供参考,实际情况实际分析,主要经营:课件设计,文档制作,网络软件设计、图文

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论