




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
(3.2)2、线性型线性激活函数使网络的输出等于加权净输入与阈值之和,其数学关系为:(3.3)3、Sigmoid型Sigmoid型激活函数将任意输入值压缩到(-1,1)的范围内,常有正切sigmoid函数和对数sigmoid函数,这两个函数方程表示如下:(3.4)(3.5)本文中使用到的BP网络隐含层的各神经元激活函数均采用Sigmoid型。3.1.2人工神经网络结构神经元的模型确定之后,一个神经网络的特性及能力主要取决于网络的拓扑结构及学习方法。Y3YY3Y1输入输出X1X2X3Y2.........Y1Y2输出层隐含层输入层X1X2X3Y3...图3.3前向神经网络图3.4反馈神经网络在前向神经网络中,神经元分层排列,组成输入层、隐含层和输出层。每一层的神经元只接受前一级的神经元的输入,并输出到下一级,网络中不存在反馈,可以用一个有向无环路图表示,如图3.3所示。这种网络实现信号从输入空间到输出空间的变换,它的信息处理能力来自于简单非线性函数的多次复合。前向网络的结构简单,且易于实现。在反馈神经网络中,输出信号通过与输入连接而返回到输入端,从而形成一个回路,如图3.4所示。这种神经网络的信息处理是状态的变换,可以用动力学系统理论处理。该反馈动力学系统的稳定性与联想记忆功能有密切关系[9]。在前向神经网络中,有单层感知器、自适应线性网络和BP网络。在反馈网络中,有离散型和连续型hopfield网络。在实际的应用中,BP网络应用最为普遍,本文中将采用的也是这种网络模型。3.1.3人工神经网络的特征人工神经网络(ANN)模拟生物神经网络的结构和行为,因而有其固有的特征:(1)高度的并行性人工神经网络是由许多相同的简单处理单元并联组合而成,虽然每个单元的功能简单,但大量简单处理单元的并行活动,使其具有强大的信息处理与存储能力。(2)高度的非线性全局作用人工神经网络中的每个神经元接受大量其他神经元的输入,并通过并行网络产生输出,影响其他神经元。网络之间的这种相互制约和相互影响,实现了从输入状态到输出状态空间的非线性映射。从全局的观点看,网络整体性能不是网络局部性能的简单迭加,而表现出某种集体性的行为。(3)良好的容错性与联想记忆功能人工神经网络通过自身的网络结构能够实现对信息的记忆。而所记忆的信息是存储在神经元之间的权值中。从单个权值中看不出所储存的信息内容,因而是分布式的存储方式。这使得网络具有良好的容错性,并能进行聚类分析、特征值提取、缺损、复原等模式信息处理工作;又宜于模式分类、模式联想等识别工作。(4)强大的自适应、自学习功能人工神经网络可以通过训练和学习来获得网络的权值与结构,呈现出很强的学习能力和对环境的自适应能力。3.1.4人工神经网络的发展神经网络的研究始于20世纪40年代,半个世纪以来,它经历了一条由兴起到衰退,又由衰退到兴盛的曲折发展历程,这一过程大致可以分为以下阶段[9,10]:1、起步阶段自1943年M-P模型开始,至20世纪60年代为止,这一段时间可以称为神经网络系统理论发展的初期阶段。这个时期的主要特点是多种网络的模型的产生与学习算法的确定。具体说明如下:1943年,心理学家W.S.McCulloch和数学家W.Paitts在研究生物神经元的基础上提出了“M—P模型”,虽然该模型过于简单,且只能完成一些简单的逻辑运算,但它的出现开创了神经网络研究的先河,并为以后的研究提供了依据。1949年,心理学家D.O.Hebb发表了论著《行为自组织》,首先提出了一种调整神经网络连接权值的规则——著名的Hebb学习律。直到现在,Hebb学习律仍然是神经网络中一个极为重要的学习规则。1957年,F.Rosenblant提出了著名的感知器(Perceptron)模型,这是第一个真正的人工神经网络。这个模型由简单的阈值神经元构成,初步具备了诸如并行处理、分布存储和学习等神经网络的一些基本特性,从而确立了从系统角度研究神经网络的基础。1960年,B.Widrow和M.E.Hoff提出恶浪自适应线性单元(Adaline)网络,不仅在计算机上对该网络进行了模拟,而且还做成了硬件。同时,他们还提出了B.Widrow学习算法,改进了网络公值的学习速度和精度,后来这个算法被称为LMS算法,即数学上的最速下降法,这种算法在以后的BP神经网络及其他信号处理系统中得到了广泛的应用。2、低潮阶段到了20世纪60年代,人们发现感知器存在一些缺陷,例如,它不能解决异或问题,因而研究工作趋向低潮。不过仍有不少学者继续对神经网络进行研究。Grossberg提出了至今为止最复杂的基于自适应共振理论的ART神经网络;Kohenen提出了自组织映射的SOM模型;Fukushima提出了神经认知网络理论;Anderson提出了BSB模型;Webos提出了BP理论等。这些都是在20世纪70年代和20世纪80年代初进行的工作。3、快速发展阶段进入20世纪80年代,神经网络研究取得了突破性进展。这个时期最具有标志性的人物是美国加州工学院的物理学家Hopfield。他于1982年和1984年在美国科学院院刊上发表了两篇文章,提出了模拟人脑的神经网络模型,即最著名的Hopfield模型。该模型通过引入能量函数,实现了问题优化求解,成功地解决了旅行商路径优化问题(TSP)。20世纪80年代后期到90年代初,神经网络系统理论形成了发展的热点,多种模型、算法和应用被提出,其中包括BP网络,使得研究者们完成了很多有意义的工作。4、发展高潮阶段20世纪80年代中期以来,神经网络的应用研究取得了很大的成绩,涉及面非常广泛。伴随神经网络芯片和神经计算机的出现,神经网络逐渐在模式识别与图像处理(语音、指纹、故障诊断和图像压缩等)、控制与优化、预测与管理(市场预测、风险分析)、通信等领域得到了成功的应用。3.2BP神经网络BP神经网络是目前应用最为广泛和成功的神经网络之一,本研究中将用到BP神经网络对铝合金变质效果进行仿真预测,在这里详细介绍该网络。3.2.1BP神经网络基本思想BP(BackPropagation)神经网络是一种多层前馈神经网络,由输入层、隐含层和输出层组成,其结构如图3.3所示。该网络是一种基于“逆推”学习算法的多层神经网络。其基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传入,经隐含层逐层处理后传向输出层。若输出层的实际输出得不到期望输出(教师信号),则转向误差的反向传播阶段。误差的反向传播是将输出误差以某种形式通过隐含层向输入逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程是周而复始地进行。权值不断调整的过程,也就是网络的学习训练过程。此过程一直进行到网络输出的误差减少到可以接受的程度,或进行到预先设定的学习次数为止[10]。3.2.2BP网络的学习过程重述一下BP网络的学习过程如下:正向传播是输入信号从输入层经隐含层传向输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传播。为了明确起见,现以图3.5所示的典型3层BP网络为例进行BP网络的学习算法推导[9]。如图3.5所示,输入层神经元的输入为,隐含层神经元的输入为,隐含层神经元的输出为,输出层神经元的输出为,为从输入层神经元到隐含层神经元的连接权值,为从隐含层神经元到输出层神经元的连接权值,隐含层神经元采用对数sigmoid函数,输出层神经元采用线性激活函数。图3.5典型3层BP神经网络结构BP网络的学习算法如下:(1)前向传播:计算网络的输出隐含层神经元的输入为所有输入的加权之和,即(3.6)隐含层神经元的输出,采用S函数激发,得(3.7)则(3.8)输出层神经元的输出为(3.9)网络第个输出与相应理想输出的误差为(3.10)第个学习样本的误差性能指标函数为(3.11)式中—网络输出层的神经元个数。(2)反向传播:采用梯度下降法,调整各层间的权值输出层及隐含层的连接权值学习算法为(3.12)式中—学习速率,。时刻网络的权值为(3.13)隐含层及输入层连接权值学习算法为(3.14)式中。时刻网络的权值为(3.15)网络的学习过程通过这种正向计算输出、反向传播误差的多次迭代过程,系统误差将随着迭代的次数增加而减少,过程将收敛到一组稳定的权。BP网络的学习算法的具体步骤归纳如下[11]:①从训练样本集中取出某一样本,把它的输入信息输入到网络中;②由网络正向计算出各层节点的输出;③计算网络的实际输出与期望输出的误差;④从输出层起始反向计算到第一个隐含层,按一定原则向减少误差方向调整网络的各个连接权值。⑤对训练样本集中的每一个样本重复以上步骤,直到对整个训练样本集的误差达到要求为止。通过网络训练,达到要求后,网络各节点间互连权值就完全确定,则称BP网络已经学习好。此时,便可对未知样本进行识别预测。3.2.3BP神经网络的主要应用及特点目前,在人工神经网络的实际应用中。绝大部分的神经网络模型都采用BP神经网络及其变化形式。它也是前向网络的核心部分,体现了人工神经网络的精华。BP网络主要用于以下四方面[8]。(1)函数逼近:用输入向量和相应的输出向量训练一个网络以逼近一个函数。(2)模式识别:用一个待定的输出向量将它与输入向量联系起来。(3)分类:把输入向量所定义的合适方式进行分类。(4)数据压缩:减少输出向量维数以便传输或存储。BP网络的特点:(1)输入和输出是并行的模拟量;(2)网络的输入输出关系是各层连接的权因子决定,没有固定的算法;(3)权因子是通过学习信号调节的,这样学习越多,网络越聪明;(4)隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响。在本次研究中,主要研究应用BP神经网络对变质铝合金的变质效果进行预测,该过程类似于模式识别,其基本思想是:根据标准的变质铝合金凝固冷却曲线上的特征参数与其相对应的变质效果的输入-输出模式,采用BP神经网络学习算法,以标准的模式作为学习样本进行训练,通过学习调整神经网络的连接权值。当训练满足要求后,得到的神经网络权值构成了模式识别的知识库,最后利用神经网络并行推理算法对实际的变质铝合金的输入模式进行识别。3.2.4BP网络的局限性及改进措施1、BP网络的限制与不足虽然反向传播法得到广泛的应用,但它也存在自身的限制与不足,其主要表现在于它的训练过程的不确定性上。具体的表现如下[10]:(1)需要较长的训练时间对于一些复杂的问题,标准的BP神经网络可能要进行几小时甚至更长的时间训练。这主要是由于学习效率太低造成的,可采用变化的学习速率或自适应的学习速率加以改进。(2)完全不能训练这主要表现为网络对输入的麻痹现象上。在网络的训练过程中,当其权值调得过大,可能使得所有的或大部分神经元的加权总和(“净输入”,)偏大,这使得激活函数的输入工作在S型函数的饱和区,从而导致其导数非常小,从而使得对网络权值的调节过程几乎停顿下来。通常为了避免这种现象的发生,一是选取较小的初始权值,二是采用较小的学习速率,但这也会增加网络的训练时间。(3)局部极小值BP算法可以是网络权值收敛到一个解,但它并不能保证所求为误差超平面的全局最小解,很可能是一个局部极小解。这是因为BP算法采用的是梯度下降法,训练是从某一起点沿误差函数的斜面逐渐达到误差的最小值。对于复杂的网络,其误差函数为多维空间的曲面,就像一个碗,其碗底是最小值点。但是这个碗的表面是凹凸不平的,因而在对其训练过程中,可能陷入某一小谷区,而这一小谷区产生的是一个局部极小值。由此点向各方向变化均使误差增加,以致于使训练无法逃出这一局部极小值。2、BP算法的改进措施针对BP网络算法的缺陷,目前国内外不少学者提出了许多改进算法,下面就介绍几种典型的改进算法[10]。(1)增加动量项标准的BP算法在调整权值时,只按时刻误差的梯度下降方向调整,而没有考虑t时刻以前的梯度方向,从而常使训练过程发生振荡,收敛缓慢。为了提高训练速度,可以在权值调整公式中加一动量项:(3.16)其中,W为某层权值矩阵,O为某层输出向量,称为动量系数(),定义动量项反映了以前积累的调整经验。当误差梯度出现局部极小时,虽然,但,使其跳出局部极小区域,加快迭代收敛速度。目前,大多数BP算法中都增加了动量项,以至于有动量项的BP算法成为一种新的标准算法。(2)可变学习速度的反向传播算法(VariableLearningrateBackPropagation,VLBP)可变学习速度的VLBP算法有许多不同的方法来改变学习速度。这是介绍一种非常直观的批处理过程,它的学习速度是根据算法的性能改变的。可变学习速度反向传播VLBP算法的规则如下:a.如果平方误差(在整个训练集上)在权值更新后增加了,且超过了某个设置的百分数(典型值为1%~5%),则权值更新被取消,学习速度被乘以一个因子(0<<1),并且动量系数(如果有的话)被设置为0。b.如果平方误差在权值更新后减少,则权值更新被接受,而且学习速度将乘以一个因子。如果被设置为0,则恢复到以前的值。c.如果平方误差的增长小于,则权值更新被接受,但学习速度保持不变。如果过去被设置为0,则恢复到以前的值。(3)学习速率的自适应调节上面给出的可变学习速度VLBP算法需要设置多个参数,算法的性能对这些参数的改变往往十分敏感,另外,处理起来也比较麻烦。这里给出一个乘法的学习速率的自调节算法。学习速率的调整只与网络总误差有关。学习速率也称步长,在标准BP中是一个常数,但在实际计算中,很难给出一个从始至终都很合适的最佳学习速率。从误差曲面可以看出,在平坦区内太小会使训练次数增加,这时希望值大一些;而在误差变化剧烈的区域,太大会因调整过量而路过较窄的“凹坑”处,使训练出现振荡而使得迭代次数增加。为了加速收敛过程,最好是能自适应调整学习速率,使其该大则大,该小则小。比如可以根据网络总误差来调整:在网络经过批次可预付调整后,若,则本次调整无效,且:(3.17)若,则调整有效,且:(3.18)(4)引入陡度因子——防止饱和误差曲面上存在着平坦区,其可权值调整缓慢的原因在于S型激活函数具有饱和特性。如果在调整进入平坦区后,设法压缩神经元的净输入“”,使其输出退出激活函数的饱和区,就可以改变误差函数的形状,从而使调整脱离平坦区。实现这一思路的具体做法是在激活函数中引进一个陡度因子:(3.19)当而仍较大时,进入平坦区,此时令;当退出平坦区后,再令=1,使激活函数恢复原状。不可否认,利用人工神经网络对铝合金变质效果进行预测也存在一些局限性和不足,但是这可以通过设置适当参数或者改进算法来弥补。到目前为止还没有一个公认的最有效的神经网络方法用于铝合金变质处理效果的预测。但是用人工神经网络方法对铝合金变质效果预测有以下优点:第一,精度较高;第二,建模相对容易;第三,数据组织容易。因此,ANN用于铝合金变质预测比其他方法有其自身的优越性。按ANN的输人数据的不同组织方式可以构成满足不同要求的铝合金变质预测系统。4基于BP网络的铝合金变质效果研究国内外对于铝合金变质检测方法研究的文献很多,其中人工神经网络是一种很有前途的测量方法,其主要优点在于可以对大量的数据进行学习,逼近任意非线性函数。而在这众多的神经网络技术中,BP神经网络是现在应用最成熟的一种神经网络算法,本研究提出了基于ANN的铝合金变质效果预测模型。通过对影响铝合金变质效果的信息变量进行分析和处理,选定BP神经网络的输入和输出,确定BP网络的结构,并利用MATLAB对神经网络进行仿真运算,从而得到最终的铝合金变质效果预测值。4.1MATLAB及BP神经网络工具箱函数4.1.1MATLAB简介MATLAB是一种功能十分强大,运算效率很高的数字工具软件,全称是MatrixLaboratory(矩阵实验室)。起初它是一种专门用于矩阵运算的软件,经过多年的发展,MATLAB已经发展成为一种功能强大的软件,几乎可以解决科学计算中的任何问题[12]。1、MATLAB的初步知识起初,MATLAB是专门用于矩阵计算的一种数学软件,但伴随着MATLAB的逐步市场化,它的功能也越来越大,从MATLAB4.1开始,MATLAB开始拥有自己的符号运算功能,从而是MATLAB可以替代其他一些专用的符号计算软件。在MATLAB环境下,用户可以集成地进行程序设计、数值计算、图形绘制、输入输出、文件管理等多项操作。MATLAB已经成为对数值线性代数以及其他一些高等应用数学课程进行辅助教学的有益工具。在工程技术界,MATLAB也被用来解决一些实际课题和数学模型问题。典型的应用包括数值计算、算法预设计与验证,以及一些特殊的矩阵计算应用,比如自动控制理论、统计和数字信号处理(时间序列拆分)等。2、MATLAB的优点与其他的高级语言相比,MATLAB有着许多非常明显的优点,比如说容易学会掌握;可以由较多种操作系统支持;丰富的内部函数和工具箱;强大的图形和符号功能;可以自动选择算法;与其他软件和语言有良好的对接性等。3、MATLAB神经网络工具箱神经网络工具箱是在MATLAB环境下开发出来的许多工具箱之一,它是以人工神经网络理论为基础,用MATLAB语言构造出典型神经网络的激活函数,如S型、线性、竞争层、饱和线性等激活函数,使设计者对所选定网络输出的计算变成对激活函数的调用。另外,根据各种典型的修正网络权值的规则,加上网络的训练过程,用MATLAB语言编写出各种网络设计与训练的子程序,网络的设计者则可以根据自己的需要去调用工具箱中有关神经网络的设计训练程序,使自己能够从繁琐的编程中解脱出来,集中精力去思考问题和解决问题,从而提高效率和解题质量。神经网络工具箱几乎包括了所有现有神经网络的最新成果。对于各种网络模型,神经网络工具箱集成了许多种学习算法,为用户提供了极大的方便。此外,神经网络工具箱还给出了大量的示例程序,为用户轻松地使用工具箱提供了生动实用的范例[12,13]。4.1.2BP神经网络工具箱函数MATLAB7.11神经网络工具箱中包含了许多用于BP网络分析与设计的函数,BP网络的几个重要函数如表4.1所示[8]。表4.1BP网络的重要函数函数名功能newff()生成一个前馈BP网络traingd()梯度下降BP训练函数(标准算法)train()BP网络训练函数sim()BP网络仿真函数(1)newff该函数用于创建一个BP网络。其调用格式如下。net=newff(PR,[S1S2...SN1],{TF1TF2...TFN1},BTF,BLF,PF)其中,net:函数返回值,创建的新BP神经网络。输入参数说明如下。PR:网络输入向量取值范围矩阵;[S1S2...SN1]:网络隐含层和输出层神经元的个数;{TF1TF2...TFN1}:网络隐含层和输出层的传输函数,默认为‘tansig’;BTF:网络的训练函数,默认为‘trainlm’;BLF:网络的权值学习函数,默认为‘learngdm’;PF:网络性能,默认为‘mse’。(2)traingd该函数为梯度下降BP算法函数,为一种标准的BP学习算法。(3)train神经网络训练函数,调用其他训练函数,对网络进行训练。该函数的常用调用格式为:[net,tr]=train(NET,P,T)其中,net:函数返回值,训练好的的BP神经网络;tr:函数返回值,训练记录(包括步数和性能)。输入参数说明如下。NET:待训练的BP网络;P:训练样本的输入向量;T:训练样本的输出向量。函数中的参数P、T采用矩阵形式,具体说明如下:P:RQ矩阵,其中R为训练样本的输入数,Q为训练样本数;T:S2Q矩阵,S2为网络中隐含层神经元个数。(4)Sim利用该函数可对训练好的BP网络进行仿真,其调用格式为:Y=sim(net,X),式中Y为网络的仿真输出向量,X为测试样本的输入向量。4.2应用BP网络对铝合金变质效果预测建模的一般步骤由于铝合金变质机理与原因非常复杂,铝合金变质效果与其凝固冷却曲线上的特征参数之间存在复杂的非线性关系,这种关系难以用一个精确的数学模型。而人工神经网络具有自适应功能,且在信息记忆、自主学习、知识推理、优化计算等方面有明显的优势,因此神经网络模型更能真实反映铝合金变质的变化。BP网络是目前应用最广泛的一种人工神经网络,用于铝合金变质效果预测建模的步骤可归纳如下:1、确定BP网络结构;2、根据以往的经验以及理论分析,选取最能反映铝合金变质效果变化的特征参数作为网络输入,铝合金变质效果作为输出;3、选取合适的训练样本集和测试样本集;4、由训练样本对所建立的BP神经网络进行训练;5、用测试样本集对训练好的BP网络进行测试;6、进行误差分析,确定铝合金变质预测模型。以下为BP神经网络用于铝合金变质效果预测的流程图。确定神经网确定神经网络的结构初始化网络参数训练网络确定神经网络预测模型构输出铝合金变质等级铝合金变质训练样本铝合金变质测试样本神经网络训练阶段铝合金变质预测阶段图4.1基于BP网络的铝合金变质效果预测流程图4.3铝合金变质效果预测神经网络模型的分析对于一个BP神经网络来说,确定它的的网络结构就是决定它的网络层数以及各层神经元的个数。为了简化网络的结构,决定采用一个单隐层的前向网络,即一个3层BP神经网络。神经网络的输入层,相当于选取决定输出相关变量集。输入变量应该选择那些对输出影响大的变量。对于铝合金变质效果预测来说,网络输入应选取最能反映铝合金变质效果变化的量。由热分析理论可知,铝合金试样的凝固冷却曲线上的固相线段的三个特征值(共晶平台温度TE、共晶平台温差△TE、共晶平台持续时间te)能较好地反映铝合金变质程度变化,故选取能很好反应铝合金变质效果变化且在实际中能测量的铝合金凝固冷却曲线上的共晶平台温度TE、共晶平台温差△TE、共晶平台持续时间te作为BP网络的三个输入。对于网络的输出,为铝合金变质效果。隐含层结构的确定:虽然增加隐含层可以提高系统的精度,但也会增加网络的复杂度,影响网络的学习速率,所以在这里我们采用单隐层。隐含层节点数目对网络的性能有一定的影响。隐含层节点数过少时,学习容量有限,不足以存储训练样本中蕴涵的所有规律;隐含层节点过多不仅会增加网络训练时间,而且会将样本中非规律性的内容如干扰和噪声存储进去,反而降低泛化能力。隐含层神经元个数范围可通过经验公式(4.1)确定为3~12。其经验公式如下[10]:(4.1)式中—隐含层节点数;—输入节点数;—输出节点数;—修正系数,在1~10之间。4.4铝合金变质效果预测的BP网络建模及仿真在本文中采用5月19日-5月27日利用自主研发的铝合金变质热分析装置采集到的铝合金变质样本数据,选用铝合金凝固冷却曲线上的共晶平台温度TE、共晶平台温差△TE、共晶平台持续时间te作为BP网络的三个输入,计算铝合金变质等级,利用MATLAB进行仿真,并进行分析。1、网络样本分析在本章中将以5月19日-5月27日在沈阳理工大学材料学院金属加工车间现场采集到的铝合金变质实验数据作为样本,进行BP网络的训练和测试,从而建立铝合金变质效果预测模型。在这里我们选择所测铝合金变质实验数据的平均值作为网络的学习样本,以便更好地反映铝合金变质规律。网络的学习样本数共26个,这样网络的输入P为一个3行26列的向量;目标向量就是26个铝合金变质样本的变质等级值,故目标向量为一个26维的行向量。而将所有的铝合金变质样本数据作为的网络的测试样本,共39个。由于在输入数据中各参数的数据大小、单位都不统一,这样大大增加了系统的运算量、运算时间,还降低了精度甚至可能使神经元趋于饱和而不能继续运算。为了避免神经元的饱和性,在确定输入和输出变量后,应对其进行归一化处理,将数据处理为一定范围之间。这样就降低了运算量,提高运算速度和减少运算时间。归一化的方式很多,MATLAB中也有归一化函数可对数据进行归一化和反归一化。本文中的样本数据归一化是利用下面的公式(4.2)进行的[14]。(4.2)式中—样本数据实际值;—样本数据归一;—所有样本数据中的最大值;—所有样本数据中的最小值;2、BP网络结构设计及算法选择对于一般的神经网络,增加隐含层的层数不会明显提高网络精度,反而会使网络复杂化,故本文采用典型的3层BP网络,即输入层、单隐含层和输出层。输入层的单元个数对应输入层的维数,即n=3;输出层为26个铝合金变质等级数据,其维数为1;隐含层神经元的数目在这里是根据经验公式(4.1)来选取的,但专家经验取得只是粗略值,还是得在仿真中选取不同的神经元个数来进行仿真分析得出最佳,最后通过多次试验选取最佳隐含层神经元个数为10。网络中隐含层的神经元激活函数(又称传递函数)采用正切sigmoid函数(tansig),输出层神经元传递函数采用对数sigmoid函数(logsig)。由于标准的BP神经网络算法存在诸多局限性,本文中网络的训练函数分别选用带弹性BP算法的trainrp函数和基于LM(Levenberg-Marquardt)算法的trainlm函数,并作出比较。3、仿真分析确定好网络结构和学习算法后,就可应用MATLAB对神经网络进行仿真。图4.2是应用MATLAB的神经网络工具箱对BP网络仿真的仿真界面。图4.2BP网络matlab仿真界面为了描述BP网络模型的计算输出与实际值之间的精度,采用均方误差(MeanSquareError,MSE)作为训练网络的误差性能指标,其定义如下[14]:(4.3)式中—实际实测结果;—网络输出结果。同时,为了描述网络模型的泛化能力,定义相对误差(relativeerror,简称RE)计算测试样本的铝合金变质等级实际值与网络预测值之间的精度。公式(4.4)为RE的表达形式[14]:(4.4)以下是用trainrp和trainlm两种训练方法,设置相同神经元数目训练出来不同的网络来预测铝合金变质等级。图4.3、图4.4、图4.5三组图为这两种改进算法的网络仿真情况的比较。其中每组中左图为带弹性BP算法的BP网络对应的仿真图,右图为基于LM算法的trainlm训练函数网络对应的仿真图。通过对两种算法的网络仿真结果比较,可发现:利用trainlm训练的BP网络的精度比trainrp训练的网络的精度高,且训练速度快,训练步数少,预测结果也比较准确,其最大相对误差可达到0.047%。图4.3两种算法用于铝合金样本变质预测图4.4两种算法用于铝合金样本训练的均方误差性能图4.5两种算法用于铝合金样本训练的训练状态两种算法的铝合金变质网络预测结果如表4.2所示(表中各项前一组数据对应trainrp,后一组对应trainlm):表4.2铝合金变质网络预测结果数据表trainrp预测值trainlm预测值实际测量值trainrp预测相对误差(%)trainlm预测相对误差(%)1.00071.000010.070.001.00261.000010.260.002.99953.000030.020.002.99953.000030.020.001.00721.000010.720.001.00711.000010.710.0468表4.2铝合金变质网络预测结果数据表续trainrp预测值trainlm预测值实际测量值trainrp预测相对误差(%)trainlm预测相对误差(%)1.01161.000511.160.002.90763.000033.080.00022.99153.000030.280.001.00001.000010.000.001.00001.000010.000.001.00401.000010.400.001.00501.000010.500.001.00231.000010.230.002.99713.000030.100.001.00001.000010.000.001.00021.000010.020.001.00031.000010.030.002.99893.000030.040.002.99913.000030.030.001.00011.000010.010.001.00021.000010.020.002.99273.000030.240.002.98713.000030.430.001.00011.000010.010.001.00011.000010.010.002.99883.000030.040.002.99863.000030.050.001.00001.000010.000.001.00001.000010.000.002.99283.000030.240.00表4.2铝合金变质网络预测结果数据表续trainrp预测值trainlm预测值实际测量值trainrp预测相对误差(%)trainlm预测相对误差(%)2.99473.000030.180.001.00311.000010.310.001.00301.000010.300.001.00201.000010.200.001.00061.000010.060.001.00101.000010.100.002.99893.000030.040.002.99853.000030.050.00Trainrp和trainlm两种算法用于铝合金变质效果预测的均方误差性能指标分别为:5.613410-9和2.369910-4。BP网络预测铝合金变质效果分析:从表4.2可知,采用LM算法的BP网络明显要比采用弹性BP算法的BP网络预测效果好,其最大相对误差可达到0.047%。结合上文中的图4.3-图4.5以及上面对铝合金变质预测结果数据的分析可以看出,采用LM改进算法的BP神经网络在铝合金变质预测方面更具优势,运算速度快,模型预测误差小,精度高。因此,该基于LM改进算法的BP神经网络模型可用于炉前铝合金变质效果预测,做到快速、可靠。结论通过毕业设计,完成了以下工作:1、介绍和分析了国内外对铝合金变质效果的研究现状;2、介绍了铝合金变质的热分析变质和人工神经网络理论;3、详细阐述了BP神经网络理论,包括基本思想、结构组成、学习算法及其改进措施;4、现场采集铝合金变质数据,利用BP神经网络进行铝合金变质效果预测建模并对进行了仿真分析。5、比较了trainrp和trainlm两种BP改进算法用于铝合金变质预测的仿真结果。从神经网络模型的仿真预测结果可以得出,相对于常规的铝合金变质检测方法,神经网络能较准确、快速地预测铝合金变质效果。通过比较trainrp和trainlm两种BP改进算法的仿真结果,可得出:基于LM改进算法的BP神经网络模型能更好地对铝合金变质效果进行预测。虽然本文中采用的3层BP神经网络模型能很好地预测参与本次研究的铝合金牌号的铝合金的变质效果,但也存在一些局限性。具体如下:1、参与测试的铝合金种类有限,无法对所有铝合金进行预测。2、铝合金变质特征参数的准确性是决定该模型能应用于实际的关键。3、用于网络训练的铝合金变质样本数较少,可能不能全面反映铝合金的变质信息。对于以上的局限性,可通过以下两个措施加以弥补:1、建立更多种类的铝合金变质数据库,以便神经网络存储和学习。2、继续铝合金变质热分析特征参数获得的装置研究工作,提高铝合金变质数据的质量。参考文献[1]熊红玲,吴树森,袁文文.ZL104铝合金变质等级与变质效果的热分析研究[J].热加工工艺.2007,36(5):28[2]刘云,倪华锦.ZL104合金锶变质处理质量预测研究[J].热加工工艺.2010,39(11):85-87[3]刘云,杨晶.微分热分析法在铝合金变质处理上的应用[J].铸造.2003,52(3):66-69[4]袁文文,吴树森,毛有武.Al-Si合金熔体变质效果评估判据[J].材料导报.2006,20(1):98-100[5]DjurdjevicM,JiangH,SokolowskiJ.On-linepredictionofaluminum-siliconeutecticmo-dificationlevelusingthermalanalysis[J].MaterialsCharacterization.2001,46(1):31[6]DjurdjevicMB,FrancisR,LashkariRS,etal.ApplicationofartificialneuralnetworksinthepredictionofthealuminumsiliconmodificationlevelofW319aluminumalloy[J].AFSTransactions.2003,111:217[7]熊红玲.亚共晶铝硅合金变质效果热分析研究[D].武汉:华中科技大学.2007:9[8]周品.MATLAB神经网络设计与应用[M].北京:清华大学出版社,2003:153-184[9]刘金琨.智能控制(第2版)[M].北京:电子工业出版社,2009:110-123[10]朱大奇,史慧.人工神经网络原理及应用[M].北京:科学出版社,2006:39-42[11]田景文.人工神经网络算法研究及应用[M].北京:北京理工大学出版社,2006:35-37[12]董长虹.MATLAB神经网络与应用(第2版)[M].北京:国防工业出版社,2007:91-92[13]闻新,周露,王丹力.MATLAB神经网络与应用设计[M].北京:北京出版社,2007:35-48[14]于军辉,李小宁,翟岩.基于锆基合金退火参数与硬度的BP神经网络模型[J].稀有金属材料与工程.2012,41(8):1346-1369附录A英文原文PredictionofmechanicalpropertiesofA357alloyusingartificialneuralnetworkAbstract:TheworkpiecesofA357alloywereroutinelyheattreatedtotheT6stateinordertogainanadequatemechanicalproperty.Themechanicalpropertiesoftheseworkpiecesdep-endmainlyonsolid-solutiontemperature,solid-solutiontime,artificialagingtemperatureandartificialagingtime.Anartificialneuralnetwork(ANN)modelwithaback-propagation(BP)algorithmwasusedtopredictmechanicalpropertiesofA357alloy.TheresultsshowthatthisBPmodelisabletopredictthemechanicalpropertieswithahighaccuracy.Keywords:A357alloy;mechanicalproperties;artificialneuralnetworkA.1IntroductionA357(Al-7Si-0.6Mg)alloyhasbeenwidelyusedinaerospace,automotiveindustriesandotheraspectsduetoitsexcellentcastability,goodcorrosionresistanceandhighspecificstren-gthinheattreatedconditions.TheworkpiecesareroutinelyheattreatedtotheT6stateinord-ertodevelopanadequatemechanicalproperty.T6heattreatmentincludessolutionheattreat-ment,quenchandagehardening.Inthepastfewdecades,themechanicalpropertiesofA357alloytreatedunderdifferentconditionshavebeenextensivelystudied.CESCHINIetalstudi-edtherelationshipamongthemicrostructuralfeatures,thehardnessandtheultimatetensilestrengthofA357alloy.SixteenheattreatmentsofA357alloyweredesignedtostudytheeffe-ctofvariousheattreatmentparametersonthemechanicalproperties.Theresultsshowedthatquenchingrateplaysacrucialroleindeterminingthemechanicalproperties.ROMETSCHandSCHAFFERhadmodeledtheyieldstrengthagingcurvesforA356andA357aluminumalloysbelowthesolvustemperatureofthemainhardeningprecipitation.Therefore,itistoodifficulttouseasinglemathematicalmodeltodescribetherelationshipbetweenheattreatme-ntparametersandmechanicalpropertiesofA357alloy.Recently,artificialneuralnetworkhasbeenwidelyusedindescribingthemechanicalpropertiesofmetalsandalloys.Theartificialneuralnetwork(ANN)methodiscapableoftrea-tingthenon-linearproblemsandcomplexrelationships.FOROUZANandAKBARZADEHhavedevelopedanartificialneuralnetwork(ANN)modelwithaback-propagationlearningalgorithmtopredicttheyieldstrength,elongationandultimatetensilestrengthduringhotroiling,coldrollingandannealingofAA3004aluminumalloy.TheresultsshowedthatthisapproachcanbewellusedtopredictthemechanicalpropertiesofAA3004alloysheets.AnANNmodelisusedfortheanalysisandpredictionofthecorrelationbetweenheattreatmentparametersandmechanicalpropertiesintitaniumalloys,andaverygoodperformanceofthenetworkhasbeenachieved.YUetalestablishedaneuralnetworktoacquiretherelationshipsbetweenthemechanicalpropertiesandtheprocessingparametersofforgedTi-6Al-4Valloy.TheANNapproachinthepredictionoftheheattreatmentparametersandmechnicalpropertieshasnotyetbeenwidelyusedforcastaluminumalloy.Inthiswork,aseriesoftensiletestswerecarriedoutonheat-treatedA357alloysamplestoestablishthenetworkdatabaseusedintheartificialneuralnetwork.TheANNmodelwasconstructedtopredictthemechanicalpropertiesofA357alloybyusingtheheattreatmentparametersastheinputvariables,whiletheultimatetensilestrengthandelongationastheoutput.A.2ExperimentalThemainchemicalcomposition(massfraction,%)ofcommercialA357aluminumalloyusedinthepresentinvestigationisasfollows:6.83Si,0.51Mg,0.18Ti,0.04Cu,0.03Fe,0.04BeandAlbalance.TheblanksofcylindricaltensilebarofA357alloywereobtainedbyusingpermanentmoldcasting,andthenthesebarsweresubjectedtodifferentheattreatments.Theheattreatmentparameters(T6conditions)usedinthisworkareasfollows:solid-solutiontemperature(535oCand545oC),solid-solutiontime(8hand12h),quenchingtemperature(60oC),artificialagingtemperaturerange(155-175)oCandartificialagingtimerange(5-15)h.Afterheattreatments,thetensilespecimensweremachinedaccordingtoASTME8Mstandar-dspecificationwith45.0mmingaugelengthand9mmindiameter.TensiletestswerecarriedoutusinganInstrontensiletesteratroomtemperature.Ultimatetensilestrengthandelongati-ontofailureweremeasured.A.3OverviewofANNandestablishmentofANNmodelA.3.1overviewofANNAnartificialneuralnetwork(ANN)isacomputationalmodelwhichhasbeenappliedextensivelyinmanyprofessionssuchasstatistics,cognitivepsychology,imageprocessing,manufacturingandcommunications.Itismadeupofanumberofinterconnectedgroupsofnodesandthemodeliscomposedofthreelayers:aninputlayer,ahiddenlayerorafewhiddenlayersandanoutputlayer.Eachlayerhasacertainnumberofneuronsthatoperateinparallelandcommunicatewitheachotherthroughlinkingweights.Theinputlayerconsistsofalltheinputfactors.Thedatafromtheinputlayerarecalculatedthroughthehiddenlayer,followingoutputvectorisprocessedintheoutputlayer.ThemostbasicallyandcommonlyusedANNismultilayerfeedforwardnetworkwithbackpropagation(BP)learningalgorithm.Itisasupervisedleamingmethod.Thevalueofpredefinederrorfunctioniscalculatedbycomparingtheactualoutputvalueswiththedesireddata,theerroristhenfeedbackthroughthenetwork,andtheleamingalgorithmadjuststheweightsofeachconnectioninordertoreducetheerror.Afteradequatecirculationinthisprocess,theerrorwillreachthepredefinedvalue.Inthissituation,thenetworkisconsideredlearningacertaintargetfunction.A.3.2EstablishmentofANNmodelInthepresentstudy,theartificialneuralnetwork(ANN)withaback-propagation(BP)lea-rningalgorithmwasestablishedtopredictthemechanicalpropertiesoftheheat-treatedA357alloy.Solid-solutiontemperature,solid-solutiontime,artificialagingtemperatureandartifici-alagingtimewereusedastheinputvariableswhileultimatetensilestrengthandelongationweretakeastheoutputdata.Inthisinvestigation,thequenchingtemperaturewasnotservedasinputdataofneuralnetworkduetoitwasdefinedasaconstantforheattreatmentprocessofA357alloy.Thedatafromtensiletestsweredividedintotwosub-sets:atrainingsetandatestingset.Thetrainingsetaccountsforfive-sixthsoftheoriginaldataset;theremainingdatasetwasleftfortestingset.Tospeeduptheconvergenceofthetrainingnetworkitisnecessarytonormali-zetheoriginaldata.Thetransformationequationisgivenby(3.1)whereistheprimarydatumfromtensiletests;,andarethenor-malizedvalue,themaximumvalueandtheminimumvalueof,respectively.FromEq.(1),weknowthatvalueisintherangeof[0.1,0.9].IntheoutputlayeroftheBPmodel,alinearfunctionwastakenasthetransferfunction.Thetransferfunctionsinthehiddenlayersweresigmoidfunction(tan-sigmoidandlog-sigmo-id),whicharegivenusingthefollowingequations:(3.2) (3.3)Inthiswork,usingmeansquareerror(MSE)astheevaluationcriterion,performanceofnetworktrainingbasedonBPartificialneuralnetworkwasevaluated.Ittriestominimizetheaveragesquarederrorbetweenthedesiredandactualoutputvaluesoveralltheexamplepairs,andthefunctionofMSEcanbedefinedas(3.4)whereisthedesireddatafromtensiletests;istheactualvaluefromtheANN;isthenumberofdesireddatainthisstudy.ItisveryimportantforanANNtodecidehowtotrainthenetwork.Inthissection,weconcernedtwodifferenttypesoftraining:incrementaltrainingandbatchtraining.Inincrementaltraining,theweightsandbiasesofthenetworkareupdatedeachtimeafteraninputispresentedtothenetwork.Inbatchtraining,theweightsandbiasesareonlyupdatedafteralltheinputsandtargetsarepresentedtothenetwork.Theorderoftheinputvectorsappearingisimportantforincrementaltraining,butforbatchtraining,itisnotimportant.Accordingtotheabovedescriptionofthetwobasictypesofnetworktraining,wehaveusedbatchtraininginthiswork.ThereisnotheoreticalmethodtodeterminethevaluesofparametersoftheANNmodelbecauseeachproblemwithanANNhasdifferentfeatures.Accordingtotraditionalresearch,thevaluesoftheseparameterswereselectedbytrail-and-error,whichwasusedinthiswork.InthetraditionalANNliteratures,thelearningrateandthemomentumconstantsareusuallysettobe0-1.ItisveryimportantforanANNtoselectanappropriatelearningrate.Thevalueofthelearningratecontrolsthesizeoftheadjustmentsmadeduringthetrainingprocess.Ifthelearningrateistoohigh,thealgorithmlearnsquicklybutitwillresultinanunstablestate.Ifthevalueoflearningrateistoohigh,thealgorithmwilltakealongtimetolearn.Therefore,anappropriatelearningratenotonlyensuresthestabilityofthenetworkbutalsoguaranteesanacceptabletrainingtimeofthenetwork.Inourcase,wechoosethevalueof0.1asthelearningrate.Amomentumfactorisusedtospeeduptheconvergenceofnetworktraining.Whenthemomentumconstantisequalto0,aweightchangeisobtainedsolelybythegradientdescentapproach.Whenthemomentumconstantisequalto1,changeinweightsissettoequalthelastweightchange,andthepartofthechangegeneratedbythegradientissimplyignored.Ahighervalueofmomentumfactorishelpfultoattainthebestperformanceofthenetwork.Here,wechoosethevalueof0.6forthemomentumfactor.Generally,onehiddenlayersufficestomeettherequirementsofpredictionaccuracy.Inthisinvestigation,theaverageabsoluterelativeerrorwasusedtoassessperformanceofthetrainingandtestingnetwork.Inordertodeterminetheoptimalarchitecture,severalneuralnetworksweretrainedwithdifferentnumberofneuronsinonehiddenlayer.Aftertraining,itwasfoundthatthenetworkwiththesefeaturesprovedabetternetworkprecision:amomentumrateof0.6,alearningrateof0.1,aMSEof10-5andtheepochsof10000.Inaddition,8neuronswereusedinonehiddenlayer.A.4ResultsanddiscussionInthisinvestigation,anartificialneuralnetwork(ANN)modelwithaback-propagation(BP)learningalgorithmwasdevelopedtopredictultimatetensilestrengthandelongationofA357alloy.Itcanbeseenthatthetrainingprocesslasteduntiltheerrorgoalwasmetandthetrainingterminatedat200epochs.Eachepochisastepthatpassesthroughinputs,hiddensandoutputsinthetrainingprocessofanartificialneuralnetwork.Here,thevalueofgoalerrorwassetas10-5andthevalueofMSEfornetworktrainingreached9.89x10-6atepoch200.Themaximumrelativeerrors(MRE)ofultimatetensilestrengthandelongationbetweenthemeasure
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 连锁装饰公司管理制度
- 高空保洁安全管理制度
- 企业管理制度之我见
- 2025四川国际标榜职业学院教师招聘考试试题及答案
- 暑假敬老院社会实践报告范文-总结报告模板
- 人音版三年级音乐下册(简谱)第8课《帕米尔我的家乡多么美》教学设计
- 2025年会计职称考试《初级会计实务》财务管理基础历年真题解析试题及答案
- 二年级数学上册 六 表内除法 分一分教学设计 西师大版
- Module 2 Unit 2 Mr Li was a teacher(教学设计)-2023-2024学年外研版(三起)英语五年级下册
- Module 5 Unit 1 We went to the Great Wall. (教学设计) -2024-2025学年外研版(一起)英语四年级上册
- 《家族职业树》课件
- 人教部编版六年级上册语文选择题专项复习练习(100题后附答案)
- 北海旅游饮食攻略
- (完整版)A4作文格纸可直接打印使用
- 安徽-建标〔2017〕191号附件-2018工程量清单计价办法
- 注意缺陷多动障碍诊疗规范2023版
- 地铁站装饰装修工程施工方案
- 动力管道设计手册-第2版
- 阿那亚分析研究报告
- 中等职业学校人才培养工作水平评估报告
- 高职《机床夹具设计》模块4 夹具的设计方法0526
评论
0/150
提交评论