《机械优化设计(第7版)》课件 孙靖民 第3章一维搜索方法;第4章无约束优化方法_第1页
《机械优化设计(第7版)》课件 孙靖民 第3章一维搜索方法;第4章无约束优化方法_第2页
《机械优化设计(第7版)》课件 孙靖民 第3章一维搜索方法;第4章无约束优化方法_第3页
《机械优化设计(第7版)》课件 孙靖民 第3章一维搜索方法;第4章无约束优化方法_第4页
《机械优化设计(第7版)》课件 孙靖民 第3章一维搜索方法;第4章无约束优化方法_第5页
已阅读5页,还剩114页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机械优化设计第三章一维搜索方法×第一节

概述§第二节

搜索区间的确定与区间消去法原理§第三节

一维搜索的试探方法§第四节

一维搜索的插值方法§

第三章一维搜索方法

当采用数学规划法寻求多元函数的极值点时,一般要进行一系列如下格式的迭代计算:当方向给定,求最佳步长就是求一元函数的极值问题。这一过程被称为一维搜索。

§第一节一维搜索的概念求多元函数极值点,需要进行一系列的一维搜索。可见一维搜索是优化搜索方法的基础。求解一元函数的极小点,可采用解析解法,即利用一元函数的极值条件求在用函数的导数求时,所用的函数是仅以步长因子为变量的一元函数,而不是以设计点x为变量的多元函数。为了直接利用的函数式求解最佳步长因子。可把或它的简写形式进行泰勒展开,取到二阶项,即将上式对进行微分并令其等于零,给出极值点应满足的条件从而求得这里是直接利用函数而不需要把它化成步长因子。的函数。不过,此时需要计算点处的梯度 和海赛矩阵。解析解法的缺点——需要进行求导计算。对于函数关系复杂、求导困难或无法求导的情况,使用解析法将是非常不便的。因此,在优化设计中,求解最佳步长因子主要采用数值解法,利用计算机通过反复迭代计算求得最佳步长因子的近似值。数值解法的基本思路是:首先确定所在的搜索区间,然后根据区间消去法原理不断缩小此区间,从而获得的数值近似解。一维搜索是优化搜索方法的基础。*一维搜索方法解析法高等数学已学过,即利用一维函数的极值条件:

一维搜索也称直线搜索。这种方法不仅对于解决一维最优化本身具有实际意义,而且也是解多维最优化问题的重要支柱。求一维搜索方法数值解法分类1.解析法:

步骤:①f(X(k)+αS(k))沿S(k)

方向在x(k)

点进行泰勒展开;②取二次近似:

对α求导,令其为零。

④求得最优步长数值解法基本思路:

先确定所在的搜索区间,然后根据区间消去法原理不断缩小此区间,从而获得的数值近似解。解析解法对于函数关系复杂、求导困难等情况难以实现。在实际优化设计中,数值解法的应用更为有效,且适合计算机的运算特点。

一维搜索也称直线搜索。这种方法不仅对于解决一维最优化问题具有实际意义,而且也是求解多维最优化问题的重要支柱。一维搜索一般分为两大步骤:(1)确定初始搜索区间[a,b],该区间应是包括一维函数极小点在内的单谷区间。(2)在单谷区间[a,b]内通过缩小区间寻找极小点。1、确定搜索区间的外推法在给定区间内仅有一个谷值(或有唯一的极小点)的函数称为单谷函数,其区间称为单谷区间。函数值:“大—小—大”图形:“高—低—高”单谷区间中一定能求得一个极小点。§第二节搜索区间的确定与区间消去法原理从开始,以初始步长向前试探。如果函数值上升,则步长变号,即改变试探方向。如果函数值下降,则维持原来的试探方向,并将步长加倍。区间的始点、中间点依次沿试探方向移动一步。此过程一直进行到函数值再次上升时为止,即可找到搜索区间的终点。最后得到的三点即为搜索区间的始点、中间三点和终点,形成函数值的“高-低-高”趋势。单谷区间f(x)0α1α3α0f(x)α3α1说明:单谷区间内,函数可以有不可微点,也可以是不连续函数;外推方法基本思想:对任选一个初始点及初始步长,通过比较这两点函数值的大小,确定第三点位置,比较这三点的函数值大小,确定是否为“高—低—高”形态。步骤:

1)选定初始点a1,初始步长h=h0,计算y1=f(a1)和y2=f(a1+h)2)比较y1和y2;a)如果y1>y2,向右前进,加大步长h=2h0,转(3)向前;b)如果y1<y2,向左后退,h=-2h0,将a1和a2,y1和y2的值互换。转(3)向后探测;c)如果y1=y2,极小点在a1和a1+h之间。3)产生新的探测点a3=a2+h,y3=f(a3);4)比较函数值y2和y3:a)如果y2>y3

,加大步长h=2h,a1=a2,a2=a3,转(3)继续探测;b)如果y2<y3,则初始区间得到:a=min[a1,a3],b=max[a1,a3],函数最小值所在区间为[a,b]。右图表示沿的正向试探。每走一步都将区间的始点、中间点沿试探方向移动一步(进行换名)。经过三步最后确定搜索间,并且得到区间始点、中间点和终点所对应的函数值。y1y3→y2y2→y1a3→a2a2→a1a1Oaa3h0h02h0图3-2正向搜索的外推法右图所表示的情况是:开始是沿的正方向试探,但由于函数值上升而改变了试探方向,最后得到始点,中间点和终点及它们的对应函数值,从而形成单谷区间为一维搜索区间。y1←y2a2←a3a1←a2←a1Oaa32h0h0h0y3y1←y2←y1y2←y3a1←a2图3-3反向搜索的外推法khx1x2x30h0初始点初始点+h012h0初始点初始点+h0初始点+3h024h0初始点+h0初始点+3h0初始点+7h038h0初始点+3h0初始点+7h0初始点+15h0前进搜索步骤表khx1x2x30h0初始点初始点+h012h0初始点+h0初始点初始点-2h024h0初始点初始点-2h0初始点-6h038h0初始点-2h0初始点-6h0初始点-14h0后退搜索步骤表khx1y1x2y2x3y300.10.2090.18.2030.36.68110.40.18.2030.36.6810.74.42920.80.36.6810.74.4291.57.125khx1y1x2y2x3y300.1-0.21.812.0961.914.3771.914.3771.812.0961.68.4881-0.41.812.0961.68.4881.24.5842-0.81.68.4881.24.5840.45.9922、区间消去法原理基本思想:

,搜索区间确定之后,采用区间消去法逐步缩短搜索区间,从而找到极小点的数值近似解。在搜索区间内任取两点且计算其函数值得如下于是将有下列三种可能情形:(1)f(a1)<f(b1),则极小点必在区间[a,b1]内;(2)f(a1)>f(b1),则极小点必在区间[α1,b]内;(3)f(a1)=f(b1),则极小点必在区间[α1,b1]内f(a1)f(b1)f(a1)f(b1)f(a1)f(b1)a1a1a1b1baababb1b1根据以上所述,只要在区间[a,b]内取两个点,算出它们的函数值并加以比较,就可以把搜索区间[a,b]缩短成[a,b1],[α1,b]

[α1,b1]。对于第一种情况,我们已算出区间[a,b1]内α1点的函数值,如果要把搜索区间[a,b1]进一步缩短,只需在其内再取一点算出函数值并与f(α1)加以比较,即可达到目的。对于第二种情况,同样只需再计算一点函数值就可以把搜索区间继续缩短。第三种情形与前面两种情形不同,因为在区间

[α1,b1]内缺少已算出的函数值。要想把区间[α1,b1]进一步缩短,需在其内部取两个点(而不是一个点)计算出相应的函数值再加以比较才行。如果经常发生这种情形,为了缩短搜索区间,需要多计算一倍数量的函数值,这就增加了计算工作量。程序设计技巧为了避免多计算函数值,我们把第三种情形合并到前面两种情形中去。例如,可以把前面三种情形改为下列两种情形:从上述的分析中可知,为了每次缩短区间,只需要在区间内再插入一点并计算其函数值。如此反复进行下去,当搜索区间长度足够小时,可用区间内的某点作为极小点的近似值。①若则取为缩短后的搜索区间。②若则取为缩短后的搜索区间。3、一维搜索方法分类

根据插入点位置的确定方法,可以把一维搜索法分成两大类:试探法:即按照某种规律来确定区间内插入点的位置,此点位置的确定仅仅按照区间缩短如何加快,而不顾及函数值的分布关系。如黄金分割法,裴波纳契法等。裴波纳契数列:1、1、2、3、5、8、13、21、34、55、89、144

插值法(函数逼近法):通过构造插值函数来逼近原函数,用插值函数的极小点作为区间的插入点,如牛顿法(切线法)、二次插值法(抛物线法)、三次插值法等。概述在实际计算中,最常用的一维搜索试探方法是黄金分割法,又称作0.618法。我们可以通过学习黄金分割法来了解一维搜索试探方法的基本思想。在搜索区间[a,b]内适当插入两点α1、α2,并计算其函数值。α1、α2将区间分成三段。应用函数的单谷性质,通过函数值大小的比较,删去其中一段,使搜索区间得以缩短。然后再在保留下来的区间上作同样的处置,如此迭代下去,使搜索区间无限缩小,从而得到极小点的数值近似解。§第三节一维搜索的试探方法——黄金分割法黄金分割法黄金分割法是建立在区间消去法原理基础上的试探方法。适用于[a,b]区间上的任何单谷函数求极小值问题。对函数除要求“单谷”外不作其它要求,甚至可以不连续。因此,这种方法的适应面相当广。黄金分割法对插入点的要求:

1)要求插入点α1、α2的位置相对于区间[a,b]两端点具有对称性,即

其中为待定常数。2)黄金分割法还要求在保留下来的区间内再插入一点所形成的区间新三段,与原来区间的三段具有相同的比例分布。即每次缩小所得的新区间长度与缩小前区间长度之比(即:区间收缩率)为定值。设原区间[a,b]长度为1如下图所示,保留下来的区间[a,α2]长度为,区间缩短率为。为了保持相同的比例分布,新插入点α3应在位置上,α1在原区间的位置应相当于在保留区间的位置。故有取方程正数解,得α1、α2将区间分成三段黄金分割法要求在保留下来的区间内再插入一点所形成的区间新三段,与原来区间的三段具有相同的比例分布。两内分点值:结论:所谓黄金分割是指将一线段分成两段的方法,使整段长与较长段的长度比值等于较长段与较短段长度的比值即。黄金分割法的搜索过程(1)给出初始搜索区间及收敛精度,将赋以

(2)按坐标点计算公式计算并计算其对应的函数值

(3)根据区间消去法原理缩短搜索区间。为了能用原来的坐标点计算公式,进行区间名称的代换,并在保留区间中计算一个新的试验点及其函数值。(4)检查区间是否缩短到足够小和函数值收敛到足够近,如果条件不满足返回到步骤(2)。(5)如果条件满足,则取最后两试验点的平均值作为极小点的数值近似解。缩短区间的总次数(迭代次数):黄金分割法程序框图给定否否是是止也可采用迭代次数是否大于或等于k作终止准则。举例对函数,当给定搜索区间时,试用黄金分割法求极小点。迭代序号aα1α2bf1比较f20-30.0561.94450.115<7.6671-3-1.1110.0561.944-0.987<0.1152-3-1.832-1.1110.056-0.306>-0.9873-1.832-1.111-0.6650.056-0.987<-0.8884-1.832-1.386-1.111-0.665-0.851>-0.9875-1.386-1.111-0.940-0.665例3-1用黄金分割法求函数f(x)=3x3-4x+2的极小点,给定x0=0,h=1,ε=0.2。解:1)确定初始区间a1=x0=0,f1=f(a1)=2a2=x0+h=0+1=1,f2=f(a2)=1由于f1>f2,应加大步长继续向前探测。a3=x0+2h=0+2=2,f3=f(a3)=18由于f2<f3,可知初始区间已经找到,即[a,b]=[a1,a3]=[0,2]2)用黄金分割法缩小区间

第一次缩小区间:

a1=0+0.382×(2-0)=0.764,f1=0.282a2=0+0.618×(2-0)=1.236,f2=2.72

f1<f2,新区间[a,b]=[a,a2]=[0,1.236],b-a>0.2第二次缩小区间:令x2=x1=0.764,f2=f1=0.282

x1=0+0.382X(1.236-0)=0.472,f1=0.317由于f1>f2,故新区间[a,b]=[x1,b]=[0.472,1.236]因为b-a=1.236-0.472=0.764>0.2,应继续缩小区间。

第三次缩小区间:令x1=x2=0.764,f1=f2=0.282

x2=0.472+0.618X(1.236-0.472)=0.944,f2=0.747由于f1<f2,故新区间[a,b]=[a,x2]=[0.472,0.944]因为b-a=0.944-0.472=0.472>0.2,应继续缩小区间。

第四次缩小区间:令x2=x1=0.764,f2=f1=0.282

x1=0.472+0.382X(0.944-0.472)=0.652,f1=0.223由于f1<f2,故新区间[a,b]=[a,x2]=[0.472,0.764]因为b-a=0.764-0.472=0.292>0.2,应继续缩小区间。第五次缩小区间:令x2=x1=0.652,f2=f1=0.223

x1=0.472+0.382X(0.764-0.472)=0.584,f1=0.262由于f1>f2,故新区间[a,b]=[x1,b]=[0.584,0.764]因为b-a=0.764-0.584=0.18<0.2,停止迭代。极小点与极小值:x*=0.5X(0.584+0.764)=0.674,f(x*)=0.222§第四节一维搜索的插值方法概述一维搜索问题是在某一确定区间内寻求一元函数的极小点的位置,在某些情况下,如果没有函数表达式,但能够给出若干试验点处的函数值,就可以根据这些点处的函数值,利用插值法建立函数的某种近似表达式,进而求出函数的极小点,并用它作为原来函数极小点的近似值。这种方法称作插值法,又称作函数逼近法。试探法(如黄金分割法)与插值法的比较:不同点:表现在试验点(插入点)位置的确定方法不同。多项式是函数逼近的一种常用工具。在搜索区间内可以利用若干试验点处的函数值来构造低次多项式,用它作为函数的近似表达式,并用这个多项式的极小点作为原函数极小点的近似。常用的插值多项式为二次多项式。牛顿法(切线法)利用一点的函数值、一阶导数值和二阶导数值来构造二次函数。二次插值法(抛物线法)

利用三个点的函数值形成一个抛物线来构造二次函数。

1、牛顿法(切线法)对于一维搜索函数,假定已经给出极小点的一个较好的近似点,在点附近用一个二次函数来逼近函数然后以该二次函数的极小点作为极小点的一个新的近似点。根据极值必要条件:牛顿法的几何解释:在上图中,在处用一抛物线代替曲线,相当于用一斜线代替。这样各个近似点是通过对作切线求得与轴的交点找到,故牛顿法又称为切线法。牛顿法的计算步骤:1)给定初始点

,控制误差

,并令

2)计算

3)求

4)若

,则求得近似解,停止计算,否则作5)。

5)令

转2)。

例题:

给定

,试用牛顿法求其极小点。

解:1)给定初始点

,控制误差

2)3)4)重复上边的过程,进行迭代,直到

为止。可得到计算结果如下表:

表3-2牛顿法的搜索过程k01234值ak35.166674.334744.03964.00066f'(ak)-52153.3518332.301993.382990.00551f"(ak)-24184.33332109.4458686.8699284.04720ak+15.166674.334744.039604.000664.00059优点:收敛速度快。缺点:每一点都要进行二阶导数,工作量大;当用数值微分代替二阶导数,由于舍入误差会影响迭代速度;要求初始点离极小点不太远,否则有可能使极小化发散或收敛到非极小点。牛顿法的特点:2、二次插值法(抛物线法)基本思想:二次插值的基本思想是利用目标函数在不同3点的函数值构成一个与原函数f(x)相近似的二次多项式p(x),以函数p(x)的极值点xp(即p’(x*p)=0的根)作为目标函数f(x)的近似极值点。(1)二次插值多项式的构成及其极值点设在单谷区间中的三点

的相应函数值

,则可以做出如下的二次插值多项式:多项式

的极值点可从极值的必要条件求得,即

为了确定这个极值点,只需计算出系数a1和a2

。其方法法是利用a0、a1、a2的联立方程组中相邻两个方程消去a0

,从而得到关于a1、a2的方程组解得所以如果令则这样就得到了f(α)极小点α*的近似解αp。

1)如果区间长度

足够小,则由

便得出我们所要求的近似极小点

2)如果不满足,必须缩小区间

,根据区间消取法原理不断缩小区间。根据区间消去法原理,需要已知区间内两点的函数值。其中点α2的函数值y2=f(α2)已知,另外一点可取αp点并计算其函数值yp=f(αp)。当y2<yp

时取[α1,αp]为缩短后的搜索区间(如右图)。当y2≥yp

时取[α2,α3]为缩短后的搜索区间。

程序设计技巧为了在每次计算插入点的坐标时能应用同一计算公式,新区间端点的坐标及函数值名称需换成原区间端点的坐标及函数值名称。在每个新区间上仍取α1、α2、α3三点及其相应函数值y1>y2>y3

。这样当计算插入点(即抛物线极小点αp)位置时仍可以应用原来的计算公式。根据αp与α2的相对位置,yp与y2的大小以及正向搜索(h>0)或反向搜索(h<0)的不同,具体换名有如下表所示的八种情况。(P56)上表中的中的h就是在进行外推法时求初始搜索区间过程中所形成的最后步长,h可正可负,分别对应于沿α

正向或反向进行的一维搜索。分析上述八种换名情况可知,如果乘积的符号相同,那么正向搜索和反向搜索将采取同样的换名方式,从而可将上述八种情况合并成四种情况,从而可将程序框图简化。二次插值法程序框图例1:用二次插值法求

上的极小点。

12α144.5α24.54.705120α355y1-0.756802-0.977590y2-0.977590-0.999974y3-0.958924-0.958924αp4.7051204.710594yp-0.999974-0.999998二次插值法计算过程示例例2用二次插值法求函数f(x)=3x3-4x+2的极小点,给定x0=0,ε=0.2。2)用二次插值法逼近极小点相邻三点的函数值:x1=0,x2=1,x3=2;f1=2,f2=1,f3=18.代入公式:xp*=0.555,fp=0.292解

1)确定初始区间初始区间[a,b]=[0,2],中间点x2=1,f(x2)=1。由于fp<f2,xp*

<x2,新区间[a,b]=[a,x2]=[0,1]|x2-xp*

|=1-0.555=0.445>0.2,应继续迭代。在新区间,相邻三点的函数值:x1=0,x2=0.555,x3=1;f1=2,f2=0.292,f3=1,代入xp*公式计算得:xp*=0.607,fp=0.243

由于fp<f2,xp>x2,新区间[a,b]=[x2,b]=[0.555,1]|x2-xp*|=|0.555-0.607|=0.052<0.2,迭代终止。

xp*=0.607,f*=0.243例3用二次插值法求的极值点。初始搜索区间,。 解:取x2点为区间[x1,x3]的中点,,计算x1,x2,x33点处的函数值f1=19,f2=-96.9375,f3=124。可见函数值满足“高-低-高”形态。 以x1,x2,x3为插值点构造二次曲线,求第一次近似的二次曲线p(x)的极小值点,由公式得:,比较函数值可知这种情况应消除左边区段。然后用作为x1,x2,x3新3点,重新构造二次曲线p(x),如此反复计算,直到为止。整个迭代过程的计算结果列于表。插值法和试探法的比较试探法中试验点位置是由某种给定的规律确定的,它不考虑函数值的分布。例如,黄金分割法是按等比例0.618缩短率确定的。插值法中,试验点位置是按函数值近似分布的极小点确定的。试探法仅仅利用了试验点函数值大小的比较,而插值法还要利用函数值本身或者其导数信息。试探法仅对试验点函数值的大小进行比较,而函数值本身的特性没有得到充分利用,这样即使对一些简单的函数,例如二次函数,也不得不象一般函数那样进行同样多的函数值计算。插值法是利用函数在已知试验点的值(或导数值)来确定新试验点的位置。当函数具有比较好的解析性质时(例如连续可微性),插值法比试探法效果更好。机械优化设计第四章无约束优化方法×4.1概述4.2最速下降法4.3牛顿型方法4.4共轭方向及共轭方向法4.5共轭梯度法4.6变尺度法4.7坐标轮换法4.8鲍威尔方法4.9单型替换法第四章无约束优化方法第一节概述,数值解法:是利用已有的信息,通过计算点一步一步地直接移动,逐步逼近最后达到最优点。1)选择迭代方向即探索方向;2)在确定的方向上选择适当步长迈步进行探索第四章无约束优化方法第一节概述,无约束优化方法可以分成两类:一类是利用目标函数的一阶或二阶导数的无约束优化方法(如最速下降法、共轭梯度法、牛顿法及变尺度法);另一类只利用目标函数的无约束优化方法(如坐标轮换法、单形替换法及鲍威尔法等)。第四章无约束优化方法第二节最速下降法,定义:最速下降法就是采用使目标函数值下降得最快的负梯度方向作为探索方向,来求目标函数的极小值的方法,又称为梯度法。最速下降法的迭代公式第四章无约束优化方法第二节最速下降法,最速下降法的迭代步骤:第四章无约束优化方法第二节最速下降法,第四章无约束优化方法第二节最速下降法,最速下降法的特点:

1)对初始搜索点无严格要求;

2)收敛速度不快;

3)相邻两次迭代搜索方向互相垂直,在远离极值点处收敛快,在靠近极值点处收敛慢;

4)收敛速度与目标函数值的性质有关,对等值线是同心圆的目标函数来说,经过一次迭代就可以达到极值点。第四章无约束优化方法第三节牛顿型法,牛顿型法的基本思想:利用二次曲线来逐点近似原目标函数,以二次曲线的极小点来近似原目标函数的极小点并逐渐逼近该点。

基本牛顿法的迭代公式:第四章无约束优化方法第三节牛顿型法,基本牛顿法的迭代公式:第四章无约束优化方法第三节牛顿型法,基本牛顿法的迭代公式:阻尼牛顿法的迭代公式:第四章无约束优化方法

第三节牛顿型法,阻尼牛顿法的迭代步骤:第四章无约束优化方法第三节牛顿型法,阻尼牛顿法的迭代公式:第四章无约束优化方法第四节共轭方向及共轭方向法,

在下一次迭代时,选择搜索方d1指向极小点x*,共轭方向以二元函数为例:我们任意选择一个初始点x0点,沿着某个下降方向d0作一维搜索第四章无约束优化方法第四节共轭方向及共轭方向法,共轭方向正交第四章无约束优化方法第四节共轭方向及共轭方向法,共轭方向的性质第四章无约束优化方法第四节共轭方向及共轭方向法,共轭方向法的步骤第四章无约束优化方法第四节共轭方向及共轭方向法,共轭方向的形成格拉姆-斯密特向量系共轭化的方法

n个线性无关的向量系vi(i=0,1,…,n-1)一组独立向量dr(r=0,1,…,n-1)

第四章无约束优化方法第四节共轭方向及共轭方向法,第四章无约束优化方法第五节共轭梯度法,共轭梯度法:先沿最速下降方向(负梯度方向)探索第一步,然后沿与该负梯度方向相共轭的方向进行探索。第四章无约束优化方法第五节共轭梯度法,共轭方向与梯度之间的关系:

它表示沿着方向dk做一维搜索,它的终点xk+1与始点xk的梯度之差与dk的共轭方向dj正交。第四章无约束优化方法第五节共轭梯度法,共轭梯度法递推公式:第四章无约束优化方法第五节共轭梯度法,共轭梯度法步骤:第四章无约束优化方法第五节共轭梯度法,共轭梯度法步骤:第四章无约束优化方法第五节共轭梯度法,共轭梯度法

设法构造出一个对称正定矩阵来代替,并在迭代过程中使逐渐逼近

,那么就简化了牛顿法的计算,并且保持了牛顿法收敛快的优点。第四章无约束优化方法第六节变尺度法(拟牛顿法),变尺度法的基本思想:牛顿方向:变尺度法的迭代公式:尺度矩阵第四章无约束优化方法第六节变尺度法(拟牛顿法),尺度矩阵G正定牛顿迭代公式:目的:目标函数的偏心率减小到零。第四章无约束优化方法第六节变尺度法(拟牛顿法),变尺度矩阵的建立:变尺度法的迭代公式:搜索方向:尺度矩阵应具备的条件:1)为正定对称矩阵;2)具有简单的迭代形式:3)满足拟牛顿条件:令则第四章无约束优化方法第六节变尺度法(拟牛顿法),变尺度法的一般步骤:第四章无约束优化方法第六节变尺度法(拟牛顿法),变尺度法的流程图:第四章无约束优化方法第六节变尺度法(拟牛顿法),DFP算法:DFP算法的校正公式第四章无约束优化方法第六节变尺度法(拟牛顿法),DFP算法:第四章无约束优化方法第七节坐标轮换法,基本思想:每次仅对多元函数的一个变量沿其坐标轴进行一维探索,其余各变量均固定不动,并依次轮换进行一维探索的坐标轴,完成第一轮探索后再重新进行第二轮探索,直到找到目标函数在全域上的最小点为止。目的:将一个多维的无约束最优化问题,转化为一系列的一维问题来求解。第四章无约束优化方法第七节坐标轮换法,二维问题第四章无约束优化方法第七节坐标轮换法,第k轮迭

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论